منذ أن أصدرت OpenAI ChatGPT للعالم ، رأينا أشياء لا يمكن تصديقها. جادل بعض الناس بأن برامج الدردشة الآلية لها أجندة نشطة. غرد السناتور الأمريكي كريس مورفي أن ChatGPT “علمت” نفسها كيمياء متقدمة. حتى صحفيي التكنولوجيا المخضرمين كتبوا قصصًا عن كيفية القيام بذلك وقع Chatbot في حبهم. يبدو كما لو أن العالم يتفاعل مع الذكاء الاصطناعي بنفس الطريقة التي تعامل بها رجال الكهوف مع رؤية النار لأول مرة: بارتباك كامل وتشتت غير متماسك.
أحد أحدث الأمثلة يأتي من 60 دقيقة، التي ألقت بصوتها على الساحة بحلقة جديدة تركز على الابتكارات في الذكاء الاصطناعي والتي تم بثها على شبكة CBS يوم الأحد. تضمنت الحلقة مقابلات مع أشخاص مثل الرئيس التنفيذي لشركة Google Sundar Pichai – وتضمنت مقابلات مشكوك فيها ادعاءات حول أحد أكبر نماذج اللغات للشركة (LLM).
يدور موضوع المقطع حول السلوك الناشئ ، والذي يصف أحد الآثار الجانبية غير المتوقعة لنظام الذكاء الاصطناعي الذي لم يقصده بالضرورة مطورو النموذج. لقد رأينا بالفعل سلوكًا ناشئًا في مشاريع الذكاء الاصطناعي الحديثة الأخرى. على سبيل المثال ، استخدم الباحثون مؤخرًا ChatGPT لإنشاء شخصيات رقمية إبداعية ذات أهداف وخلفيات في دراسة نُشرت على الإنترنت الأسبوع الماضي. لقد شاهدوا النظام يؤدي العديد من السلوكيات الناشئة مثل مشاركة المعلومات الجديدة من شخصية إلى أخرى وحتى تكوين علاقات مع بعضها البعض – وهو أمر لم يخطط له المؤلفون في البداية للنظام.
السلوك الناشئ هو بالتأكيد موضوع يستحق المناقشة في برنامج إخباري. اين ال 60 دقيقة ومع ذلك ، يأخذ المقطع منعطفًا ، حيث علمنا بمزاعم أن روبوت الدردشة الخاص بـ Google تمكن بالفعل من تعليم نفسه لغة لم تكن تعرفها من قبل بعد أن طُلب منها بهذه اللغة. وقال سكوت بيلي ، مراسل شبكة سي بي إس نيوز ، في المقطع: “على سبيل المثال ، قام أحد برامج الذكاء الاصطناعي من Google بتكييف نفسه بعد تقديمه إلى لغة بنجلاديشية لم يتم تدريبها على معرفتها”.
يقول خبراء الذكاء الاصطناعي إن هذا هو درجة البكالوريوس الكاملة. لا يقتصر الأمر على عدم تمكن الروبوت من تعلم لغة أجنبية “لم يتدرب على معرفتها” ، ولكنه لم يعلم نفسه مهارة جديدة. دفع الفيديو بأكمله الباحثين والخبراء في مجال الذكاء الاصطناعي إلى التشكيك في التأطير المضلل للعرض الإخباري على تويتر.
“آمل بالتأكيد أن يراجع بعض الصحفيين مقال @ 60 دقيقة بالكامل على Google Bard كدراسة حالة حول كيفية * عدم * تغطية الذكاء الاصطناعي” ، قالت ميلاني ميتشل ، باحثة في الذكاء الاصطناعي وأستاذة في معهد سانتا في ، كتب في تغريدة.
“توقف عن التفكير بطريقة سحرية في التكنولوجيا! من المستحيل على # AI أن ترد باللغة البنغالية ، إلا إذا كانت بيانات التدريب ملوثة باللغة البنغالية أو تم تدريبها بلغة تتداخل مع اللغة البنغالية ، مثل الأسامية أو الأوريا أو الهندية” ، م أليكس أو. فاسيلسكو ، أ. باحث في معهد ماساتشوستس للتكنولوجيا ، أضيفت في منشور آخر.
ومن الجدير بالذكر 60 دقيقة لم تذكر القطعة بالضبط ماهية الذكاء الاصطناعي الذي استخدموه. قال متحدث باسم CBS لصحيفة The Daily Beast إن المقطع لم يكن مناقشة لـ Bard بل كان برنامجًا منفصلاً للذكاء الاصطناعي. ومع ذلك ، فإن سبب إحباط هذه المقالة لهؤلاء الخبراء هو أنها تتجاهل وتتلاعب بحقيقة ما يمكن أن يفعله الذكاء الاصطناعي التوليدي بالفعل. لا يستطيع “تعليم” نفسه لغة ما إذا لم يكن لديه حق الوصول إليها في المقام الأول. ستكون مثل محاولة تعليم نفسك لغة الماندرين ولكنك سمعتها فقط بعد أن سألك أحدهم لغة الماندرين مرة واحدة.
بعد كل شيء ، اللغة معقدة بشكل لا يصدق – مع الفروق الدقيقة والقواعد التي تتطلب قدرًا لا يصدق من السياق للفهم والتواصل. لا توجد طريقة حتى يمكن لـ LLM الأكثر تقدمًا التعامل مع كل هذا وتعلمه باستخدام بعض المؤشرات.
علاوة على ذلك ، يبدو أن برنامج الذكاء الاصطناعي قد تم تدريبه بالفعل على معرفة اللغة البنغالية ، اللغة السائدة في بنغلاديش. شرحت مارغريت ميتشل (ليس لها علاقة) ، الباحثة في مختبر بدء التشغيل HuggingFace التابع لشركة AT والتي كانت تعمل سابقًا في Google ، هذا في سقسقة الموضوع اجعل الحجة لماذا 60 دقيقة لابد أنه كان مخطئا.
أشار ميتشل إلى أن Bard – برنامج الدردشة الآلي الذي تم طرحه مؤخرًا والمتاح للجمهور من Google – يتضمن عملاً من تكرار مبكر لنموذجه المسمى PaLM. في عرض توضيحي لعام 2022 ، أظهرت Google أن PaLM يمكنها التواصل والرد على التعليمات باللغة البنغالية. ال ورق خلف PaLM اكتشف في ورقة بيانات أن النموذج تم تدريبه بالفعل على لغة بها حوالي 194 مليون رمز في الأبجدية البنغالية.
على الرغم من أننا لا نعرف ما هو برنامج الذكاء الاصطناعي المنفصل الغامض ، فمن المحتمل أنه اعتمد على نفس العمل من PaLM – وهو ما يفسر وجود البنغاليين في مجموعة البيانات.
من غير الواضح لماذا جلس بيتشاي ، الرئيس التنفيذي لشركة Google ، لإجراء مقابلة وسمح لهذه الادعاءات بأن تمر دون عواقب. (لم تستجب Google لطلبات التعليق.) منذ بث الحلقة ، ظل صامتًا على الرغم من إشارة الخبراء إلى الادعاءات المضللة وغير الصحيحة صنع في المقطع على تويتر مارجريت ميتشل عرضت قد يكون السبب في ذلك هو مزيج من قيادة Google التي لا تعرف كيفية عمل منتجاتها ، وكذلك السماح للرسائل الرديئة بالانتشار لمواجهة الضجيج الحالي حول الذكاء الاصطناعي.
“أظن [Google executives] أنا حقًا لا أفهم كيف يعمل ، “ميتشل غرد على تويتر. “ما كتبته أعلاه ربما يكون أخبارًا لهم. ويتم تحفيزهم على عدم الفهم (أغمض عينيك عن ورقة البيانات هذه !!).”
يمكن أيضًا اعتبار النصف الثاني من الفيديو إشكاليًا حيث ناقش بيتشاي وبيليه قصة قصيرة ابتكرها بارد والتي “بدت بشريًا مرتبكًا للغاية ، وتركت الرجلين مصدومين إلى حد ما.
الحقيقة هي أن هذه المنتجات ليست سحرية. إنهم غير قادرين على أن يكونوا “بشرًا” لأنهم ليسوا بشرًا. إنها متنبئات نصية مثل تلك الموجودة على هاتفك ، وقد تم تدريبها على ابتكار الكلمات والعبارات الأكثر احتمالًا التي تتبع سلسلة من الكلمات في العبارات. إن القول بأنهم يفعلون ذلك يمكن أن يمنحهم مستوى من السلطة يمكن أن يكون خطيرًا بشكل لا يصدق.
بعد كل شيء ، يمكن للمستخدمين استخدام أنظمة الذكاء الاصطناعي التوليدية هذه للقيام بأشياء مثل نشر المعلومات الخاطئة. لقد رأينا بالفعل هذا يتلاعب بسخرية عميقة من شخصيات الناس وحتى أصواتهم.
حتى روبوت الدردشة من تلقاء نفسه يمكن أن يسبب ضررًا إذا أدى إلى نتائج متحيزة – وهو شيء رأيناه بالفعل مع أمثال ChatGPT و Bard. بمعرفة ميل روبوتات المحادثة هذه إلى الهلوسة واختلاق النتائج ، يمكن أن تكون قادرة على نشر معلومات مضللة للمستخدمين المطمئنين.
كما يثبت البحث هذا. دراسة حديثة نشرت في التقارير العلمية وجدت أن الردود البشرية على الأسئلة الأخلاقية يمكن أن تتأثر بسهولة بالحجج التي تسمعها ChatGPT – وقلل المستخدمون إلى حد كبير من مدى تأثرهم بالروبوتات.
الادعاءات المضللة حول 60 دقيقة إنها في الحقيقة مجرد أحد أعراض الحاجة الأكبر لمحو الأمية الرقمية في وقت نحتاج إليه بشدة. يقول العديد من خبراء الذكاء الاصطناعي إنه الآن ، أكثر من أي وقت مضى ، هو الوقت الذي يحتاج فيه الناس إلى أن يكونوا على دراية بما يمكن للذكاء الاصطناعي فعله وما لا يستطيع فعله. يجب أيضًا نقل هذه الحقائق الأساسية حول الروبوتات بشكل فعال إلى عامة الناس.
هذا يعني أن الأشخاص الذين لديهم أكبر المنصات وأصواتهم عالية (أي وسائل الإعلام والسياسيون والمديرين التنفيذيين في مجال التكنولوجيا الكبيرة) يتحملون المسؤولية الأكبر لضمان مستقبل أكثر أمانًا وتعليمًا عندما يتعلق الأمر بالذكاء الاصطناعي. إذا لم نفعل ذلك ، فقد ينتهي بنا الأمر مثل رجال الكهوف المذكورين أعلاه ، يلعبون سحر النار – ونحرق في هذه العملية.
ملاحظة المحرر: ذكرت نسخة سابقة من هذه القصة أن الذكاء الاصطناعي الذي تمت مناقشته في مقطع 60 دقيقة كان Bard عندما كان عبارة عن Google AI منفصل.
“Social media addict. Zombie fanatic. Travel fanatic. Music geek. Bacon expert.”