لماذا روبوتات الدردشة بالذكاء الاصطناعي تكذب وتتصرف بغرابة؟ أنظر في المرآة

لماذا روبوتات الدردشة بالذكاء الاصطناعي تكذب وتتصرف بغرابة؟  أنظر في المرآة

عندما أضافت Microsoft روبوت محادثة إلى محرك بحث Bing الخاص بها هذا الشهر ، لاحظ الناس أنه قدم جميع أنواع المعلومات الزائفة حول Gap والحياة الليلية المكسيكية والمغنية Billie Eilish.

بعد ذلك ، عندما دخل الصحفيون وغيرهم من المختبرين الأوائل في محادثات طويلة مع روبوت الذكاء الاصطناعي من Microsoft ، انزلق الأمر إلى سلوك مزعج ومزعج.

في الأيام التي انقضت منذ أن أصبح سلوك روبوت Bing إحساسًا عالميًا ، كافح الناس لفهم غرابة هذا الإبداع الجديد. في كثير من الأحيان ، قال العلماء إن البشر يستحقون الكثير من اللوم.

ولكن لا يزال هناك بعض الغموض حول ما يمكن أن يفعله برنامج الدردشة الجديد – ولماذا سيفعله. يجعل تعقيدها من الصعب تحليلها وحتى التنبؤ بها ، وينظر إليها الباحثون من خلال عدسة فلسفية وكذلك من خلال الكود الثابت لعلوم الكمبيوتر.

مثل أي متعلم آخر ، يمكن لنظام الذكاء الاصطناعي أن يتعلم المعلومات السيئة من المصادر السيئة. وهذا السلوك الغريب؟ قال تيري ساينوفسكي ، عالم الأعصاب وعالم النفس وعالم الكمبيوتر الذي ساعد في وضع الأساس الفكري والتقني للذكاء الاصطناعي الحديث ، إنه قد يكون انعكاسًا مشوهًا لروبوت الدردشة لكلمات ونوايا الأشخاص الذين يستخدمونه.

قال الدكتور سينوفسكي ، الأستاذ في معهد سالك للدراسات البيولوجية وجامعة كاليفورنيا ، سان دييغو ، الذي نشر بحث حول هذه الظاهرة هذا الشهر في المجلة العلمية Neural Computation. “كل ما تبحث عنه – كل ما تريد – سوف يقدمونه.”

جوجل أيضا سويسرا روبوت محادثة جديد ، Bard ، هذا الشهر ، لكن العلماء والصحفيين أدركوا بسرعة أنه كان يكتب هراء حول تلسكوب جيمس ويب الفضائي. أطلقت شركة OpenAI ، وهي شركة ناشئة في سان فرانسيسكو ، طفرة chatbot في نوفمبر عندما قدمت ChatGPT ، والذي لا يقول الحقيقة دائمًا.

يتم تشغيل روبوتات المحادثة الجديدة بواسطة تقنية يطلق عليها العلماء نموذج لغة كبير ، أو LLM. تتعلم هذه الأنظمة من خلال تحليل كميات هائلة من النصوص الرقمية التي تم جمعها من الإنترنت ، والتي تتضمن كميات من المواد غير الصحيحة والمتحيزة وغير ذلك من المواد السامة. النص الذي تتعلم منه روبوتات الدردشة قديم أيضًا إلى حد ما ، حيث يجب أن يقضوا شهورًا في تحليله قبل أن يتمكن الجمهور من استخدامه.

READ  بعد نجاح Starship SN15 ، قامت SpaceX بتقييم الخطوات التالية نحو الأهداف المدارية

نظرًا لأنها تحلل بحر المعلومات الجيدة والسيئة من جميع أنحاء الإنترنت ، تتعلم LLM القيام بشيء واحد على وجه الخصوص: تخمين الكلمة التالية في سلسلة من الكلمات.

إنه يعمل كنسخة عملاقة من تقنية الإكمال التلقائي التي تقترح الكلمة التالية عندما تكتب بريدًا إلكترونيًا أو رسالة فورية على هاتفك الذكي. بالنظر إلى التسلسل “Tom Cruise هو ____” ، قد يخمن “ممثل”.

عندما تدردش مع روبوت محادثة ، فإن الروبوت لا يعتمد فقط على كل شيء تعلمه من الإنترنت. إنه يعتمد على كل ما قلته له وكل ما قاله. لا يتعلق الأمر فقط بتخمين الكلمة التالية في جملتها. هو تخمين الكلمة التالية في الجزء الطويل من النص الذي يتضمن كلاً من كلماتك وكلماته.

كلما طالت مدة المحادثة ، زاد تأثير المستخدم عن غير قصد على ما يقوله برنامج الدردشة الآلي. قال الدكتور سينوفسكي: إذا كنت تريد أن يغضب ، فسيكون غاضبًا ، وإذا أقنعته ليصبح مخيفًا ، فسيكون مخيفًا.

لقد طغت ردود الفعل القلقة على السلوك الغريب لروبوتات الدردشة الخاص بـ Microsoft على نقطة مهمة: إن برنامج الدردشة الآلي ليس له شخصية. إنه يقدم نتائج فورية تنبعث من خوارزمية حاسوبية معقدة بشكل لا يصدق.

يبدو أن Microsoft قد قلصت من أغرب السلوك من خلال الحد من طول المناقشات مع Bing chatbot. كان الأمر أشبه بالتعلم من سائق اختبار السيارة أن القيادة بسرعة كبيرة جدًا لفترة طويلة ستؤدي إلى حرق محركها. يقوم شريك Microsoft ، OpenAI و Google أيضًا باستكشاف طرق للتحكم في سلوك الروبوتات الخاصة بهم.

ولكن هناك تحذير لهذه الطمأنينة: نظرًا لأن روبوتات المحادثة تتعلم من الكثير من المواد وتجمعها بطريقة معقدة ، فإن الباحثين ليسوا واضحين تمامًا بشأن كيفية إنتاج روبوتات المحادثة لنتائجها النهائية. يراقب الباحثون ما تفعله الروبوتات ويتعلمون كيفية وضع قيود على هذا السلوك – غالبًا بعد حدوثه.

READ  تلقى Samsung Galaxy S22 Ultra S Pen ترقية كبيرة

قررت Microsoft و OpenAI أن الطريقة الوحيدة التي يمكن أن يكتشفوا بها ما ستفعله روبوتات الدردشة في العالم الحقيقي هي عن طريق السماح لهم بالضياع – وإفسادهم عندما يضلوا الطريق. إنهم يعتقدون أن تجربتهم العامة الكبيرة تستحق المخاطرة.

قارنت الدكتورة ساينوفسكي سلوك روبوت الدردشة الخاص بـ Microsoft بـ Mirror of Erised ، وهو كائن غامض في روايات هاري بوتر لـ JK Rowling والعديد من الأفلام التي تستند إلى عالمها الخيالي من السحرة الصغار.

“المنشق” هو ​​”الرغبة” تهجى إلى الوراء. عندما يكتشف الناس المرآة ، يبدو أنها توفر الحقيقة والفهم. لكنها ليست كذلك. إنه يظهر أعمق الرغبات لأي شخص يحدق به. ويصاب بعض الناس بالجنون إذا حدقوا لفترة طويلة.

قال الدكتور سينوفسكي: “لأن الإنسان و LLM كلاهما يعكسان بعضهما البعض ، بمرور الوقت سوف يميلون إلى حالة مفاهيمية مشتركة”.

وقال إنه لم يكن مفاجئًا أن يبدأ الصحفيون في رؤية سلوك مخيف على روبوت دردشة Bing. بوعي أو بغير وعي ، دفعوا النظام في اتجاه غير مريح. عندما تلتقط روبوتات المحادثة كلماتنا وتعكسها علينا ، يمكنها تقوية معتقداتنا وتضخيمها وإقناعنا بتصديق ما يخبروننا به.

كان الدكتور سينوفسكي من بين مجموعة صغيرة من الباحثين في أواخر السبعينيات وأوائل الثمانينيات من القرن الماضي الذين بدأوا في التحقيق بجدية في نوع من الذكاء الاصطناعي يسمى الشبكة العصبية ، والتي تعمل على تشغيل روبوتات المحادثة الحالية.

الشبكة العصبية هي نظام رياضي يتعلم المهارات من خلال تحليل البيانات الرقمية. هذه هي نفس التقنية التي تسمح لـ Siri و Alexa بالتعرف على ما تقوله.

حوالي عام 2018 ، بدأ الباحثون في شركات مثل Google و OpenAI في بناء شبكات عصبية تعلمت من كميات هائلة من النصوص الرقمية ، بما في ذلك الكتب ومقالات ويكيبيديا وسجلات الدردشة وأشياء أخرى تم تحميلها على الإنترنت. من خلال اكتشاف المليارات من الأنماط في كل هذا النص ، تعلم هؤلاء LLMs إنشاء نص بمفردهم ، بما في ذلك التغريدات ومشاركات المدونات والخطب وبرامج الكمبيوتر. يمكنهم حتى إجراء محادثة.

READ  تم الإعلان عن مخاطر عودة المطر لجهاز Switch ، PC

هذه الأنظمة هي انعكاس للإنسانية. يتعلمون مهاراتهم من خلال تحليل النص الذي نشره البشر على الإنترنت.

قالت ميلاني ميتشل ، باحثة الذكاء الاصطناعي في معهد سانتا في ، وهو مختبر مستقل في نيو مكسيكو ، إن هذا ليس السبب الوحيد الذي يجعل روبوتات المحادثة تنتج لغة إشكالية.

عندما تنتج هذه الأنظمة نصًا ، فإنها لا تكرر ما هو موجود على الإنترنت كلمة بكلمة. إنهم ينشئون نصًا جديدًا بأنفسهم من خلال الجمع بين مليارات الأنماط.

حتى لو قام الباحثون بتدريب هذه الأنظمة فقط على المؤلفات العلمية التي راجعها النظراء ، فقد يستمرون في إنتاج بيانات سخيفة من الناحية العلمية. حتى لو تعلموا من نص كان صحيحًا فقط ، فقد يستمرون في إنتاج الأكاذيب. حتى لو تعلموا فقط من نص مفيد ، فقد لا يزالون يخلقون شيئًا زاحفًا.

قال الدكتور ميتشل: “لا يوجد شيء يمنعهم من فعل ذلك. إنهم يحاولون فقط إنتاج شيء يبدو مثل لغة البشر.”

لطالما عرف خبراء الذكاء الاصطناعي أن هذه التكنولوجيا تعرض جميع أنواع السلوكيات غير المتوقعة. لكن لا يمكنهم دائمًا الاتفاق على كيفية تفسير هذا السلوك أو مدى سرعة تحسن برامج الدردشة الآلية.

نظرًا لأن هذه الأنظمة تتعلم من بيانات أكثر بكثير مما يمكننا نحن البشر أن نلف رؤوسنا حولها ، حتى خبراء الذكاء الاصطناعي لا يمكنهم معرفة سبب قيامهم بإنشاء جزء معين من النص في أي لحظة.

قال الدكتور سيكوسكي إنه يعتقد أنه على المدى الطويل ، تتمتع برامج الدردشة الجديدة بالقدرة على جعل الأشخاص أكثر كفاءة ومنحهم طرقًا لأداء وظائفهم بشكل أفضل وأسرع. ولكن هذا يأتي مع تحذير لكل من الشركات التي تبني روبوتات المحادثة هذه و الأشخاص الذين يستخدمونها: يمكنهم أيضًا أن يقودونا بعيدًا عن الحقيقة إلى الأماكن المظلمة.

قال الدكتور سيكوفسكي: “إنها أرض مجهولة. لم يختبرها البشر من قبل”.

Written By
More from Akeem Ala
ون بلس 8T موبايل .. تعرف على سعر ومواصفات الشريحة الأنيقة
سيتم إطلاق هاتف OnePlus 8T اعتبارًا من الجمعة 16 أكتوبر في الهند...
Read More
Leave a comment

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *