واشنطن: يبدو الصوت على الهاتف حقيقيًا بشكل مرعب – سمعت أم أمريكية ابنتها تبكي قبل أن يأخذها رجل ويطالب بفدية. لكن الفتاة كانت نسخة ذكاء اصطناعي وكان الاختطاف مزيفًا.
يقول الخبراء إن الخطر الأكبر للذكاء الاصطناعي هو قدرته على تدمير الحدود بين الواقع والخيال ، ومنح مجرمي الإنترنت تقنية رخيصة وفعالة لنشر المعلومات المضللة.
في سلالة جديدة من الاحتيال أثارت قلق السلطات الأمريكية ، يستخدم المحتالون استنساخًا صوتيًا مقنعًا بشكل لا يصدق – متاح على نطاق واسع عبر الإنترنت – للسرقة من الناس عن طريق انتحال صفة أفراد الأسرة.
سمعت جينيفر ديستيفانو ، والدة أريزونا ، صوتًا يقول على الطرف الآخر من السطر: “ساعدني ، يا أمي ، الرجاء مساعدتي”.
كانت دي ستيفانو مقتنعة “بنسبة 100 في المائة” بأن ابنتها البالغة من العمر 15 عامًا كانت تعاني من ضائقة شديدة أثناء رحلة تزلج.
وقالت ديستيفانو لمحطة تلفزيون محلية في أبريل (نيسان): “لم يكن هناك سؤال قط حول من تكون؟ لقد كان صوتها بالكامل … كانت الطريقة التي تبكي بها”.
“لم أشك ولو للحظة واحدة في أنها كانت هي”.
طالب المحتال الذي تولى المكالمة ، التي جاءت من رقم غير معروف لـ Destepano ، بما يصل إلى مليون دولار.
انتهت الحيلة التي تعمل بالذكاء الاصطناعي في غضون دقائق عندما اتصلت ديستيفانو بابنتها. لكن القضية المرعبة ، التي تخضع الآن لتحقيق الشرطة ، سلطت الضوء على احتمال قيام مجرمي الإنترنت بإساءة استخدام نسخ الذكاء الاصطناعي.
وقال وسيم خالد ، الرئيس التنفيذي لشركة بلاك بيرد ، لوكالة فرانس برس إن “استنساخ أصوات الذكاء الاصطناعي ، التي لا يمكن تمييزها تقريبا عن الكلام البشري ، يسمح لممثلي التهديد مثل المحتالين باستخراج المعلومات والأموال بشكل أكثر فعالية من الضحايا”.
ينتج عن البحث البسيط على الإنترنت مجموعة متنوعة من التطبيقات ، يتوفر العديد منها مجانًا ، لإنشاء أصوات ذكاء اصطناعي باستخدام عينة صغيرة – أحيانًا بضع ثوانٍ فقط – من صوت الشخص الحقيقي الذي يمكن سرقته بسهولة من المحتوى المنشور على الإنترنت.
قال خالد: “باستخدام عينة صوتية صغيرة ، يمكن استخدام الاستنساخ الصوتي بالذكاء الاصطناعي لترك الرسائل الصوتية والنصوص الصوتية. ويمكن حتى استخدامه كبديل مباشر للصوت في المحادثات الهاتفية”.
“يمكن للمحتالين استخدام لهجات مختلفة ، أو أنواع مختلفة ، أو حتى تقليد أنماط الكلام لأحبائهم. [The technology] تمكن من إنشاء مزيفة عميقة مقنعة “.
في دراسة استقصائية عالمية شملت 7000 شخص من تسع دول ، بما في ذلك الولايات المتحدة ، قال واحد من كل أربعة أشخاص إنهم تعرضوا لعملية احتيال لاستنساخ الصوت باستخدام الذكاء الاصطناعي أو يعرفون شخصًا قام بذلك.
قال 70٪ من المشاركين في الاستطلاع إنهم غير متأكدين من قدرتهم على “تمييز الصوت المستنسخ عن الشيء الحقيقي” ، حسبما جاء في الاستطلاع الذي نشرته الشهر الماضي مختبرات مكافي ومقرها الولايات المتحدة.
حذر المسؤولون الأمريكيون من تصاعد ما يُعرف عمومًا بـ “عملية احتيال الأجداد” – حيث ينتحل محتال شخصية حفيد يحتاج بشكل عاجل إلى المال في موقف محزن.
قالت لجنة التجارة الفيدرالية الأمريكية: “تتلقى مكالمة. هناك صوت مذعور على الخط. إنه حفيدك. يقول إنه في ورطة عميقة – حطم السيارة وهبط في السجن. لكن يمكنك المساعدة بإرسال الأموال”. تحذير في مارس.
“يبدو مثله تمامًا. كيف يمكن أن تكون عملية احتيال؟ استنساخ صوت ، من هذا القبيل.”
في التعليقات أدناه ، كان تحذير FTC عبارة عن شهادات متعددة من كبار السن تم تضليلهم بهذه الطريقة.
كما أنه يعكس تجربة إيدي ، وهو صبي يبلغ من العمر 19 عامًا في شيكاغو ، تلقى جده مكالمة من شخص بدا مثله تمامًا ، مدعيا أنه بحاجة إلى المال بعد تعرضه لحادث سيارة.
كانت الحيلة ، التي أبلغت عنها شركة McAfee Labs ، مقنعة جدًا لدرجة أن جده بدأ على وجه السرعة في التخلص من الأموال ، بل وفكر في إعادة رهن منزله ، قبل اكتشاف الكذبة.
وقال هاني فريد الأستاذ في كلية الإعلام بجامعة بيركلي لوكالة فرانس برس “لأنه أصبح من السهل الآن إنشاء استنساخ صوتي واقعي للغاية … تقريبا أي شخص لديه أي نوع من التواجد على الإنترنت معرض للهجوم”.
“هذه الحرارة تكتسب قوة دفع وتنتشر.”
في وقت سابق من هذا العام ، اعترفت شركة ElevenLabs الناشئة لمنظمة العفو الدولية بإمكانية إساءة استخدام أداة استنساخ الصوت الخاصة بها “لأغراض خبيثة” بعد أن نشر المستخدمون صوتًا مزيفًا للغاية متظاهرين بأنهم الممثلة إيما واتسون تقرأ السيرة الذاتية لأدولف هتلر Mein Kampf.
وقال غال تال-هوشبيرج ، كبير مسؤولي التكنولوجيا في شركة رأس المال الاستثماري Team8 ، لوكالة فرانس برس: “نقترب بسرعة من النقطة التي لا يمكنك فيها الوثوق بالأشياء التي تراها على الإنترنت”.
قال: “سنحتاج إلى تقنية جديدة لنعرف ما إذا كان الشخص الذي تعتقد أنك تتحدث إليه هو حقًا الشخص الذي تتحدث إليه”.