تحقيقات: التفجير الأخير لسيارة Cybertruck استخدم روبوت المحادثة ChatGPT لتخطيطه
⬤ كشفت تحقيقات الشرطة عن استخدام ChatGPT في التخطيط لتفجير سيارة Cybertruck أمام فندق ترامب.
⬤ خلال الأيام السابقة لتنفيذ التفجير، طلب المنفذ قائمة طويلة من الأوامر من روبوت المحادثة، وكانت أساس خطته.
⬤ يخالف ذلك سياسات وشروط الاستخدام من OpenAI، كما أن هناك جدلاً حول تبعات هذه الحالة وخطورتها.
أوضحت اكتشافات جديدة لشرطة مدينة لاس فيجاس الأمريكية أن الشخص المسؤول عن تفجير سيارة Cybertruck من Tesla أمام فندق ترامب استخدم روبوت المحادثة ChatGPT للتخطيط لجريمته التي نفذها في 1 يناير. وهو ما أعاد تسليط الضوء على قضية معايير استخدام الذكاء الاصطناعي وإمكانية استخدامه غير المسؤول لغايات لا أخلاقية.
في مؤتمر صحفي أخير عُقد بواسطة شرطة مدينة لاس فيجاس وشركائها من مكتب التحقيقات الفيدرالي (FBI) ومكتب الكحول والتبغ والأسلحة النارية والمتفجرات (ATF) في الولايات المتحدة، تم الكشف عن أوامر محددة مُقدمة لروبوت المحادثة ChatGPT، بجانب أنباء تفيد بدور بعض الأوامر في توليد معلومات كانت حاسمة في التخطيط للانفجار.
طلب ماثيو ليفلسبرغر، وهو الرجل الذي مات داخل سيارة Cybertruck جراء انفجارها أمام فندق ترامب، من روبوت المحادثة ChatGPT قائمة طويلة من الأوامر بشأن الخطة التي ينوي تنفيذها، وامتدت الأوامر لأكثر من ساعة متوزعة على الأيام السابقة لتنفيذ التفجير.
تشمل هذه الأوامر مصادر المتفجرات المُستخدمة بالتفجير، وفاعلية هذه المتفجرات، وما إذا كانت الألعاب النارية قانونيةً في ولاية أريزونا، ومكان شراء الأسلحة بمدينة دنفر، ونوع الأسلحة المطلوبة لإشعال المتفجرات المختارة.
أكد مساعد الشريف دوري كورين أن روبوت المحادثة ChatGPT كان له دور فعال في تنفيذ خطة الانفجار، حيث ساعد ليفلسبرغر في تحديد سرعة إطلاق النار المطلوبة لإشعال المتفجرات. لذا، يمكن القول أنه لولا الاستعانة بروبوت المحادثة ChatGPT، لما كان الحادث متفجراً بهذه القوة. ومع ذلك، أكد مكتب ATF في المؤتمر أن بعض المتفجرات لم تنفجر كما خُطط لها.
في حين أن شرطة مدينة لاس فيجاس لم تكشف عن جميع الإجابات المُقدمة من روبوت المحادثة ChatGPT، إلا أن الإجابات المعروضة في المؤتمر الصحفي كانت واضحةً ومكتوبةً باللغة الإنجليزية البسيطة، دون استخدام لمصطلحات هدفها كسر حماية نظام الكشف عن المحتوى في روبوت المحادثة ChatGPT حتى.
رغم أن استخدام روبوت المحادثة ChatGPT بهذه الطريقة يخالف سياسات وشروط الاستخدام الخاصة بشركة OpenAI، إلا أن تدابير الحماية وتحذيرات المحتوى التي يثيرها استخدام روبوت المحادثة ChatGPT في أنشطة إجرامية مثل التفجير ما زالت غير واضحة. وبالنظر إلى التركيز المتزايد على الحالات السلبية التي تستخدم روبوتات المحادثة لصالحها، بداية من الرسائل المضللة المستخدمة في الاحتيال ووصولاً إلى الحالات الأخطر مثل تخطيط عمليات من هذا النوع، تتراكم علامات الاستفهام حول المعايير المطبقة أو تلك التي يمكن تطبيقها للتعامل مع هذا النوع الصاعد من المخاطر.