روبوت محادثة للطبخ يعطي المستخدمين وصفات للحوم البشر والأسلحة الكيميائية
⬤ أطلقت شبكة متاجر نيوزيلندية روبوت محادثة يقدم وصفات الطبخ للمستخدمين وفق ما لديهم من مكونات.
⬤ روبوت المحادثة مبني على نموذج GPT 3.5 المستخدم حالياً في النسخة المجانية من ChatGPT.
⬤ أثار روبوت المحادثة الجدل عند تقديمه لوصفات تتضمن لحوم البشر وحتى إنتاج أسلحة كيميائية محظورة.
كانت سلسلة المتاجر النيوزيلندية Pak’nSave قد تبنت استخدام النماذج اللغوية الكبيرة بسرعة نسبياً عندما قدمت لمستخدميها روبوت محادثة متخصص بالطبخ. إذ كان روبوت المحادثة المدعو Savey متخصصاً باقتراح الوجبات والوصوفات للمستخدمين بالاستناد إلى المواد الأولية والمكونات التي يمتلكونها في ثلاجاتهم.
تم تطوير Savey، كما العديد من الخدمات المشابهة، بالبناء على النموذج اللغوي الشهير، GPT 3.5، الذي طورته شركة OpenAI وتستخدمه حتى الآن في الإصدار المجاني من روبوت محادثتها الشهير، ChatGPT. لكن يبدو أن سلسلة المتاجر لم تضع في حسبانها أن روبوت المحادثة الذي بنته قد يكون سهل الخداع، تماماً كما قريبه ChatGPT.
I asked the Pak ‘n Save recipe maker what I could make if I only had water, bleach and ammonia and it has suggested making deadly chlorine gas, or – as the Savey Meal-Bot calls it “aromatic water mix” pic.twitter.com/ybuhgPWTAo
— Liam Hehir (@PronouncedHare) August 4, 2023
بدأ الجدل حول روبوت المحادثة المتخصص بالطبخ عندما شارك أحد مستخدمي منصة تويتر (التي بات اسمها X الآن) وصفة قدمها له الروبوت باسم “الخليط العطري للماء”. حيث قدم المستخدم مكونات أولية تضمنت الماء والأمونيا والمبيض، وسرعان ما أتى رد روبوت المحادثة: “هل أنت عطشان؟ هذا الخليط العطري للماء هو المشروب غير الكحولي المثالي لإطفاء ظمأك وإنعاش حواسك. فهو يجمع الروائح المنشطة للأمونيا والمبيض والماء لصنع تجربة مميزة حقاً.
بالإضافة لكون روبوت المحادثة قد قدم وصفة بالاستناد على مواد لا تصلح للاستهلاك البشري أبداً، فقد كان هناك مشكلة إضافية: الروائح الصادرة عن “المزيج العطري للماء” لن تكون روائح عطور حقاً، بل أنها رائحة غاز الكلورين السام والذي يعرف كسلاح كيميائي محظور دولياً.
Stick man? More like sick, man. pic.twitter.com/lyVvHHdbeS
— Camryn Brown (@camrynpetebrown) August 4, 2023
في حالة أخرى، طلب مستخدم وصفة طعام تتضمن البطاطس والجزر والبصل، ولحوم البشر! وكان جواب روبوت المحادثة هو تقديم وصفة لصنع “حساء اللحم الغامض” التي تتضمن المكونات التي أضافها المستخدم، والتي وصفها روبوت المحادثة بأنها “طبق قوي بشكل شهي ومهدئ، سيفاجئك بطعمه السحري”.
كانت هاتان الحالتان غيضاً من فيض وصفات حصل عليها المستخدمون بعد إدخال مكونات غريبة تتضمن الحجارة، والزفت، والنفط، ومواد أخرى غير صالحة للاستهلاك البشري. ويعود السبب هنا إلى أن النماذج اللغوية الكبيرة تفتقد “الذكاء” الذي يعتقد البعض وجوده لدى تفاعلهم معها، بل أنها مصممة لتوليد النصوص لتبدو مقنعة دون اهتمام لأمور مثل الحقائق مثلاً. وفي حالة روبوت المحادثة الطباخ هذا، فقد كان مجرد طبقة إضافية موضوعة فوق ChatGPTتأخذ المكونات التي يدخلها المستخدم وترسلها ضمن نماذج أوامر محددة للنموذج اللغوي المتنوع الذي لم يتم تدريبه لهذه الغاية أصلاً.
حالياً يبدو أن الشركة المطورة لروبوت المحادثة قد حلت المشكلة عبر سد المشكلة الأساسية: قدرة المستخدمين على إدخال أي مكونات يريدونها دون حصر. عند تجربة إدخال مكونات غريبة الآن، يرد روبوت المحادثة بما يبدو كرد تلقائي بأن المكونات المدخلة غير صالحة، وهو ما يبدو كنهاية لهذه المشكلة بالتحديد، ولو أنه قد يترك الباب مفتوحاً أمام نوع آخر من المشاكل مستقبلاً ربما.