أداة الصور الجديدة من ChatGPT تفتح أبواباً جديدة من الاحتيال: تزييف فواتير وعقود وصور حوادث واقعية

⬤ أثارت أداة ChatGPT الجديدة لتوليد الصور مخاوف واسعة بعد إثبات قدرتها على إنشاء وثائق مزيفة واقعية.

⬤ أظهرت تجارب متعددة إمكانية استخدام الأداة في الاحتيال المالي وهندسة الوثائق الرسمية لأغراض مشبوهة.

⬤ رغم تعهد OpenAI بمراقبة وتدقيق الاستخدام، يظل خطر الاستغلال السيئ مثار جدل أخلاقي وتقني.

بينما كانت الأوساط التقنية تحتفي بقدرات ChatGPT الجديدة في توليد الصور، انتقل الحديث سريعاً من الإعجاب بجوانبها الإبداعية إلى القلق من احتمالات إساءة استخدامها. فقد أبهرت الأداة المستخدمين بإمكانية تحويل اللحظات العادية إلى لوحات فنية بأسلوب Studio Ghibli أو The Simpsons. لكن سرعان ما بدأ بعض المستخدمين باستكشاف جانب أكثر إثارة للجدل، متمثل في إنشاء وثائق مزيفة بدرجة واقعية تثير المخاوف من موجة جديدة من الاحتيال الرقمي.

ما كان يتطلب سابقاً مهارات احترافية في Photoshop وساعات من العمل، بات اليوم ممكناً في دقائق بفضل تعليمات نصية بسيطة، بحسب ما أظهره مستخدمون على مختلف منصات التواصل الاجتماعي.

جاء أحد أبرز الأمثلة على ذلك من المستثمر ديـدي داس، الذي عرض على منصة X إيصالاً وهمياً يبدو حقيقياً من مطعم فاخر في سان فرانسيسكو، زُعم أنه مصمم باستخدام الأداة الجديدة. وسرعان ما تبعه آخرون بمحاولات مشابهة، أضافوا خلالها تفاصيل مثل بقع الطعام أو طيات الورقة لإضفاء مزيد من الواقعية، كما حدث مع إيصال وهمي من سلسلة مطاعم فرنسية نُشر على LinkedIn.

لا يقتصر القلق على فواتير المطاعم. فقد كشفت تجارب أجرتها مؤسسات إعلامية مثل Axios وTechCrunch أن الأداة قادرة ـ وإن بشكل غير مثالي ـ على إنتاج نماذج مزيفة من عروض التوظيف، تتضمن أسماء وشروطاً ورواتب من شركات كبرى مثل Apple. كما استطاعت الأداة إنشاء إعلانات مزيفة على مواقع التواصل الاجتماعي تروج لاستثمارات بالعملات الرقمية، وهو ما أثار تحذيرات المتخصصين في الأمن السيبراني.

مواضيع مشابهة

خداع ChatGPT عبر الصور

تكمن الخطورة في احتمالية استخدام هذه الوثائق المزيفة لتقديم تقارير نفقات وهمية، أو خداع الضحايا للاستثمار في مشروعات زائفة، أو حتى لسرقة الهوية والوصول إلى أنظمة حساسة باستخدام مستندات توظيف باطلة.

في منشور جريء على Instagram، سلط حساب chatgptricks الضوء على هذا التحول المقلق، مشيراً إلى إمكانية توظيف تلك القدرات في أشياء مثل «الاحتيال على شركات التأمين،» عبر إنشاء صور مزيفة لأضرار في السيارات، مثل الخدوش والانبعاجات، في محاولة لتقديم مطالبات كاذبة.

رغم ذلك، لا تزال تلك التقنية تعاني من بعض العيوب. إذ تظهر بعض الأخطاء الواضحة في بعض الإيصالات المزيفة، والحديث هنا عن عمليات حسابية غير دقيقة، وهي مشكلة معروفة في النماذج اللغوية، أو تنسيقات غير مألوفة كاستخدام الفواصل بدل النقاط في إجمالي الفاتورة. كما أظهرت الاختبارات أيضاً أن نظام الحماية الداخلي في OpenAI قد يعرقل بعض المحاولات؛ إذ تم رفض طلب إنشاء رخصة قيادة مزيفة لولاية نيوجيرسي، واكتفى ChatGPT باقتراح تصميم عام أقل إقناعاً.

عمليات حسابية غير دقيقة في مخرجات صور ChatGPT

من جانبها، علقت شركة OpenAI على هذه المخاوف مؤكدة أن هدفها هو «منح المستخدمين حرية إبداعية واسعة»، لكنها في الوقت ذاته تراقب استخدامات الأداة، وتضيف بيانات تعريف تشير إلى أن الصور منتجة بواسطة الذكاء الاصطناعي، وتتخذ إجراءات ضد الاستخدامات المخالفة لسياستها، والتي تحظر بشكل صريح أي أعمال احتيالية. كما أشارت الشركة إلى استخدامات بديلة مشروعة للوثائق الوهمية، مثل استخدامها في تعليم مبادئ التثقيف في المجال المالي.

رغم كثرة الأمثلة التي يجري تداولها على الإنترنت، أكدت الجهات المتخصصة في الأمن السيبراني أنها لم ترَ بعد أدلة واضحة على أن المحتالين بدؤوا باستخدام القدرات الجديدة في تنفيذ عمليات احتيال فعلية.

تطرح هذه التطورات تساؤلات أخلاقية عميقة، في ظل في مشهد تقني جديد ينذر بالخير والشر معاً، ومع تصاعد موجة الإبداع، قد نكون أمام فترة ارتفاع كبير في حالات الاحتيال أيضاً. وقد تضطر مؤسسات مثل شركات التأمين إلى تشديد معاييرها، وهو تصرف قد ينعكس سلباً على العملاء الملتزمين.

شارك المحتوى |
close icon