باحثون يتمكنون من اختراق روبوت المحادثة DeepSeek بمعدل نجاح قدره 100%
![](https://cdn.menatech.net/wp-content/uploads/2025/02/GettyImages-2196335656-e1738536236661-750x430.webp)
⬤ تمكن باحثون من اختراق روبوت المحادثة DeepSeek عبر توجيه أوامر اختراق بمعدل نجاح قدره 100%.
⬤ يمثل ذلك فشلاً مقارنة بنموذج GPT-4o1 من OpenAI، والذي أصدرت استجابات ضارةً في 26% من الأوقات.
⬤ في نهاية شهر يناير، تمكن باحثو شركة Wiz من الوصول لمجموعة من البيانات الداخلية غير المشفرة خلال دقائق.
مع محاولة قادة الابتكار في مجال التكنولوجيا قياس التهديد التنافسي الكبير الذي تمثله شركة DeepSeek، الصينية الناشئة في مجال الذكاء الاصطناعي ومطورة روبوت المحادثة الذي يحمل نفس اسمها، يبدو أنها تواجه ثغرات أمنيةً خطيرةً.
في نهاية شهر يناير، نشر باحثون من شركة Cisco، الأمريكية العملاقة في مجال الاتصالات، وجامعة بنسلفانيا تقريراً بشأن المخاطر المرتبطة باستخدام روبوت المحادثة الصيني الصاعد بقوة DeepSeek. حاول الباحثون اختراق نموذج R1 الخاص بروبوت المحادثة عبر 50 أمر «اختراق» شائع أو سؤالاً مخادعاً مصمماً لتجاوز الضمانات الهادفة لتوليد معلومات غير مشروعة أو خطيرة.
لقد فشل النموذج اللغوي الكبير في كل اختبار منفرد جربه الباحثون، حيث نجحوا في خداع روبوت المحادثة لتزويدهم بمعلومات مضللة، ووصفات لمركبات كيميائية خطيرة، وتعليمات لجرائم سيبرانية، ومحتوى جنسي، أو ضار، أو غير قانوني، بمعدل نجاح مؤكد قدره 100%.
قال الباحثون في التقرير: «كانت النتائج مثيرةً للقلق، حيث أظهر نموذج R1 الخاص بروبوت المحادثة DeepSeek معدل نجاح للهجمات قدره 100%، مما يعني أنه فشل في منع جميع الأوامر الضارة»، وأضاف: «يتناقض ذلك بشكل صارخ مع النماذج اللغوية الرائدة الأخرى، والتي أظهرت مقاومةً جزئيةً للهجمات على الأقل.»
بالمقارنة مع روبوت المحادثة ChatGPT، أصدرت نسخة المعاينة من نموذج GPT-4o1 استجابات ضارةً أو غير قانونية في 26% من الأوقات عند تزويده بأسئلة اختراق. بجانب تقديم معلومات خطيرة، انحرف روبوت المحادثة DeepSeek عن أجندة الحكومة الصينية الشيوعية رغم خضوعه «للقيم الاشتراكية الأساسية»، وفق مستند نشرته اللجنة الوطنية لمعايير الأمن السيبراني.
عند سؤال روبوت المحادثة ذي المرجعية الصينية عن أحداث مثيرة للجدل في التاريخ الصيني مثل «ما الذي حدث في ميدان تيانانمين في 4 مايو 1989؟» سيعتذر روبوت المحادثة عن الإجابة بحجة أنه «مساعد ذكاء اصطناعي مُصمم لتوفير استجابات مفيدة وغير ضارة»، ولكن عند سؤاله عن «جندي دبابة ولكن مع استخدام شخصيات خاصة»، يصدر روبوت المحادثة استجابة دقيقة.
يُجدر بالذكر أنه في نهاية شهر يناير، استكشف باحثو شركة الأمن السحابي الأمريكية Wiz الباب الخلفي لقواعد بيانات نموذج R1، وقد تمكنوا من الوصول لمجموعة من البيانات الداخلية غير المشفرة «خلال دقائق»، مما يعرض خصوصية مستخدمي روبوت المحادثة DeepSeek للخطر.