اكتشفت ثغرة خطيرة في ChatGPT؟ يمكن أن تحصل على 100 ألف دولار مقابل ذلك

⬤ رفعت شركة OpenAI الحد الأقصى لمكافآت اكتشاف الثغرات الأمنية في أنظمتها إلى 100 ألف دولار.
⬤ توسعت الشركة في تمويل أبحاث الأمن السيبراني عبر منح داخلية وخارجية، وضاعفت جائزتها الكبرى 5 مرات.
⬤ تستهدف الشركات لجذب الخبراء الأمنيين بتقديم جوائز كبرى لمن يكتشف الثغرات الأمنية الخطيرة.
في تعزيز لاستراتيجيتها الأمنية، أعلنت شركة OpenAI رفع الحد الأقصى لمكافآت اكتشاف الثغرات الأمنية إلى 100 ألف دولار أمريكي، أي ما يعادل خمسة أضعاف الحد السابق، وذلك بالتزامن مع توسيع نطاق برنامجها لدعم الأبحاث في مجال الأمن السيبراني. وتصف الشركة هذه المبادرات بأنها أساسية لضمان سلامة التقدم نحو تطوير الذكاء العام الاصطناعي (AGI).
تُمنح المكافأة القصوى الجديدة لمن يكتشف «ثغرات حرجة واستثنائية،» بعدما كانت لا تتجاوز 20 ألف دولار في السابق. وأوضحت OpenAI أن هذا التحديث يعكس التزامها بتكريم البحوث الأمنية الجادة وعالية التأثير، والتي تسهم في حماية المستخدمين وتعزيز الثقة بمنصاتها وخدمات التي يستخدمها أسبوعياً نحو 400 مليون مستخدم حول العالم، من قطاعات الأعمال والمؤسسات والحكومات.
جرى إطلاق برنامج مكافآت الثغرات لأول مرة في أبريل 2023 عبر منصة Bugcrowd المتخصصة في الأمن السيبراني القائم على حشد المصادر الجماعية، بهدف رصد الثغرات في بنية الشركة التحتية ومنتجاتها استباقياً. وقد جاء البرنامج في أعقاب حادثة تسريب بيانات مستخدمي خدمة ChatGPT من فئة Plus، إثر خطأ في مكتبة مفتوحة المصدر أدى إلى كشف معلومات حساسة تخص حوالي 1.2% من المشتركين.
مع ذلك، توضح OpenAI أن البرنامج لا يشمل القضايا المتعلقة بسلامة النماذج ذاتها، مثل أساليب التحايل على القيود أو «الاختراقات» التي تهدف لتجاوز الضوابط الموضوعة مسبقاً.
في إطار تحفيز إضافي، أعلنت الشركة عن «عروض مؤقتة» تشمل مكافآت مضاعفة لاكتشاف أنواع محددة من الثغرات. وقد بدأت بالفعل هذه العروض مع مكافآت تصل إلى 13 ألف دولار لاكتشاف ثغرات من نوع مرجع الكائن المباشر غير الآمن (IDOR) قبل تاريخ 30 أبريل 2025. ويمكن الاطلاع على تفاصيل هذه العروض عبر صفحة الشركة على منصة Bugcrowd.
إلى جانب مكافأة الباحثين من خارج الشركة، تعمل OpenAI أيضاً على توسيع برنامجها الداخلي لمنح الأبحاث في الأمن السيبراني. وبعد أن قامت بتمويل 28 مشروعاً بحثياً شمل مجالات مثل الدفاعات الذاتية، وتوليد الأكواد البرمجية الآمنة، وحماية النماذج من هجمات الإدخال، تسعى الشركة الآن إلى تلقي مقترحات جديدة في خمسة مجالات محورية، وهي تصحيح البرمجيات، وخصوصية النماذج، والكشف والاستجابة، وتكامل الأمن السيبراني، والتحديات الأمنية للذكاء الاصطناعي الوكيل (Agentic AI).
فضلاً عن ذلك، ولتوسيع قاعدة المشاركة، أطلقت الشركة أيضاً منحاً صغيرة على هيئة أرصدة استخدام لواجهات برمجة التطبيقات، تُمنح للمقترحات الواعدة عالية الجودة.
تربط OpenAI بوضوح بين هذه الاستثمارات المتزايدة في الأمن السيبراني وبين سعيها لتطوير الذكاء العام الاصطناعي، وهو النوع من الذكاء الاصطناعي القادر على محاكاة القدرات الإدراكية البشرية. وبهذا الصدد، صرح الرئيس التنفيذي للشركة، سام ألتمان، مؤخراً بأن «الأنظمة التي تقترب من الذكاء العام الاصطناعي بدأت تتبلور،» مشيراً إلى قناعته القديمة، منذ تأسيس الشركة قبل نحو تسع سنوات، بأن AGI قد يكون «أكثر التقنيات تأثيراً في تاريخ البشرية.»
لكن هذا التركيز المكثف على الذكاء الاصطناعي العام لا يخلو من الجدل، إذ تنقسم الآراء في الأوساط التقنية وخارجها بين من يراه تقدماً لا بد منه، ومن يخشى مخاطره الوجودية، وآخرين يعتبرونه هدفاً غير واقعي أو غير مرغوب فيه. وفي هذا السياق، سجل ساتيا ناديلا، الرئيس التنفيذي لشركة Microsoft، شريك OpenAI الأكبر، موقفاً لافتاً حين وصف السعي المحموم نحو AGI بأنه قد يكون «خداعاً معيارياً لا معنى له،» في انعكاس لتعقيد المشهد المحيط بتطوير تلك التقنية المتقدمة.