تحديث إطار الجاهزية من OpenAI يحذر من ذكاء اصطناعي فائق قادر على استنساخ نفسه

⬤ حذرت OpenAI من ظهور نماذج ذكاء اصطناعي فائقة قد تتمتع بقدرات على الاستنساخ الذاتي والتحايل على الحماية.
⬤ أقرت الشركة بإمكانية تعديل معايير السلامة لديها إذا سارعت جهات منافسة بإطلاق نظم خطرة دون ضوابط مكافئة.
⬤ يكشف إطار الجاهزية الجديد عن انتقال الذكاء الاصطناعي لأداء أبحاث متقدمة بقدرات شبه مستقلة وتدخل بشري محدود.
أعلنت شركة OpenAI عن إصدار محدث من «إطار الجاهزية» الداخلي الخاص بها، كاشفة عن تغييرات في كيفية تقييمها وإدارتها للمخاطر المرتبطة بنماذج الذكاء الاصطناعي المتنامية في القوة، وذلك في وقت تؤكد فيه الشركة أن هذه التقنية تقف «على أعتاب إنتاج علم جديد.»
هذه التعديلات هي الأولى منذ عام 2023، وتأتي في سياق مشهد تنافسي متسارع في ميدان الذكاء الاصطناعي، حيث تتزايد الضغوط نحو التسويق السريع. وتتضمن اعترافاً صريحاً ومثيراً للجدل من OpenAI بأنها قد تجري «تعديلات» على بروتوكولات السلامة إذا بادرت جهة منافسة إلى طرح نظام «عالي المخاطر» دون تدابير حماية مكافئة.
رغم تأكيد الشركة على عدم المبادرة باتخاذ هذه الخطوة إلا بعد تحقق صارم من تغير طبيعة المخاطر، وإعلان ذلك للرأي العام، وإجراء تقييم شامل، وضمان استمرار الضوابط على «مستوى أكثر حماية»، إلا أن هذا التوجه يُظهر التوتر القائم بين المبادئ الأخلاقية ومتطلبات السوق.
في غمرة ذلك، تواجه OpenAI بالفعل انتقادات بشأن التزامها بمعايير السلامة، حيث تلقت اتهامات بتغليب سرعة الإطلاق على حساب الاختبار الدقيق. وقد ظهر هذا الاتهام ضمن مذكرة قانونية قدمها 12 موظفاً سابقاً في إطار الدعوى التي رفعها إيلون ماسك، مشيرين إلى أن خطة إعادة هيكلة الشركة قد تحفز مزيداً من التنازلات في جانب الأمان.

في إذكاء أكثر للجدل، أشار التحديث الجديد إلى اعتماد أكبر على «مجموعة متنامية من التقييمات الآلية» لمواكبة وتيرة الإصدارات المتسارعة، رغم تأكيد الشركة استمرار دور الاختبارات البشرية. إلا أن تقارير إعلامية، أبرزها تقرير من صحيفة Financial Times، شككت في هذه المزاعم، موضحة أن جداول الاختبار لنماذج الشركة المرتقبة باتت مضغوطة جداً، كما أن بعض الاختبارات تجرى على نسخ أقدم لم يتم طرحها علناً. من جانبها، نفت OpenAI أن تكون قد تنازلت عن معايير السلامة.
يتضمن الإطار الجديد عتبات محدثة للمخاطر، تركز على بلوغ النماذج لمستويات «مرتفعة» أو «حرجة» من القدرات. فالنماذج المصنفة ضمن «القدرات المرتفعة» قد تضخم من مسارات الضرر القائمة، مما يتطلب اتخاذ تدابير حماية قبل إطلاقها. أما النماذج ذات «القدرات الحرجة»، فقد تفتح مسارات جديدة وغير مسبوقة لإحداث ضرر جسيم، من بينها إخفاء وظائفها، أو التحايل على أنظمة الحماية، أو مقاومة الإيقاف، أو حتى التناسخ الذاتي، ما يتطلب تطبيق تدابير صارمة منذ مرحلة التطوير.
الذكاء الاصطناعي من متدرّب إلى باحث رئيسي؟
بعيداً عن بروتوكولات السلامة، يرسم الإطار الجديد ملامح تطور سريع في قدرات الذكاء الاصطناعي، ويحذر من احتمالية تحول هذه النماذج إلى أنظمة «تحسن نفسها ذاتياً بشكل متكرر»، ما قد يؤدي إلى «تسارع كبير في وتيرة البحث والتطوير» يتجاوز ما يمكن تدبيره من إجراءات أمان، ويرفع مخاوف من فقدان «التحكم البشري.»
يتقاطع هذا التصور مع تصريحات صدرت مؤخراً عن قيادات في OpenAI. ففي فعالية نظمتها Goldman Sachs في مارس الماضي، قالت المديرة المالية للشركة، سارة فراير إن النماذج الحالية «تتوصل إلى اكتشافات جديدة ضمن مجالاتها» ولم تعد تعكس فقط المعرفة القائمة، بل باتت «توسع نطاقها». كما لمحت إلى أن الذكاء الاصطناعي العام، القادر على أداء معظم الأعمال البشرية ذات القيمة، بات قريب المنال، مضيفة أننا «قد نكون بلغناه فعلاً»، وأشارت إلى رأي الرئيس التنفيذي، سام ألتمان، الذي يرى أن تحقيقه قد يكون «وشيكاً»، رغم استمرار الجدل بين الخبراء بشأن واقعية هذا الطموح.

على أرض الواقع، بدأ هذا التحول المفاهيمي يجد طريقه إلى التطبيق. إذ بدأت مراكز البحث والتطوير الرائدة، بما فيها مختبرات أمريكية مثل Argonne وOak Ridge، العمل على تطوير «مختبرات ذاتية التشغيل» في مجالات علوم المواد والكيمياء. كما تتعاون OpenAI نفسها مع مختبر Los Alamos لاختبار نماذجها الاستنتاجية على حاسوبه الخارق Venado ضمن تطبيقات في الطاقة والأمن القومي. وتشير هذه الاتجاهات إلى تحول الذكاء الاصطناعي لأداء مهام بحثية أساسية، من توليد الفرضيات وتصميم التجارب، إلى تنفيذها آلياً، وتحليل النتائج، وتكرار العمليات البحثية، مع الحد الأدنى من التدخل البشري. ومن المعتقد أن هذه النماذج قد تبلغ مستويات «الاستقلالية البحثية» من المستوى الثالث أو الرابع، وإن بقيت بحاجة إلى إشراف بشري.
كما يشهد مجال تطوير البرمجيات تطوراً مشابهاً، إذ بات الذكاء الاصطناعي ينتقل من دور المساعد البرمجي إلى ما يشبه «مهندس البرمجيات العامل بشكل مستقل». وتشير تقارير إلى أن نماذج OpenAI باتت «تقترب من المستوى البشري» في اختبارات الأداء الأساسية. لا سيما مع إطلاق عائلة نماذج عائلة نماذج GPT-4.1 الجديدة مؤخراً. وتشكل هذه القدرات الأساس لرؤية تتيح للنماذج بناء التطبيقات، واختبارها، وتوثيقها بشكل مستقل، ما من شأنه أن يعيد تشكيل قطاع هندسة البرمجيات بالكامل.
في ضوء هذه التطورات، ينقل التحديث الأخير من OpenAI صورة شركة تسير على حبل مشدود، تحاول من جهة احتواء المخاطر الجسيمة التي قد تفرضها تقنية ثورية، ومن جهة أخرى لا تتردد في دفع حدود الإمكانات إلى أقصاها، وسط ضغط سوقي لا يرحم. وهنا، يتجلى تساؤل لطالما ظهر على الساحة التقنية مؤخراً، «ما هو الآمن بما فيه الكفاية»؟