الشركة المطورة لـ ChatGPT تريد تطوير ذكاء اصطناعي للمجال الحربي

⬤ أعلنت OpenAI عن شراكة مع شركة تقنيات الدفاع Anduril لتحسين أنظمة مكافحة الطائرات المسيّرة.

⬤ أزالت الشركة حظرها السابق على الاستخدامات العسكرية، مما أثار جدلاً واسعاً حول توجهات الشركة.

⬤ تتزايد الشراكات بين شركات الذكاء الاصطناعي وصناعات الدفاع رغم اعتراض موظفين وناشطين في القطاع.

أعلنت شركة OpenAI عن شراكة جديدة مع شركة تقنيات الدفاع Anduril، تهدف إلى تمكين الأخيرة من استخدام أنظمة الذكاء الاصطناعي المتقدمة في «مهام الأمن الوطني». وتأتي هذه الخطوة كجزء من توجّه أوسع أثار الجدل، حيث بدأت شركات الذكاء الاصطناعي في التراجع عن حظر استخدام منتجاتها لأغراض عسكرية، والدخول في شراكات مع عمالقة صناعة الدفاع في الأشهر الأخيرة، وهو ما قوبل بحالة رفض واحتجاج واسع من الموظفين في هذه الشركات بالدرجة الأولى.

في الشهر الماضي، أعلنت شركة Anthropic، المدعومة من Amazon والتي أسسها عدد من الباحثين السابقين في OpenAI، عن شراكة مع شركة Palantir، للمقاولات الدفاعية، بهدف توفير أنظمة الذكاء الاصطناعي من Anthropic لوكالات الاستخبارات والدفاع الأمريكية من خلال Amazon Web Services. كما وقّعت Palantir هذا الخريف عقداً جديداً لمدة خمس سنوات تصل قيمته إلى 100 مليون دولار لتوسيع نطاق وصول الجيش الأمريكي إلى برنامج Maven للذكاء الاصطناعي في الحروب.

أما بالنسبة للشراكة بين OpenAI وAnduril، التي جرى الإعلان عنها أمس الأربعاء، فسوف تُركّز على تحسين أنظمة مكافحة الطائرات المسيّرة (CUAS) وقدرات الكشف عن التهديدات الجوية القاتلة المحتملة، وتقييمها، والتعامل معها في الوقت الفعلي. ووفقاً لبيان صادر عن الشركتين، «فسيعمل على استكشاف كيفية استخدام نماذج الذكاء الاصطناعي المتطورة في تحليل البيانات الحساسة زمنياً بسرعة، وتقليل العبء على المشغلين البشريين، وتعزيز الوعي بالوضع الميداني.»

مواضيع مشابهة

من جانبها، لم تُجب شركة Anduril عن سؤال حول ما إذا كان تقليل العبء على المشغلين البشريين يعني تقليل مشاركة البشر في اتخاذ القرارات الحاسمة أثناء الحروب. ويُذكر أن Anduril تأسست بمشاركة بالمر لوكي، وهو مؤسس شركة Oculus للواقع الافتراضي، والتي باعها لفيسبوك في عام 2014 مقابل ملياري دولار أمريكي.

على المقلب الآخر، أوضحت OpenAI أنها تعمل مع Anduril لمساعدة المشغلين البشريين في اتخاذ القرارات التي تهدف إلى حماية أفراد الجيش الأمريكي على الأرض من الهجمات بالطائرات المسيّرة. كما أكدت الشركة التزامها بسياسة حظر استخدام أنظمة الذكاء الاصطناعي الخاصة بها لإلحاق الضرر بالآخرين، كما هو منصوص عليه في بيان مهمتها.

يأتي هذا الإعلان بعد أن أزالت OpenAI في يناير الماضي حظرها على الاستخدام العسكري لأدوات الذكاء الاصطناعي الخاصة بها، بما في ذلك ChatGPT، وذلك بشكل خفي دون إعلان صريح أو واضح عن الأمر. ففي السابق، كانت صفحة السياسات في OpenAI تشير بوضوح إلى أن الشركة لا تسمح باستخدام نماذجها في «أنشطة تنطوي على أخطار جسدية عالية» مثل تطوير الأسلحة أو العمليات العسكرية والحربية. لكن في منتصف يناير، أُزيلت الإشارة المباشرة إلى الجوانب العسكرية، رغم أن السياسة ما زالت تنص على منع استخدام خدماتها لإلحاق الأذى بالنفس أو الآخرين، بما في ذلك «تطوير أو استخدام الأسلحة.»

يثير هذا التطور جدلاً واسعاً حول استخدام التقنية العسكرية، حيث عبّر موظفو شركات التقنية الكبرى عن مخاوفهم مراراً وتكراراً بشأن تطوير تقنيات تُستخدم لأغراض عسكرية. ومن الأمثلة البارزة احتجاج آلاف الموظفين في Google ضد مشروع Maven، وهو مشروع تابع لوزارة الدفاع الأمريكية، ويعتمد على الذكاء الاصطناعي لتحليل لقطات الطائرات المسيّرة.

كما واحتج موظفو Microsoft على عقد بقيمة 480 مليون دولار وقعته الشركة مع الجيش الأمريكي لتزويد الجنود بنظارات الواقع المعزز. بالإضافة إلى ذلك، وقّع أكثر من 1500 موظف في Amazon و Google عريضة احتجاجاً على عقد مشترك بقيمة 1.2 مليار دولار لتوفير خدمات الحوسبة السحابية وأدوات الذكاء الاصطناعي ومراكز البيانات لأغراض دفاعية.

شارك المحتوى |
close icon