رغم تحالفها القوي مع OpenAI، شركة Microsoft تضيف المنافس الجديد، DeepSeek، إلى خدماتها السحابية
⬤ أضافت Microsoft نموذج DeepSeek R1 إلى Azure AI Foundry رغم الجدل حول انتهاكات ضد OpenAI.
⬤ خضع النموذج لتدقيق أمني صارم، وسيُتاح مستقبلاً بإصدارات محلية لأجهزة Copilot+ العاملة بنظام Windows.
⬤ تُجري Microsoft تحقيقاً حول إساءة استخدام DeepSeek لبيانات OpenAI، رغم استمرارها في استضافة النموذج.
رغم الجدل القائم حول احتمال انتهاك DeepSeek لحقوق الملكية الفكرية وشروط الخدمة لدى OpenAI، الشريك المقرب من Microsoft، لا تزال الأخيرة حريصة على استضافة النماذج الجديدة التي طورتها الشركة الصينية على منصتها السحابية.
أعلنت Microsoft اليوم أن نموذج R1، الذي تصفه DeepSeek بأنه نموذج للاستدلال المنطقي، أصبح متاحاً على خدمة Azure AI Foundry، وهي المنصة التي تجمع طيفاً من خدمات الذكاء الاصطناعي المخصصة للمؤسسات تحت مظلة واحدة. وأوضحت Microsoft في منشور على مدونتها أن النسخة المتوفرة من R1 على Azure AI Foundry خضعت لعمليات تدقيق أمني شاملة واختبارات تقييم سلامة صارمة، شملت مراجعات أمنية مكثفة وتقييمات آلية لسلوك النموذج للحد من المخاطر المحتملة.
كما أشارت Microsoft إلى أنه في المستقبل القريب، سيتمكن العملاء من استخدام إصدارات «مُرشحة» من R1 لتشغيلها محلياً على حواسيب Copilot+، إحدى علامات Microsoft التجارية المخصصة للأجهزة العاملة بنظام Windows والتي تستوفي متطلبات محددة للاستفادة من إمكانات الذكاء الاصطناعي.
تأتي إضافة R1 إلى خدمات Microsoft السحابية في ظل تقارير تفيد بأن الشركة نفسها أطلقت تحقيقاً حول احتمال إساءة استخدام DeepSeek لخدماتها وخدمات OpenAI. ووفقاً لخبراء أمنيين يعملون لدى Microsoft، فقد تكون DeepSeek قد قامت بجمع كميات كبيرة من البيانات عبر واجهات برمجة التطبيقات الخاصة بشركة OpenAI خلال خريف عام 2024. وذكرت وكالة Bloomberg Law أن Microsoft، التي تعد أكبر مساهم في OpenAI، أبلغت الأخيرة عن هذه الأنشطة المشبوهة.
رغم ذلك، يظل R1 محط اهتمام واسع، ويبدو أن Microsoft قررت استضافته ضمن منصتها السحابية في ظل ما يحظى به من اهتمام في الأوساط التقنية.
حتى الساعة، من غير الواضح ما إذا كانت Microsoft قد أجرت أي تعديلات على النموذج لتحسين دقته أو تقليل مستويات الرقابة التي يفرضها. ووفقاً لاختبار أجرته منظمة NewsGuard المتخصصة في تحليل موثوقية المعلومات، فإن R1 يقدم إجابات غير دقيقة أو يرفض الإجابة بنسبة 83% عند سؤاله عن مواضيع إخبارية. كما أظهرت اختبارات منفصلة أخرى أن R1 يرفض الرد على 85% من الأسئلة المتعلقة بالصين، وهو ما قد يكون نتيجة للرقابة الحكومية المفروضة على نماذج الذكاء الاصطناعي المطورة داخل البلاد.