من التدريب إلى الاستدلال: لماذا مراكز البيانات التقليدية غير كافية لأعباء عمل الذكاء الاصطناعي
في عام 2022، وقبل طفرة الذكاء الاصطناعي التوليدي الكبرى، قدّرت وكالة الطاقة الدولية (IEA) أن مراكز البيانات استهلكت ما بين 240 و340 تيرا واط ساعة من الطاقة، أي نحو 1 إلى 1.3% من استهلاك الكهرباء العالمي. يعد هذا رقماً كبيراً دون شك، لكن وعلى الرغم من وجود مراكز البيانات القديمة، يستمر نمو بنى الذكاء الاصطناعي التحتية اليوم في كل مكان، من الولايات المتحدة والصين وصولاً إلى الشرق الأوسط. ولا يعود ذلك فقط إلى تزايد أهمية الذكاء الاصطناعي، بل أيضاً إلى أن قدرات مراكز البيانات ليست متساوية، كما أن شطراً كبيراً من البنية التحتية القديمة غير ملائم لأعباء عمل الذكاء الاصطناعي.
غالباً ما يُناقش الذكاء الاصطناعي كما لو كان عبارة عن تطبيق أو قدرة واحدة فقط. لكن في الواقع، هو دورة حياة تبدأ بإعداد البيانات، ثم تدريب النماذج، وتنتهي بالاستدلال. وتفرض كل مرحلة متطلبات مختلفة جذرياً على البنية التحتية. وهنا بيت القصيد، فمراكز بيانات المؤسسات التقليدية لم تكن مصممة لدعم هذا التنوع في كثافة الحوسبة وحركة البيانات، ولذلك باتت هناك حاجة إلى قدرات جديدة.
خطوط البيانات: العائق الأول
عادة ما يكون التدريب هو المرحلة الأولى في بناء نماذج الذكاء الاصطناعي، لكن وحتى قبل أن تبدأ هذه المرحلة، يجب جمع كميات هائلة من البيانات وإعدادها. يمكن أن تكون مجموعات البيانات هذه ضخمة للغاية، إذ كثيراً ما تتطلب النماذج اللغوية الكبيرة مئات التيرابايت أو حتى البيتابايت من بيانات التدريب المعالجة. ونتيجة لذلك، يمكن أن تتحول طبقات التخزين والشبكات القديمة إلى عنق زجاجة يعوق استغلال موارد الحوسبة بالكامل حتى.
أنظمة التخزين القديمة بالكاد قادرة على الحفاظ على أنماط الوصول إلى البيانات ومعدلات النقل التي تتطلبها أعباء عمل الذكاء الاصطناعي. إذ لا توفر الأقراص الصلبة التقليدية الأداء اللازم للوصول المتزامن للبيانات، بينما يؤدي ضعف عرض النطاق الشبكي إلى إبطاء عمليات الإدخال والمعالجة المسبقة. وفي كثير من الحالات، يكون ما يبدو كأنه قيد في الحوسبة هو في الواقع قيد في خط البيانات. من دون تخزين عالي الأداء وروابط اتصال سريعة، ستعمل حتى أقوى المسرّعات بأقل من طاقتها القصوى.
التدريب: مرحلة الحوسبة عالية الأداء
التدريب هو المرحلة التي تتشكل فيها نماذج الذكاء الاصطناعي فعلياً، وهو المرحلة الأكثر استهلاكاً للحوسبة ضمن دورة الحياة بأكملها. إذ يتطلب التدريب قدرات معالجة متوازية ضخمة، تُقدَّم عادةً عبر وحدات معالجة رسوميات متقدمة تعمل ضمن عناقيد. وقد يصل حجم المعالجة اللازم إلى مستويات هائلة، إذ يتم تدريب النماذج الأقوى باستخدام عشرات الآلاف من وحدات معالجة الرسوميات عالية الأداء طوال أيام أو حتى أسابيع. لكن المشكلة تكمن في أن هذه المتطلبات تشبه بيئات الحوسبة عالية الأداء وليس البنى التحتية المتاحة في المؤسسات التقليدية.
إلى جانب قدرات الحوسبة الخام، تستهلك أعباء التدريب كميات كبيرة من الطاقة وتولد حرارة ملحوظة، ما يستلزم استراتيجيات متقدمة للتبريد وإدارة الطاقة. هذه الكثافة العالية من المعالجة المتوازية لم تكن أولويات تصميمية لدى إنشاء مراكز البيانات التقليدية والتي عادة ما تستخدم وحدات المعالجة المركزية بالدرجة الأولى.
الاستدلال: تحول متطلبات المعالجة
رغم أهمية مرحلة التدريب، سرعان ما تتغير أولويات البنية التحتية عند الانتقال للمرحلة التالية. هذه المرحلة هي الاستدلال، حيث يبدأ النموذج في توليد القيمة الفعلية، وفيما تحتاج عمليات الاستدلال المنفردة كثافة حوسبة أقل عادة، فهذه العمليات تتم بشكل مستمر وعلى المدى الطويل في بيئات الإنتاج.
في مرحلة الاستدلال، سرعان ما تصبح أمور مثل زمن الاستجابة، والتوافر، والكفاءة محور التركيز. إذ تتطلب تطبيقات مثل اكتشاف الاحتيال أو الذكاء الاصطناعي الحواري استجابات شبه فورية، ويجب أن تتوسع هذه التطبيقات ديناميكياً للتعامل مع التقلبات في الطلب.
بينما تجري مرحلة التدريب باستخدام عناقيد وحدات معالجة الرسوميات بشكل أساسي، فأعباء عمل الاستدلال أكثر تنوعاً ويمكن أن يتم تحقيق الأداء الأفضل باستخدام مسرّعات متخصصة. فالهدف الأساسي في هذه المرحلة هو استمرارية الاستجابة بتكلفة مضبوطة.
مواءمة البنية التحتية مع دورة حياة الذكاء الاصطناعي
إذا كان الذكاء الاصطناعي يكشف الحدود الهيكلية لمراكز البيانات القديمة، فمن غير الممكن تحقيق التقدم عبر تحسينات تدريجية، بل أن السبيل الأنسب هو إعادة ابتكار معمارية شاملة. كما ورد في الورقة البيضاء «إعادة تصميم مراكز البيانات لأعباء عمل الذكاء الاصطناعي» الصادرة عن AMD، يتمثل المسار الأفضل في مواءمة البنية التحتية مع كل مرحلة من دورة حياة الذكاء الاصطناعي، بدءاً من تغذية البيانات عالية الإنتاجية (High-throughput data ingestion)، مروراً بالتدريب المتوازي واسع النطاق، وصولاً إلى الاستدلال الحساس لزمن الاستجابة. ويتطلب هذا التوافق حوسبة مخصصة، وبرمجيات متكاملة، واستراتيجية متماسكة عبر كامل طبقات المكدس.
بالنسبة للمؤسسات التي تتطلع للانتقال إلى مرحلة النشر، تسمح منتجات AMD باعتماد بنى غير موحدة تتضمن شرائح عالية الأداء مثل معالجات AMD EPYC™ CPUs ومسرّعات AMD Instinct™ GPUs. حيث توفر معالجات AMD EPYC™ كثافة أنوية عالية، وعرض نطاق ذاكرة واسع، وقدرة إدخال وإخراج تلبي متطلبات تنسيق خطوط البيانات وإدارة أعباء العمل الموزعة المعقدة. بينما تقدم مسرعات AMD Instinct™ GPUs أداءً متوازياً وكفاءة ضرورية لتدريب النماذج واسعة النطاق، ما يقلل زمن الوصول إلى الرؤى مع الحفاظ على استهلاك منخفض للطاقة.
بشكل إضافي، يمكن توحيد هذه القدرات عبر طبقة برمجية هي AMD Enterprise AI Suite، وتدمج هذه الحزمة أطر العمل المحسّنة، وتنسيق أعباء العمل، وأدوات النشر ضمن منظومة موحدة جاهزة لبيئات الإنتاج. معاً، تساعد هذه التقنيات المؤسسات على ضبط بيئات الاستدلال بالحجم المناسب، وتخصيص الموارد ديناميكياً، والحفاظ على الامتثال عبر البيئات الهجينة وبيئات الحافة.
بالنسبة لمعظم الشركات، لم يعد تبني الذكاء الاصطناعي مجرد مشروع منفصل، بل بات نموذج تشغيل دائم. وتمتلك المؤسسات التي تعيد تصميم بنيتها حول منصات قابلة للتوسع وموفرة للطاقة أفضلية واضحة لتشغيل أعباء عمل الذكاء الاصطناعي ونشرها على المستوى الصناعي.