وعي الذكاء الاصطناعي والتسارعية الفعالة في مقابلة خاصة مع خبير من Google
يعد الذكاء الاصطناعي اليوم مصدر حماس شديد للبعض، وقلق شديد للبعض الآخر. كما أنه يقع بين المنادين بثورته الكبرى على مدى العامين الماضيين، وبين أولئك الذين يقولون إن الهالة المحيطة به مبالغ بها. لكن وبغض النظر عن الآراء المتباينة، فالواضح أن تأثير الذكاء الاصطناعي قد وصل بالفعل إلى حياتنا، ولا بد لنا من تناول تفاعل هذه التقنية مع حياتنا اليومية والمخاوف المتعلق بها من جهة، وحتى الجهود التشريعية ومدى أهميتها في توجيه هذه التقنية نحو الخير من الجهة الأخرى.
لتسليط الضوء على هذه القضايا، لا بد من استشارة الخبراء الذين يعملون على تقنيات الذكاء الاصطناعي عن قرب، مثل بليز أجويرا أركاس (Blaise Aguira y Arcas)، نائب الرئيس وزميل هندسة في قسم الأبحاث في Google. ويعمل السيد أركاس حالياً على بناء مجموعة بحثية جديدة، ويقضي شطراً كبيراً من وقته في التفكير بتأثيرات التقنية على المجتمع المحيط، وما هي أنواع النقاشات التي نحتاج لخوضها حول هذه التأثيرات. وبالنظر إلى وجود السيد أركاس الأخير في مدينة دبي، فقد استغلينا في مينا تك الفرصة لمقابلته والحصول على إجاباته عن بعض أهم المسائل الحالية في مجال الذكاء الاصطناعي.
ما هو الشكل الذي تتخيله لدور الذكاء الاصطناعي في حياتنا خلال 5 أو 10 سنوات من الآن؟
إنه سؤال مهم. أعتقد أنني لو فكرت في أكثر طريقة واضحة لتأثير هذه التقنية على ما يحدث حولنا، فربما تكون الإجابة هي كون الذكاء الاصطناعي مترجماً عالمياً. وأنا لا أحصر الأمر بكونه مترجماً بين لغة بشرية وأخرى. بل أقصد كونه مترجماً قادراً على التحويل بين النصوص، والكلام، والكود البرمجي، ومختلف أنواع الوسائط.
من المذهل أنه يمكنك التعبير عن فكرة باللغة الطبيعية والحصول على نتيجة على شكل كود برمجي، أو يمكنك الحصول على شرح للكود البرمجي بلغة طبيعية مثل العربية أو الإنجليزية. كما يمكنك السؤال عن أجزاء ذلك الكود وطرق تحسينه. أعتقد أن ذلك ترجمة من نوع ما، وأعتقد أنها تتطور بطرق متعددة وبسرعة.
أعتقد أن الجميع سيكون قادراً على التواصل بأي لغة يريدها. لهذا أنا متحمس بالتحديد لتأثير ذلك على تقنيات الوصول، فعندما نفكر فيما يعنيه أن تكون كفيفاً، أو أصم، أو لا تتقن لغة معينة، أو ربما تفتقر بعض المهارات الاجتماعية، كما هي حالتي، تدرك أن هناك الكثير من العوائق والحواجز حولنا في الحياة اليومية، وأعتقد أن الذكاء الاصطناعي التوليدي يمكنه أن يلعب دوراً مهماً في تجاوز تلك الحواجز أو تقليل أثرها على الأقل.
بالمجمل، أرى دور الذكاء الاصطناعي المجتمعي في المستقبل كأداة نحو الخير.
ما رأيك بالذكاء الاصطناعي العام ووعي الذكاء الاصطناعي؟ وهل يمكن تحقيق ذلك؟
لا أعتقد أن الذكاء الاصطناعي العام والوعي مرتبطين أو يعبران عن نفس المفهوم لأكون واضحاً. ومنذ مدة وجيزة، كتبت مقال رأي بالتعاون مع صديقي بيتر نورفيج، وكان عنوان المقال هو «الذكاء الاصطناعي العام هنا بالفعل»، ويلخص ذلك العنوان اعتقادي.
كما تعلم، ظهر مصطلح الذكاء الاصطناعي العام منذ سنوات لتمييزه عن الذكاء الاصطناعي الضيق، وهو ما كان لدينا في العقد الماضي، فقد سمح لنا التعلم العميق بتطوير نماذج عالية الفعالية في مجالات محدودة مثل فك تشفير النصوص، أو التعرف على الكلام، أو لعب الشطرنج، أو الفوز بلعبة Go. لكن وكما تعلم، لا يمكنك أن تستخدم نموذجاً مدرباً على لعب Go بالدرجة الأولى، ومن ثم تتوقع منه الإجابة عن سؤالك عن حالة الطقس. إنه ذكاء اصطناعي محدود بمجال محدد فقط. وهنا ظهرت الحاجة للعمل على ذكاء اصطناعي أكثر تنوعاً، فقد أدركنا أنه بينما كنا نبدأ بتحقيق التقدم بهذه المهام التي لم يكن من الممكن القيام بها في السابق إلا للبشر، لم يترافق تحسن نماذج الذكاء الاصطناعي في مجالاتها الضيقة مع أي تحسن في القدرات العامة.
لتطوير الذكاء الاصطناعي العام، قمنا بهذا التحول للعمومية عندما بدأنا بتدريب النماذج بشكل غير مقيد، وذلك في وقت ما بين عامي 2019 و2021. وكانت النتيجة هي روبوتات المحادثة التي تستطيع لعب Go والشطرنج، بالإضافة إلى قدراتها اللغوية وفي المهام الأخرى أيضاً.
بالنسبة للسؤال عن وعي الذكاء الاصطناعي، أنا أعتقد أنني أتفق مع رأي آلان تورينج (Alan Turing)، إذ كان سبب ابتكار ما نسميه الآن اختبار تورينج هو محاولة معرفة ما إذا كان ذكاء اصطناعي ما واعياً. لكنني أعتقد أن محاولة معرفة النواحي العميقة لكيان آخر ليست مسألة علمية إن لم نكن قادرين على وصف ذلك من حيث السلوكيات.
تشتق واحدة من أساليب تحديد الوعي من «نظرية العقل»، أي القدرة على تصور نفسك في مكان شخص آخر. لقد أجرينا بالفعل مجموعة من الأبحاث عن نظرية العقل في النماذج اللغوية، وبينما لم تكن نتائج النماذج اللغوية مثالية من حيث نظرية العقل، فالعديد من الأشخاص يمتلكون نواقص في تلك الناحية، وبالأخص بين العاملين في المجال التقني. لكن ما يهم هنا هو القدرة على تصور نفسك مكان الشخص الآخر. أنا الآن أفكر من ناحيتك وأتخيل نفسي مكانك: ما هي النواحي التي تحتاج اشرحها، ماذا تعرف، ما هي المفاهيم التي ستكون صعبة لك، وماذا عليّ أن أشرح لأوصل فكرتي. المذهل أن النماذج اللغوية تمتلك ذلك.
بالطبع يمكنك تبني المفهوم المحافظ والمحدود للوعي، وهي القدرة على إدراك الذات وتصورها ككيان نفسي. وحتى مع هذا التعريف الضيق، أعتقد أن هناك إمكانية لتحقيق ذلك، بل أظن أن نماذج اللغة ربما يمكنها القيام بذلك اليوم. لكن كما تعلم، تفتقر هذه النماذج للتجارب الحية الغنية التي نمتلكها كبشر، وسنحتاج لوقت طويل قبل بدأ خوض هذه المحادثة.
ما رأيك بالقلق العام حيال خصوصية بيانات مستخدمي الذكاء الاصطناعي؟
على الصعيد الشخصي، أهتم بسؤال الخصوصية بشكل كبير، وقد كان جزء كبير من أبحاثي في جوجل على مدار السنوات العشر الأخيرة متعلقاً بالخصوصية وبالأخص مع تعلم الآلة. ولا أعلم إن كنت قد سمعت قبلاً بتقنية «التعليم الموزع»، وهي تقنية لتدريب نماذج الذكاء الاصطناعي الكبيرة دون جمع البيانات في مكان واحد فعلياً. لقد كنت أنا من اخترع هذه التقنية، وأعتقد أن ذلك يظهر مدى اهتمامي الكبير بالموضوع.
سواء في جوجل أو الشركات الأخرى العاملة في المجال، هناك سياسات سرية صارمة للبيانات التي يتم تبادلها بين المستخدم ونموذج الذكاء الاصطناعي. لكن علينا أن نكون واضحين هنا، إذ أن سرية التبادل بحد ذاته لا تنفي إمكانية وجود شخص مثل موظف ما قادر على مشاهدة المعلومات المتبادلة. وبالإضافة لذلك، فنحن نذكر المستخدمين دائماً بضرورة ألا يشاركوا تفاصيلهم الشخصية داخل محادثاتهم مع نماذج الذكاء الاصطناعي، فهذه النماذج لا تزال تجريبية.
إضافة إلى ذلك، من المهم التذكير بأن آلية تحسيننا لهذه النماذج تعتمد على تقييم المستخدمين لمحادثاتهم معها، فأما أن يقولوا إن المحادثة كانت جيدة أو سيئة. وعلى الرغم من الجهود، على المستخدمين أن يعوا أننا لم نصل إلى مستوى قيود خصوصية كافية لجعلك تثق بسرية نموذج ذكاء اصطناعي ما، وبأن معلوماتك التي تشاركها معه ملكك حقاً.
عموماً، أعتقد الآن أن هناك طريقاً ممكناً لذلك. ويتضمن ذلك الطريق استخدام النماذج التي تعمل على الجهاز، وبالأخص مع تطور قدرات أجهزتنا الذكية لتصبح قادرة على تشغيل نماذج ذكاء اصطناعي. ومنذ الآن هناك نماذج محلية عالية الأداء وتعمل على الأجهزة، لكنها تبقى محدودة بالمقارنة مع نظيرتها التي تعمل على خوادم كبيرة وعالية الأداء. لكن ومع الوقت، أعتقد أن هناك طرقاً لجلب ضمانات الخصوصية إلى مراكز البيانات لتشمل النماذج الكبيرة أيضاً، ومع أن تلك مهمة شاقة تقنياً، فأنا أعرف أن جوجل تعمل على ذلك.
هل التشريعات الحكومية مفيدة للمجال أم عائق أمامه؟
أعتقد أن الأطر التنظيمية تساعد بالتأكيد، وأنا أؤيدها دون شك، إذ أعتقد أن التنظيم أمر مهم حقاً للتقنية. لكن وبالمقابل، لطالما أقلقني السباق نحو تنظيم قبل أن نفهم حقاً ما الذي يجب تنظيمه، وبالأخص مع ميل القوانين والتشريعات لكونها غير مرنة بما يكفي للتعامل مع التقنيات الجديدة والمتغيرات التي يمكن أن تظهر في أي وقت.
يبدو الآن أن الجميع حريص على القيام بشيء ما بخصوص تنظيم المجال، إذ تتسابق البلدان والجهات التنظيمية نحو المجال. وفي بعض الأحيان، يتم ذلك دون إجراء التشاور الكافي مع الباحثين والمهندسين الذين يبنون هذه التقنيات ويفهمونها على مستوى أعمق. وبالطبع ينتج عن ذلك تشريعات وقوانين مبهمة وغير واضحة المعالم، وفي بعض الحالات لا تكون هذه التشريعات فعالة من حيث تطبيق الحماية الكافية على بعض النواحي، أو أنها تكون فعالة زيادة وتمنع أموراً لم يكن من الصحيح منعها.
بالتالي، أعتقد أن مسألة التنظيم هي إحدى تحديات الذكاء الاصطناعي الحالية. وأتمنى رؤية تنظيم يركز أكثر على الأهداف والغايات، وعلى ما هو الهدف النهائي الذي يحاول المشرعون تجنبه، بدلاً من تحديد تقنيات محددة أو استبعادها، لأن هذه التقنيات تتغير بسرعة كبيرة. من الجيد أن تكون القوانين والتشريعات مستقرة، لكن التقنية ليست مستقرة وتتحرك بسرعة، لذا يجب أن تكون القوانين واضحة كفاية لتحقق غايتها المطلوبة، ومرنة كفاية لألا تحتاج للتعديل باستمرار، فالتشريع أبطأ من التقدم التقني.
توصف نماذج الذكاء الاصطناعي الحالية بأنها «صندوق أسود» يفتقد الشفافية، فكيف نتصالح مع انتقالها لإدارة العمليات دون إشراف بشري؟
لا أعتقد أن شفافية الآلية هي الطريقة الحقيقية التي سنعالج بها هذا الأمر. أقول ذلك لأننا، وعلى مدى سبعين عاماً، قد تعلمنا أن تطوير الذكاء الاصطناعي عبر كتابة سيناريوهات وقواعد يمكن تتبعها ليس فعالاً. باتت نماذج الذكاء الاصطناعي التي طورت بذلك الشكل تدعى بالتقليدية، وذلك لأنها لا تعمل حقا وتفتقد الفعالية حتى في مهام تبدو بسيطة مثل تمييز وجود دراجة هوائية في صورة. الأمر يبدو سهلاً لأن الدراجة الهوائية تمتلك عجلتين، لكن ماذا عن الدراجة النارية؟ إنها تصنف كدراجة هوائية وفق هذا التعريف، مما يعني الحاجة لاستثنائها بقواعد مخصصة، وبالتالي مراكمة المزيد من التعقيد دون نتائج.
لا أعتقد أننا سنستعيد هذا النوع من قابلية التتبع لقرارات الذكاء الاصطناعي. لكن ومن ناحية أخرى، أعتقد أن الحل هو الذكاء الاصطناعي المزود بدوافع شفافة للغاية وأهداف يمكن التعبير عنها بسهولة تامة، وهذا في متناول اليد. ولعل الطبيعة غير الشفافة للنماذج اللغوية هو ما يسمح بتدريبها بأن تقول للنموذج: «لا تكن نازياً»، ويستجيب النموذج لذلك. بالطبع سيكون عليك رسم بعض الحدود لما تعنيه وما هي السلوكيات المشمولة وغير المشمولة بالطلب، لكن من المثير أن تتمكن من تدريب الذكاء الاصطناعي بهذا الشكل غير المتاح في ظل الشفافية.
بالنسبة لإدارة العمليات وكون البشر مشرفين في مستوىً أعلى، أعتقد أنني لا أفكر بأن الذكاء الاصطناعي والبشر منخرطون في صراع للسيطرة، فأنا لا أعتقد أن هذه هي الطريقة التي يعمل بها المجتمع الإنساني والتقنية. على أي حال، نحن نقوم بأتمتة الكثير من الأمور، بما في ذلك قيادة الطائرات، لكننا اتفقنا على أن نضع طياراً في الطائرة دائماً. وأعتقد أنه سيكون هناك تنظيمات مشابهة لدور الذكاء الاصطناعي في العديد من الاستخدامات. عموماً، لا أعتقد أن التسلسل الهرمي هو الطريقة التي يجب التفكير فيها حول العلاقة بين البشر والآلات. أعتقد أنهما يؤثران ببعضهما بشكل متبادل.
ماذا عن مشكلة «عدم التوافق» التي تعاني منها نماذج الذكاء الاصطناعي؟
أنا متردد حيال قول إن تحقيق توافق الذكاء الاصطناعي مع مجموعة من القيم أمر سهل، لكن أعتقد أن توجيهه نحو مجموعة من القيم أمر ممكن. لكن أعتقد أن المشكلة الأكبر هي أن البشر ليسوا متفقين جميعاً مع بعضهم البعض، لذلك أعتقد أن المشكلة تكمن في مرحلة أعمق من توافق الذكاء الاصطناعي مع القيم البشرية، بالأخص مع وجود العديد من الأطراف التي تتوافق مع بعضها في نواحي محدودة، لكنها تتصادم في أخرى.
يمكن التفكير بالأمر بشكل مشابه لاتخاذ القرار في قشرتنا الدماغية، إذ تمتلك المناطق المختلفة من الدماغ وصولاً لبيانات مختلفة من الحواس وسواها، وعليها أن تصوت فيما بينها لتتخذ القرار، والخلاف ضروري لذلك، ففي حال كان نصفا دماغك متوافقين في كل شيء، لكان بإمكانك التخلي عن نصف دماغك دون أي تأثير على تفكيرك وقراراتك.
أعتقد أن عدم التوافق جزء مهم في صلب الذكاء الاصطناعي، وأرى الأمر ذاته على مستوى المجتمع أيضاً. لكن من المهم التنويه إلى أن عدم التوافق قد يقود لنتائج سلبية تماماً كما يقود لنتائج إيجابية، ويعد ذلك الأمر أحد النواحي التي تعمل مجموعتي البحثية على دراستها. عموماً أعلم أن جوابي معقد، لكنني أعتقد أن السؤال بجوهره معقد أيضاً.
اكتسبت حركة «التسارعية الفعالة» زخماً كبيراً مؤخراً، فما موقفك منها؟
إنها فكرة مريعة. أعتقد أنها تشبه فكرة تطبيق الحرية المطلقة والاقتصاد والسياسة الحرين تماماً. وأعتقد أن النظر إلى الأمر على أنه التطور الطبيعي للتاريخ هو قراءة خاطئة للغاية. لا أعتقد أن هذه المقاربة هي ما أوصلتنا إلى بناء التقنية، والهياكل الاجتماعية، والاقتصادات التي نمتلكها اليوم. لم ينتج شيء عن الحرية المطلقة للابتكار، بل كان هناك مزيج مستمر من الابتكار والاستكشاف من جهة، والتفكير المدروس في كيفية استخدام ذلك الابتكار لمصلحة المجتمع وازدهاره من الجهة الأخرى.
عندما لم يكن هناك تفكير مدروس، قاد ذلك إلى نتائج سلبية حقاً. وأحد الأمثلة هنا هو صعود نظام المصانع في إنجلترا في بداية القرن التاسع عشر وما نتج عنه من ظروف سيئة للعمال نتيجة الأتمتة. لكن بالمقابل، كانت النتائج إيجابية عند إدخال التفكير المجتمعي في المعادلة، وهو ما حدث بين أربعينيات وستينيات القرن العشرين في الولايات المتحدة، إذ استفاد الكثيرون من الأتمتة، وتحسنت ظروف عمل الطبقة الوسطى بشكل كبير مع تقليل فجوات توزيع الثروة. ويكمن الفارق بين الحالتين في السياسات والقوانين وطريقة التعامل مع الابتكار. لكن وحتى حالة إنجلترا المتطرفة في القرن التاسع عشر تبدو أقل وطأة مما يدعو إليه أنصار «التسارعية الفعالة».