عراب الذكاء الاصطناعي يحذر: قد تكون هذه التقنية سبب انقراض البشر

⬤ حذّر عالم الحاسوب جيفري هينتون من خطر انقراض البشرية خلال 30 عاماً بسبب الذكاء الاصطناعي.

⬤ أكد هينتون على ضرورة التنظيم الحكومي للتقنية وإجبار الشركات الكبرى على المزيد من أبحاث السلامة.

⬤ استقال هينتون من وظيفته في Google في 2023 للتحدث بحرية عن أخطار تطوير الذكاء الاصطناعي.

حذر عالم الحاسوب البريطاني الكندي جيفري هينتون، الملقب «بالأب الروحي» للذكاء الاصطناعي، من احتمالية أن يؤدي تطور هذه التقنية إلى انقراض البشرية خلال الثلاثين عاماً القادمة، مشيراً إلى أن وتيرة التقدم في هذا المجال أسرع مما كان متوقعاً.

جاء كلام هينتون ذاك خلال مقابلة له على إذاعة BBC Radio 4، بعد أن أشار في مناسبة سابقة إلى أن احتمال وقوع كارثة على البشرية بفعل الذكاء الاصطناعي هو بحدود 10%؛ وهي نسبة لم تتغير كثيراً في آخر تصريحاته، والتي ذكر فيها أن احتمالية تسبّب الذكاء الاصطناعي في انقراض البشر تتراوح بين 10% و20% خلال العقود الثلاثة المقبلة.

خلال المقابلة، نوه هينتون إلى أن البشر لم يسبق لهم التعامل مع كائنات أذكى منهم. مستشهداً بعلاقة الأم والرضيع، في معرض حديثه عن ندرة الأمثلة التي تتضمن «كائناً أقل ذكاء يتحكم في آخر أكثر ذكاء، حيث تطورت الطبيعة لتمكين الرضيع من التحكم بالأم،» على حد تعبيره. موضحاً أن البشر سيصبحون مثل الأطفال الصغار مقارنة بقدرات أنظمة الذكاء الاصطناعي فائقة الذكاء.

مواضيع مشابهة

ولد جيفري هينتون في لندن، وهو أستاذ فخري بجامعة تورنتو، وحائز على جائزة نوبل في الفيزياء تقديراً لأبحاثه في الذكاء الاصطناعي. وقد أثار جدلاً واسعاً بعد استقالته من وظيفته في Google، في مايو عام 2023، ليتسنى له التحدث بحرية أكبر عن المخاطر المرتبطة بتطوير الذكاء الاصطناعي دون ضوابط، والتعبير عن مخاوفه من استخدام هذه التقنية على أيدي «جهات سيئة» لإلحاق الأذى بالآخرين.

عالم الحاسوب البريطاني الكندي جيفري هينتون

تبرز فكرة تطوير ذكاء اصطناعي عام بوسعه التفوق على البشر في الذكاء وتهديد وجودهم على إثر ذلك كواحدة من أبرز القضايا التي تشغل دعاة ونشطاء سلامة الذكاء الاصطناعي حول العالم. وفي تأملاته حول التقدم الذي حققه الذكاء الاصطناعي، ذكر هينتون أنه عندما بدأ أبحاثه في هذا المجال، توقع بلوغ المستوى الراهن في مستقبل بعيد وليس بهذه السرعة.

مع الواقع الحالي، يرى معظم الخبراء إمكانية تطوير أنظمة ذكاء اصطناعي أكثر ذكاء من البشر خلال العشرين عاماً القادمة، وهو أمر مخيف للغاية، برأي هينتون، والذي دعا إلى ضرورة تدخل الحكومات لتنظيم هذه التقنية.

حول تلك الجزئية بالذات، عبر هينتون عن قلقه العميق من الأيدي الخفية؛ في إشارة إلى قوى السوق. فهي من وجهة نظره «ليست ضليعة بتوفير السلامة للبشر، كما وأن اعتمادها على دافع الربح فقط لن يكون كافياً لضمان تطوير التقنية بشكل آمن.» وأكد هينتون على أن «الشيء الوحيد الذي يمكن أن يجبر هذه الشركات الكبرى على إجراء المزيد من الأبحاث حول سلامة التقنية هو التنظيم الحكومي.»

على الضفة الأخرى، برز رأي مخالف لدى يان لو كون، كبير علماء الذكاء الاصطناعي في شركة Meta، وأحد العلماء الثلاثة «آباء الذكاء الاصطناعي»، الحاصلين على جائزة ACM AM Turing، وهي بمقام جائزة نوبل في علوم الحاسوب. ففي منشور له رداً على جيفري هينتون في منصة X، قلّل يان لو كون من شأن التهديد الوجودي للذكاء الاصطناعي، مؤكداً أن هذه التقنية «يمكن أن تنقذ البشرية من الانقراض.»

شارك المحتوى |
close icon