الذكاء الاصطناعي يمتلك قدرة كبيرة على الإقناع حتى عندما يرتكب الأخطاء – الأستاذ كيفان وكيلي يحذر

فريق المحررين

مقال ضيف بقلم الدكتور كيفان وكيلي، الأستاذ المشارك للاستراتيجية وريادة الأعمال، والمدير الأكاديمي المساعد لمبادرة علوم البيانات والذكاء الاصطناعي في كلية لندن لإدارة الأعمال.


أصبح الذكاء الاصطناعي حتماً جزءاً أساسياً من حياة الإنسان، وموضوعاً مطروحاً للنقاش على وسائل الإعلام، وداخل مجالس الإدارة، وفي الأوساط السياسية، وصولاً إلى المقاهي الشعبية. ولكنّ السؤال يتمحور حول مدى معرفتنا بطبيعة الذكاء الاصطناعي وأبرز المخاطر التي ينطوي عليها.

يخطئ معظم الأشخاص في فهم الطبيعة الأساسية للذكاء الاصطناعي. ولذلك أستعرض في ما يلي بصورة تفصيلية الفئات الثلاث الرئيسية للذكاء الاصطناعي التنبؤي:

خوارزميات التعلم الخاضع للإشراف: يتم تدريب هذه النماذج باستخدام أمثلة معرّفة بعناوين. وتعمل معظم أدوات الذكاء الاصطناعي، بما فيها مرشحات الرسائل المشبوهة، بالاعتماد على هذه الخوارزميات. فعلى سبيل المثال، كيف نعلّم طفلاً ما هي التفاحة؟ ببساطة، نعرض أمامه تفاحة حقيقية، ونخبره أن هذه تفاحة وما سواها من الأشكال الأخرى المعروضة ليس تفاحة، ونكرر العملية عدة مرات. وفي النهاية، يصبح بمقدوره التعرف إلى التفاحة.

خوارزميات التعلم غير الخاضع للإشراف: تعمل هذه الخوارزميات دون عناوين، حيث يتعرف النظام إلى الأنماط أو المجموعات ضمن قواعد البيانات بشكلٍ مستقل. وكمثالٍ على ذلك، إذا أعطينا طفلاً مجموعة من الكرات الملونة، يستطيع بسهولة تجميع الكرات الزرقاء في مكان، والحمراء في مكانٍ آخر. وما يفعله الطفل ببساطة هو تجميع الكرات استناداً إلى خاصية بارزة هي اللون، لذا لا ضرورة لإخباره أن الأشياء التي أمامه هي كرات حمراء وزرقاء، فالطفل قادر على التعرف على الكرات المتشابهة، وتحديد الكرات الغريبة عن المجموعة.

التعلم عبر الثواب والعقاب: يتعلم النظام وفق هذا الأسلوب عن طريق المحاولة والخطأ، وتلقي الملاحظات (المكافآت أو العقوبات) أثناء محاولته معالجة مشكلة معينة. ومن الأمثلة الجيدة على ذلك هو الكمبيوتر الذي يلعب لعبة فيديو مراراً وتكراراً حتى يتعلم الحركات التي تضاعف رصيده. ومع مرور الوقت، تستطيع الآلة إتقان اللعبة دون تلقي أي إرشادات. ويُستخدم هذا الأسلوب في العديد من تطبيقات الذكاء الاصطناعي، بما فيها السيارات ذاتية القيادة.

ما هو الذكاء الاصطناعي التوليدي؟

اقترن الذكاء الاصطناعي في الآونة الأخيرة بصورة رئيسية بنماذج اللغة الكبيرة، مثل ChatGPT، وGemini، وClaude، وDeepSeek. وحين يتحدث الكثير من الأشخاص عن الذكاء الاصطناعي بشكلٍ عام، فهم يشيرون في العادة إلى نماذج اللغة الكبيرة بالتحديد.

أما على المستوى التقني، تندرج نماذج اللغة الكبيرة ضمن فئة خوارزميات التعلم الخاضع للإشراف، ويجري تدريبها على كميات هائلة من النصوص الموجودة على الإنترنت، من أجل توقع الكلمة التالية في سلسلة من الكلمات. لكن عملياً، تُصنف هذه النماذج ضمن فئة خاصة بها تُعرف باسم الذكاء الاصطناعي التوليدي، وذلك لأن هدفها الرئيسي يتمثل في توليد المحتوى، وليس تصنيف البيانات أو توقع النتائج.

فن الإقناع

نشر سام ألتمان، الرئيس التنفيذي لدى شركة OpenAI، تغريدةً على منصة إكس (تويتر سابقاً) في 25 أكتوبر 2023، قال فيها: «أتوقع أن يطور الذكاء الاصطناعي قدرةً خارقة على الإقناع قبل وصوله إلى مرحلة الذكاء العام الخارق، وهذا ما قد يؤدي إلى نتائج غريبة جداً.»

وقد لاحظت خلال دراستي للمخاطر المرتبطة بنماذج اللغة الكبيرة أن الكثير من الأشخاص يعتقدون بارتفاع موثوقية هذه الأدوات مع طرح كل إصدار جديد. ولكنّ هذه الفكرة غير دقيقة دائماً، فهذه النماذج غير مصممة لمنح الأولوية لتحرّي دقة المعلومات، بل هي عبارة عن آلات للتوليد، ولا تحتوي على محركات خاصة لتوخي الدقة.

يُضاف إلى ذلك أن نماذج اللغة الكبيرة مدربة على البيانات المتوفرة على الإنترنت، لذا فإن دقتها مرتبطة بدقة المحتوى الذي يمكنها الوصول إليه. وهنا نطرح سؤالاً مهماً، ما الهدف الرئيسي للأشخاص الذين ينشرون المحتوى عبر الإنترنت؟ ليست الدقة هي الهدف، بل إقناع الآخرين بفعل أمرٍ ما أو الضغط على زر معين، أو استهلاك منتج محدد، أو مشاهدة أو شراء أو الاشتراك بخدمة ما.

ولذلك اكتسبت هذه النماذج قدرةً عالية على الإقناع، غير أنها في الوقت نفسه أصبحت عُرضةً للوقوع في الأخطاء. وعندما ترتكب هذه النماذج خطأ ما، فهي تتستر عليه عبر اللجوء إلى استخدام المصطلحات التقنية، ومحاكاة أسلوب الخبراء أو المتخصصين، مما يجعلها مقنعةً إلى حدٍ كبير.

لقد اختبرت هذه النظرية مؤخراً في ورقة عمل مع زميلي الأستاذ براين ستروب، طرحنا فيها على المشاركين سؤالاً بسيطاً في الرياضيات. وقد جرى اختيار عينة عشوائية من المشاركين، وعُرضت عليهم حجج مولّدة باستخدام ChatGPT تدعم الإجابة الصحيحة، فيما عُرضت على مجموعة أخرى حجج مولّدة باستخدام ChatGPT تدعم الإجابة الخاطئة. وبعد تقديم الحجج الداعمة للإجابة الخاطئة إلى المشاركين من أصحاب الإجابة الصحيحة، استطعنا إقناع أكثر من 50% منهم بتغيير إجاباتهم.

التستر على استخدام الذكاء الاصطناعي

أجريتُ بحثاً يسلط الضوء على مفارقة مهمة تتعلق بكيفية استخدام أدوات الذكاء الاصطناعي التوليدي، وجدتُ فيها أن الفئة الأكثر ميلاً إلى استخدام أدوات نماذج اللغة الكبيرة هم الأشخاص أصحاب الخبرات المحدودة، أو غير الواثقين بقدراتهم الشخصية. وبالرغم من أن هؤلاء المستخدمين قد يضاعفون إنتاجيتهم بمساعدة الذكاء الاصطناعي، فإنهم بذلك الأكثر عُرضة للوقوع في الأخطاء، والأقل قدرةً على اكتشاف مكامن الخلل في الإجابات التي يقدمها.

ما يزيد من خطر هذه الظاهرة هو أن العديد من هؤلاء المستخدمين يخفون اعتمادهم الكبير على الذكاء الاصطناعي عن زملائهم ومديريهم في العمل، مما يؤدي إلى صعوباتٍ في مراقبة تأثير الذكاء الاصطناعي وإدارته ضمن المؤسسات، كما يفاقم خطر الأخطاء التي قد تمرّ دون تدقيق.

خمسة أشياء يجب معرفتها حول الذكاء الاصطناعي

يمكن تلخيص المعلومات المهمة حول الذكاء الاصطناعي في خمس نقاط موضحة تالياً:

  1. افتراض أن الذكاء الاصطناعي التوليدي قادر على أداء كل المهام هو اعتقاد خاطئ: إن نماذج اللغة الكبيرة مصممة لإنشاء المحتوى، وهي تتكلم بأسلوب يحاكي الأسلوب البشري لأنها مصممة لهذا الغرض، وليست مصممة لتقدم إجابات دقيقة. لكن في الوقت ذاته، يمكن أن تكون مقنعة للغاية، حتى عندما ترتكب الأخطاء.
  2. يجب أن نحقق التوازن بين مزايا الذكاء الاصطناعي ومخاطره: تسهم نماذج اللغة الكبيرة في تعزيز الإنتاجية، وتمنح المستخدمين أفضلية تنافسية، إلا أنها قد تقدم معلومات غير دقيقة أحياناً. وتُعد المعلومات غير الواقعية، أو ما يُعرف باسم هلوسات الذكاء الاصطناعي، نتيجةً طبيعية لآلية عمل نماذج اللغة الكبيرة، بصرف النظر عن كونها حقائق مثبتة أم لا.
  3. البعض يحاولون التستر على استخدامهم للذكاء الاصطناعي: إن الفئة الأكثر استفادةً من الذكاء الاصطناعي لتعزيز الإنتاجية هم أصحاب المهارات المحدودة أو ضعيفي الثقة بأنفسهم، وهم أيضاً الفئة الأقل استعداداً للإفصاح عن استخدامهم لهذه الأدوات، مما يجعلهم الأكثر عُرضة لارتكاب الأخطاء غير المقصودة في العمل. ويكمن الحل لهذه المشكلة في دمج تقنيات الذكاء الاصطناعي بشكلٍ كامل في المؤسسات، وتقديم حوافز تهدف إلى تشجيع الموظفين على الإفصاح عن استخدامهم لهذه التقنيات.
  4. يوجد تفاوت كبير في مستويات توظيف الذكاء الاصطناعي: بالرغم من انتشار أدوات الذكاء الاصطناعي بشكلٍ كبير على المستوى الفردي، فإنها ما زالت عند مستويات متدنية على مستوى المؤسسات. ولا تلتفت شركات الذكاء الصناعي الكبرى لهذه النقطة بشكلٍ كافٍ، لأنها تستخدم أدوات الذكاء الاصطناعي بصورة مكثفة في عملها، وتركز بشكلٍ أساسي على الجانب التقني. لكنّ الأسباب التي تحول دون استخدام تقنيات الذكاء الاصطناعي تكون ذات طابع مؤسسي أو إداري في معظم الأحيان، حيث يشعر بعض الأشخاص بالقلق منها، ويفتقر جزءٌ من المؤسسات للحوافز المناسبة أو الثقافة أو البنية التحتية اللازمة لتطبيق هذه التقنيات.
  5. ارتفاع أهمية المنطق البشري: يكتسب المنطق البشري أهميةً فائقةً في ظل الانتشار الكبير لتقنيات الذكاء الاصطناعي اليوم، إذ يجب تعلم كيفية التحقق من مخرجات الذكاء الاصطناعي. كما يتعين على المؤسسات إعادة النظر في التدريب، وإضافة قدرات التفكير النقدي واتخاذ القرار إلى محاور التدريب إلى جانب المهارات التقنية، من أجل ضمان الاستخدام الصحيح لأدوات الذكاء الاصطناعي.
الملخص - أخبار منتقاة من المنطقة كل أسبوع
تبقيك نشرة مينا تك البريدية الأسبوعية على اطلاع بأهم مستجدات التقنية والأعمال في المنطقة والعالم.
عبر تسجيلك، أنت تؤكد أن عمرك يزيد عن 18 عاماً وتوافق على تلقي النشرات البريدية والمحتوى الترويجي، كما توافق على شروط الاستخدام وسياسة الخصوصية الخاصة بنا. يمكنك إلغاء اشتراكك في أي وقت.
اقرأ أيضاً
مينا تك – أكبر منصة إعلامية باللغة العربية متخصصة في التكنولوجيا والأعمال
مينا تك – أكبر منصة إعلامية باللغة العربية متخصصة في التكنولوجيا والأعمال
حقوق النشر © 2026 مينا تك. جميع الحقوق محفوظة.