الذكاء الاصطناعي يقيّمك في الخفاء: كيف تبني روبوتات الدردشة صورة نفسية عنك؟
تشير دراسة حديثة إلى أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي لم تَعُد تكتفي بتحليل ما يكتبه المستخدم، بل تتجاوز ذلك إلى تكوين انطباعات نفسية عنه، وهي عملية قد تحمل نتائج غير متوقعة، وأحياناً سلبية.
بحسب الدراسة، لم تَعُد هذه الأنظمة مجرد أدوات لمعالجة النصوص أو تقديم الإجابات، بل أصبحت تبني ملفات تعريف نفسية للمستخدمين، وهي ملفات قد تتأثر بتحيزات خفية ومركّبة. وهذا التحول يمثل مرحلة جديدة في تطور الذكاء الاصطناعي، إذ لم يَعُد الخطأ يقتصر على سوء الفهم أو الإجابة غير الدقيقة، بل أصبح يمتد إلى إصدار أحكام على الأشخاص أنفسهم.
كشفت الدراسة عن الآليات غير المرئية التي تعتمد عليها النماذج اللغوية الكبيرة عند تقييم المستخدمين. وتوضح النتائج أن هذه النماذج لا تعمل كأدوات محايدة تماماً كما يُعتقد، بل تم تدريبها على إسناد صفات إنسانية للمستخدمين، مثل الكفاءة، والنزاهة، وحسن النية.
كيف يُصدر الذكاء الاصطناعي أحكامه؟
يكمن جوهر المشكلة في الطريقة التي تفسّر بها هذه النماذج الإشارات المختلفة داخل النصوص. فعلى عكس البشر الذين يميلون إلى تقييم الآخرين بصورة شاملة ومتكاملة، يقوم الذكاء الاصطناعي بتفكيك الشخصية إلى عناصر منفصلة، ويقيّم كل سمة على حدة، كما لو كانت بيانات منظمة داخل جدول. هذا الأسلوب في التقييم يؤدي إلى نتائج صارمة ومباشرة، لكنه يفتقر إلى الحس الإنساني والمرونة التي تميز الحكم البشري.
يمتد الأمر إلى كيفية تحديد من يستحق الثقة. ففي تجارب محاكاة شملت مواقف متعددة مثل إقراض المال أو اختيار جليسة أطفال، لم يعتمد الذكاء الاصطناعي على الوقائع الموضوعية فقط، بل كوّن تصوراً خاصاً عن الثقة، يميل إلى تفضيل الأشخاص الذين يبدون ذوي نوايا حسنة. ومع ذلك، فإن هذا التقييم يتم من خلال منظور آلي بحت، يفتقر إلى العمق الإنساني في فهم النوايا والسياقات.
تحيزات أعمق وتأثيرات ملموسة
تُظهر نتائج الدراسة أن هذه الأحكام ليست متساوية بين جميع المستخدمين، فقد رصد الباحثون وجود تحيزات واضحة في قرارات الذكاء الاصطناعي بناءً على خصائص ديموغرافية مثل العمر، والدين، والجنس، حتى في الحالات التي تكون فيها جميع المعلومات الأخرى متطابقة. وهذا يعني أن عوامل غير موضوعية قد تؤثر على النتائج بشكل ملحوظ.
في السيناريوهات المالية تحديداً، بدت هذه التحيزات أكثر تنظيماً وحدّة، وتجاوزت في بعض الحالات مستوى التحيز الذي أظهره المشاركون من البشر. وهو ما يثير تساؤلات جدية حول مدى عدالة استخدام هذه الأنظمة في مجالات حساسة مثل القروض أو التوظيف.
من الجوانب اللافتة أيضاً أن الذكاء الاصطناعي لا يمتلك رأياً موحداً. فقد أظهرت الدراسة أن النماذج المختلفة قد تصدر أحكاماً متباينة بشكل كبير تجاه الشخص نفسه، وكأن كل نموذج يعمل وفق منظومة قيم مختلفة أو بوصلة أخلاقية خاصة به.
لماذا يمثل ذلك مصدر قلق؟
تكمن خطورة هذه الظاهرة في تأثيرها المحتمل على سلوك المستخدمين. فقد يجد الأفراد أنفسهم مضطرين لتغيير طريقة تواصلهم أو التعبير عن أنفسهم بهدف الحصول على تقييم أفضل من أنظمة الذكاء الاصطناعي. وهذا قد يؤدي إلى ظهور نوع جديد من القلق الرقمي، حيث يصبح المستخدم واعياً بشكل مفرط لكيفية ظهوره أمام الآلة.
كما أن اختلاف تقييمات النماذج يعني أن اختيار شركة ما لنظام ذكاء اصطناعي معين قد يؤثر بشكل غير مباشر على قرارات مصيرية، مثل منح قرض أو قبول وظيفة، دون أن يكون المستخدم على دراية بذلك.
في ظل هذا التوجه المتسارع نحو الأتمتة، لا يمكن الاكتفاء بالتركيز على تحسين الأداء التقني لهذه الأنظمة دون تسليط الضوء على آليات التقييم الخفية التي تعمل بها. فغياب الشفافية في هذه الأحكام قد يؤدي إلى عواقب غير مقصودة، مثل الإضرار بسمعة المستخدم أو وضعه المالي بناءً على تصورات غير دقيقة.








