دراسة: روبوتات المحادثة مثل ChatGPT تزيد الشعور بالوحدة والعزلة الاجتماعية

⬤ وفق بحث جديد، قد يؤدي الاستخدام المكثف لروبوتات المحادثة مثل ChatGPT لزيادة الشعور بالوحدة.
⬤ أوضحت الدراسة أن قضاء الأفراد وقت أطول مع ChatGPT يتناسب طردياً مع مستوى التعلق العاطفي.
⬤ خلال الأشهر الماضية، تزايدت مخاوف تحول الأشخاص، وبالأخص اليافعين لمحادثة الذكاء الاصطناعي بدل البشر.
قد يؤدي الاستخدام المكثف لروبوتات المحادثة مثل ChatGPT لزيادة الشعور بالوحدة وتقليل التفاعل الاجتماعي مع الآخرين، وفق بحث جديد أجرته شركة OpenAI، الأمريكية الرائدة في مجال الذكاء الاصطناعي، بالشراكة مع معهد ماساتشوستس للتكنولوجيا (MIT).
أوضحت الدراسة أن قضاء الأفراد وقت أطول مع روبوت المحادثة ChatGPT يتناسب طردياً مع مستوى التعلق العاطفي، ومدد استخدامه، والشعور بالوحدة. وقد جاء ذلك ضمن دراستين أعدهما باحثون من OpenAI وMIT، لكنهما لم تخضعا لمراجعة علمية بواسطة الأقران بعد.
شملت الدراسة ألف مشارك بمستويات مختلفة من الخبرة السابقة مع روبوت المحادثة ChatGPT واستمرت لمدة شهر، حيث طُلب منهم إجراء محادثات يومية لا تقل مدتها عن خمس دقائق مع إصدار نصي أو أحد إصدارين صوتيين من الروبوت، وحول موضوعات يختارونها عشوائياً، وكذلك موضوعات شخصية وغير شخصية.
أدى إطلاق روبوت المحادثة ChatGPT لحماس المستخدمين بتقنيات الذكاء الاصطناعي التوليدي، ليستخدموها في مجالات متعددة، بدايةً من البرمجة، وانتهاءً بجلسات علاجية غير رسمية. ومع تطور هذه الأنظمة لتدعم ميزات صوتية تحاكي طريقة التفاعل البشري، زادت احتمالية تكوين علاقات شبه اجتماعية مع هذه الروبوتات.
بجانب ما سبق، أظهرت الدراسة أن الأشخاص الذين يميلون للتعلق العاطفي، وهم الأكثر ثقةً في روبوت المحادثة ChatGPT، كانوا أكثر عرضةً للشعور بالوحدة والتعلق العاطفي بالروبوت، بينما لم تظهر فروقاً في التأثيرات بين المستخدمين الذين تفاعلوا مع الإصدارات المختلفة من الروبوت.
كما شملت الدراسة الثانية ثلاثة ملايين محادثة مع روبوت المحادثة ChatGPT، بجانب استطلاعات رأي لمعرفة كيفية تفاعل المستخدمين مع الروبوت. وأظهرت الدراسة أن معظم المستخدمين لا يلجؤون للروبوت لأغراض عاطفية، وبذلك لا يُعرف ما إذا كانت روبوتات المحادثة تتسبب بشكل مباشر في الشعور بالوحدة، أم أن الأشخاص الذين يشعرون بالوحدة بالفعل هم الأكثر استخداماً لها.
يُجدر بالذكر أنه خلال الأشهر الماضية، تزايدت المخاوف بشأن الأضرار العاطفية لهذه التكنولوجيا، وخاصةً بين المستخدمين الأصغر سناً أو الذين يعانون من مشكلات نفسية، فقد واجهت شركة Character دعوى قضائية بتهمة تشجيع روبوت المحادثة خاصتها Character.AI على أفكار ضارة حثت طفلاً يبلغ من العمر 14 عاماً على إنهاء حياته.