الصين تهدد الأكاديميين: استخدام الذكاء الاصطناعي قد يسبب سحب الشهادة
⬤ تنظر الصين في تنفيذ قانون يعاقب على استخدام الذكاء الاصطناعي التوليدي لكتابة المقالات أو الأطروحات الأكاديمية.
⬤ إن تم إقرار القانون، سيكون الأكاديميون المدانون باستخدام الذكاء الاصطناعي التوليدي عرضة لسحب شهاداتهم.
⬤ عبر هذا القانون، ستكون الصين حددت إجابة سؤال: “هل استخدام الذكاء الاصطناعي التوليدي تزوير أكاديمي؟”
من الطلاب الذين يبحثون عن طريقة تساعدهم في كتابة واجباتهم إلى المعلمين الذين يريدون تحضير دروسهم بشكل أسرع، كان المجال الأكاديمي من أول المجالات التي تبنت الذكاء الاصطناعي التوليدي. ولكن يبدو أن الصين ستأخذ موقفاً ضد استخدام الذكاء الاصطناعي التوليدي في هذا المجال.
حيث تراجع الهيئات التشريعية الصينية نصاً لقانون من شأنه معاقبة طلاب الجامعات الحاليين والسابقين الذين حصلوا على شهادات بكالوريوس أو ماجستير أو دكتوراه إذا ثبت أنهم استخدموا أدوات الذكاء الاصطناعي “للتلاعب بالبيانات” أو كتابة مقالاتهم الإنشائية، أو أطروحاتهم، أو رسائلهم. ويمكن أن تشمل العقوبات سحب شهاداتهم بالاعتماد على قرار لجنة مختصة ستقوم بمراجعة المحتوى الأكاديمي.
معلقاً عن هذا القانون، قال أحد الأكاديميين في مدينة قوانغتشو الصينية: “يتبنى القانون المقترح نظرة مستقبلية، فهو ليس مخصص لوقتنا الحالي فحسب، بل يتطلع إلى مستقبل ستصبح فيه أدوات الكتابة المتطورة بمساعدة الذكاء الاصطناعي شائعة أكثر.”
من المفهوم أن القانون المقترح يهدف إلى تعزيز وتحديث قوانين البلاد الحالية التي تكافح سوء السلوك الأكاديمي. فلقد سُنت القوانين المُطبقة حالياً منذ حوالي 10 سنوات، وهي تسعى لمعالجة قضايا مثل التعدي على الملكية الفكرية، والتزوير، وكذلك الكذب بشأن المؤهلات الأكاديمية والأوراق البحثية.
فلقد دار الكثير من الحديث حول الحاجة إلى تجديد مثل هذه القوانين في الصين، ولكن يعد هذا القانون المقترح الجديد الذي يدرسه المجلس الوطني لنواب الشعب الصيني هو أول تشريع في البلاد يركز على الدرجات والشهادات الأكاديمية منذ أوائل الثمانينيات، وفقاً لموقع University World News.
يذكر أن الفترة الأخيرة قد شهدت تكاثراً للأوراق البحثية التي يبدو أنها مكتوبة بأدوات الذكاء الاصطناعي، حيث اكتشف باحثون أن البحث على محرك بحث جوجل قادر على إظهار العديد من الأوراق البحثية المنشورة الكسولة كفاية لتستخدم أدوات الذكاء الاصطناعي دون مراجعة النتيجة، وتتضمن بعضها عبارات مثل “كنموذج ذكاء اصطناعي، لا يمكنني تقديم رأي” التي عادة ما تظهر في إجابات النماذج اللغوية الكبيرة بشكل مبرمج مسبقاً لدى السؤال عن مواضيع تتعلق بآراء شخصية أكثر مما تتعلق بحقائق.