وفقاً لدراسة جديدة.. الذكاء الاصطناعي المتحيّز غير موثوق في تشخيص الأمراض
⬤ أشارت دراسة علمية حديثة إلى أنّ الأطباء لا يعرفون أحياناً متى تكون نصائح الذكاء الاصطناعي خاطئة أم صحيحة في أثناء عملية التشخيص.
⬤ يخشى الباحثون أن تتأثر نماذج الذكاء الاصطناعي المستخدمة في مجال الرعاية الصحية بالاختصارات أو الارتباطات الخاطئة ضمن بيانات التدريب
⬤ كشفت نتائج الدراسة أنّ الاعتماد على نماذجِ ذكاءٍ اصطناعي متحيزةٍ يؤثر سلباً على دقة التشخيص لدى الأطباء، بحيث تنخفض بنسبة قدرها 11.3%.
أجرت جامعة ميشيغان دراسة علمية جديدة نشرت في دورية American Medical Association، وأشارت نتائجها إلى أنّ الأطباء يتعذر عليهم أحياناً معرفة متى يزودهم الذكاء الاصطناعي بنصائح خاطئة، حتى حينما يتلقون تفسيراً لمنطق الذكاء الاصطناعي.
ينطوي استخدام الذكاء الاصطناعي في مجال الرعاية الصحية على مجموعة من المميزات والمساوئ؛ فقد يُحسّن القرارات التشخيصية لدى بعض الفئات السكانية، لكنه يتسبب في قرارات تشخيصية خاطئة لفئات أخرى إذا أُعطِي بيانات طبية متحيزة. وتقول سارة جبور، طالبة الدكتواره في علوم الكومبيوتر والهندسة والمؤلفة الرئيسية للدراسة العلمية: «تكمن المشكلة في ضرورة فهم الطبيب لفحوى تفسير الذكاء الاصطناعي، وفهم التفسير نفسه».
في الوقت الحالي تطغى البيانات على مجال الرعاية الصحية، ويأمل الأطباء أن يساهم الذكاء الاصطناعي في تجميع كميات هائلة من البيانات، مما يحسن دقة تشخيص الأمراض لدى الأطباء. وفي هذا السياق يقول مايكل جودينج، وهو حائز شهادة الدكتوراه في الطب وأحد مؤلفي الدراسة العلمية: «يتعذر أحياناً تحديد السبب الدقيق لإصابة المريض بالفشل الرئوي؛ إذ أشارت دراستنا إلى أن دقة التشخيص لدى الأطباء تبلغ 73% تقريباً».
تابع جودينج حديثه بالقول: «يبحث الطبيب خلال عملية التشخيص العادية في السجل الصحي للمريض، والتحاليل المخبرية، ونتائج التصوير، ثم يجمع هذه المعلومات ليصل إلى التشخيص المناسب. لذلك يبدو معقولاً أن يساهم نموذج الذكاء الاصطناعي في تحسين دقة التشخيص».
يسعى الباحثون وواضعو السياسات لأن تكون نماذج الذكاء الاصطناعي مأمونة الجانب وجديرة بالثقة عند استخدامها في هذا المجال، لا سيما في ظلّ مخاطر الوفاة الحقيقية. ومن هذا المنطلق تشرف إدارة الغذاء والدواء الأمريكية على برامج الذكاء الاصطناعي المستخدمة في مجال الرعاية الصحية، وهي إلى ذلك طالبت المطورين بأن يكون المنطق المعتمد في تلك النماذج شفافاً وواضحاً ليستطيع الأطباء مراجعة الأسباب الرئيسية للتشخيص.
تقول جينا وينز، وهي أستاذة مشاركة في علوم الكومبيوتر والهندسة ومؤلفة مشاركة في الدراسة: «تكون نماذج الذكاء الاصطناعي عرضة للاختصارات أو الارتباطات الخاطئة ضمن بيانات التدريب. فلو أتينا مثلاً بمجموعة بيانات فيها حالات تشخيص قليلة لقصور القلب بين النساء، عندئذ يمكن لنموذج الذكاء الاصطناعي أنْ يتوصل إلى رابط بين الإناث وبين انخفاض خطر الإصابة بهذا المرض». وإذا اعتمد الأطباء على نموذج كهذا في عمليات التشخيص، فذلك ربما يفاقم حالة التحيز الموجودة. وتقول وينز: «إذا ساعدت التفسيرات الأطباء في تحديد حالات الاستدلال الخاطئة، فهذا يخفف المخاطر المحتملة».
على كلّ حال عكف الباحثون في الدراسة العلمية على تقييم دقة التشخيص لدى 457 طبيبا وممرضات ممارسات ومساعدي أطباء، وشمل ذلك التشخيص العادي والتشخيص الذي يساهم به الذكاء الاصطناعي ويقدم للطبيب تفسيرات توضيحية.
بعد ذلك أتى الأطباء بصور الأشعة السينية للمرضى المصابين بالفشل الرئوي، وحصلوا على تقييم نموذج الذكاء الاصطناعي لحالات المرضى إن كانوا مصابين بالالتهاب الرئوي أو قصور القلب أو الانسداد الرئوي المزمن، وهي جميعها من أسباب الفشل الرئوي. واختير نصفها للحصول على تفسير الذكاء الاصطناعي وقراره، بينما تلقى النصف الآخر قرار الذكاء الاصطناعي دون أي تفسير.
كانت الخرائط الحرارية على صور الأشعة السينية بمنزلة تفسيرات توضح المواقع التي بحث فيها نموذج الذكاء الاصطناعي عند إجراء التشخيص. وعندما قدمت هذه التفسيرات إلى جانب تنبؤات الذكاء الاصطناعي، زادت دقة التشخيص عند الأطباء بنسبة 4.4%، في حين زادت بنسبة 2.9% فقط عند تقديم القرار دون تفسير.
سعى الباحثون أيضاً ليتبينوا إن كان الأطباء قادرين على تمييز الحالات التي يتحيز فيها نموذج الذكاء الاصطناعي، لذلك قدموا للأطباء نماذج دُربت عمداً حتى تكون متحيزة (كالقول مثلاً إن نسبة الإصابة بالالتهاب الرئوي تزداد إذا كان الشخص أكبر من 80 عاماً). وعندما عرض هذا النموذج المتحيز على الأطباء، انخفضت دقة التشخيص لديهم بنحو 11.3%.
أظهرت تفسيرات النموذج المتحيز أنّه كان يبحث عن معلومات غير مرتبطة بالمرض (مثل انخفاض كثافة العظام عند المرضى ممن تزيد أعمارهم عن 80 عاماً)، لكنها لم تقلل الانخفاض الكبير في دقة التشخيص.
تقول جبور: «يلزمنا القيام بعمل كبير لتطوير أدوات أفضل في تقديم التفسيرات، وذلك حتى يسعنا أن نخبر الأطباء عن الأسباب التي تدعو نموذج الذكاء الاصطناعي إلى اتخاذ قرارات محددة بطريقة يفهمونها. ولا بد من إجراء مناقشات كثيرة مع الخبراء في مختلف التخصصات بشأن هذه المسألة».