دراسة تكشف أسباب فشل الاعتماد على الذكاء الاصطناعي في التشخيص الطبي
أظهرت دراسة بريطانية واسعة أن المساعدين الطبيين المعتمدين على الذكاء الاصطناعي، والذين يعتمدون على نماذج اللغة الكبيرة، لا يساعدون الناس بشكل موثوق على تشخيص الحالات الصحية أو اتخاذ القرار الصحيح بشأن طلب الرعاية الطبية. وتشير النتائج إلى وجود فجوة واضحة بين الدقة التقنية العالية لهذه النماذج وبين قدرتها الفعلية على مساعدة المستخدمين في مواقف حقيقية تتعلق بصحتهم.
لماذا زاد الاهتمام بالمساعدين الطبيين بالذكاء الاصطناعي؟
زاد الاهتمام بهذه الأدوات في الفترة الأخيرة بسبب نقص الأطباء في كثير من أنظمة الرعاية الصحية، وارتفاع الطلب على معلومات طبية سهلة وسريعة. كما أن نماذج الذكاء الاصطناعي حققت نتائج مرتفعة في اختبارات طبية متقدمة، ما دفع إلى الاعتقاد بأنها قد تكون قادرة على تقديم دعم طبي خارج العيادات، وفق ما جاء في "emjreviews".
لكن يبقى السؤال الأساسي: هل تستطيع هذه النماذج تحويل معرفتها الطبية إلى نصائح واضحة وآمنة يفهمها غير المتخصصين؟ للإجابة عن ذلك، هدفت الدراسة إلى معرفة ما إذا كان استخدام الذكاء الاصطناعي يساعد الناس فعليًا على فهم الأعراض واتخاذ القرار المناسب مقارنة بالاعتماد على مصادر المعلومات المعتادة.
كيف أُجريت الدراسة؟
شارك في الدراسة 1298 شخصًا بالغًا في المملكة المتحدة. طُلب من كل مشارك التعامل مع واحد من عشرة سيناريوهات طبية واقعية، ثم تحديد الحالة الصحية المحتملة واختيار الإجراء المناسب، بداية من البقاء في المنزل وحتى الاتصال بالإسعاف.
تم تقسيم المشاركين إلى مجموعات: بعضهم استخدم أدوات ذكاء اصطناعي للمساعدة، بينما اعتمد آخرون على أي مصادر معلومات يفضلونها.
ماذا أظهرت النتائج؟
عند تقييم نماذج الذكاء الاصطناعي وحدها، كانت النتائج قوية، حيث تمكنت من تحديد الحالات الطبية بدقة عالية، كما قدمت قرارات صحيحة في عدد لا بأس به من الحالات.
لكن عند استخدام هذه الأدوات من قبل المشاركين، تراجع الأداء بشكل ملحوظ. فقد أخطأ كثيرون في تحديد الحالة الصحية، كما لم يتمكنوا من اختيار الإجراء الصحيح في عدد كبير من السيناريوهات. ولم يكن أداؤهم أفضل من أداء الأشخاص الذين لم يستخدموا الذكاء الاصطناعي من الأساس.
ويرجع ذلك في الغالب إلى أن المستخدمين قدموا معلومات غير كاملة، أو أساءوا فهم الإجابات التي حصلوا عليها من هذه الأدوات.
ماذا تعني هذه النتائج؟
تشير الدراسة إلى أن إتاحة المساعدين الطبيين المعتمدين على الذكاء الاصطناعي للجمهور بشكل مباشر قد لا تكون خطوة آمنة في الوقت الحالي. فالدقة العالية للنماذج لا تعني بالضرورة أن المستخدمين سيحصلون على قرارات صحية أفضل.
كما توضح النتائج أن الاعتماد على هذه الأدوات دون إشراف طبي قد يمنح المستخدمين شعورًا زائفًا بالأمان، بدلًا من تحسين سلامة قراراتهم الصحية.
لذلك، تؤكد الدراسة على أهمية تطوير هذه الأنظمة بطريقة تركز على المستخدم، وتقديم معلومات أوضح وأسهل للفهم، مع اختبارها على نطاق واسع قبل الاعتماد عليها في المجال الطبي بشكل عام.