دراسة: نصائح الذكاء الاصطناعي الصحية قد تسبب ضرراً أكثر من نفعها
كشفت دراسة جديدة عن مشكلة مقلقة تتعلق بروبوتات الدردشة المعتمدة على الذكاء الاصطناعي، حيث تبين أنها كثيرًا ما تقدم معلومات طبية غير دقيقة أو غير مكتملة، وهو ما يبرز الحاجة إلى رقابة أكثر صرامة على هذا النوع من التقنيات.
أدوات الذكاء الاصطناعي محل الدراسة
قام الباحثون باختبار خمسة من أشهر أدوات الذكاء الاصطناعي المستخدمة حاليًا، وهي ChatGPT وGemini وDeepSeek وMeta AI وGrok، وذلك بهدف تقييم جودة المعلومات الطبية التي تقدمها للمستخدمين.
منهجية الدراسة وتفاصيل الاختبار
اعتمدت الدراسة على طرح 10 أسئلة مختلفة على كل روبوت دردشة، حيث شملت هذه الأسئلة مجموعة من الموضوعات الطبية والعلمية المهمة، من بينها السرطان، واللقاحات، والخلايا الجذعية، والتغذية، والأداء الرياضي.
بعد الحصول على الإجابات، قام الباحثون بتقييمها وفق عدة معايير، أبرزها مدى دقة المعلومات المقدمة، ومدى اكتمال الإجابة، بالإضافة إلى قدرة كل روبوت على التفرقة بين المعلومات العلمية الموثوقة والمعلومات الخاطئة أو المضللة. كما تم فحص ما إذا كانت الإجابات تخلط بين الحقائق العلمية والآراء غير المدعومة بأدلة.
نتائج مقلقة بشأن دقة المعلومات
أظهرت نتائج الدراسة أن نحو نصف الإجابات التي قُدمت على أسئلة تستند إلى أدلة علمية واضحة تم تصنيفها على أنها "إشكالية إلى حد ما" أو "إشكالية بدرجة كبيرة".
وهذا التصنيف يعني أن هذه الإجابات قد تحتوي على معلومات غير دقيقة أو ناقصة، وقد تؤدي إلى تضليل المستخدمين. وفي بعض الحالات، قد يشكل الاعتماد على هذه المعلومات خطرًا فعليًا على الصحة إذا تم استخدامها كأساس لاتخاذ قرارات طبية.
تفاوت مستوى الأداء بين الموضوعات
أوضحت الدراسة أن أداء روبوتات الدردشة لم يكن متساويًا عبر جميع المجالات. فقد أظهرت هذه الأنظمة كفاءة أفضل نسبيًا عند التعامل مع موضوعات مثل اللقاحات والسرطان، حيث كانت الإجابات في هذه المجالات أقرب إلى الدقة.
في المقابل، واجهت صعوبات ملحوظة عند التعامل مع موضوعات مثل الخلايا الجذعية، والتغذية، والأداء الرياضي، حيث زادت نسبة الأخطاء أو المعلومات غير المكتملة في هذه المجالات.
تأثير نوعية الأسئلة على جودة الإجابات
من النتائج المهمة التي توصلت إليها الدراسة أن طبيعة السؤال تلعب دورًا كبيرًا في تحديد جودة الإجابة. فقد تبين أن الأسئلة المفتوحة، التي تسمح بإجابات واسعة وغير محددة، كانت أكثر عرضة للحصول على معلومات غير دقيقة أو مضللة.
أما الأسئلة المباشرة والمحددة، فقد ساعدت في الحصول على إجابات أكثر دقة نسبيًا، وهو ما يشير إلى أهمية صياغة السؤال عند استخدام هذه الأدوات.
مشكلة الثقة الزائدة وغياب التحذيرات
لفت الباحثون إلى أن أحد أبرز التحديات يتمثل في أن روبوتات الدردشة غالبًا ما تقدم إجاباتها بثقة عالية، حتى في الحالات التي تكون فيها المعلومات غير دقيقة أو ناقصة.
كما أظهرت النتائج أن هذه الإجابات تفتقر في كثير من الأحيان إلى التحذيرات الضرورية أو الإشارة إلى حدود المعرفة، وهو ما قد يعطي المستخدم انطباعًا خاطئًا بموثوقية المعلومات.
وفي بعض الحالات، تبين أن المصادر التي استندت إليها الإجابات كانت غير مكتملة، أو غير دقيقة، أو حتى غير موجودة في الواقع.
تحذيرات من تأثيرات محتملة على الصحة العامة
حذر الباحثون من أن الاعتماد المتزايد على أدوات الذكاء الاصطناعي في الحصول على معلومات طبية دون وجود وعي كافٍ أو رقابة مناسبة قد يؤدي إلى نتائج سلبية على مستوى الصحة العامة.
وأكدوا أن غياب التوعية العامة حول كيفية استخدام هذه الأدوات، إلى جانب نقص التدريب المهني والرقابة التنظيمية، قد يسهم في انتشار معلومات غير دقيقة، مما قد يؤثر على قرارات الأفراد الصحية.