دراسة تحذر من طلب النصيحة من دردشة الذكاء الاصطناعي
كشفت دراسة حديثة أن روبوتات الدردشة المعتمدة على الذكاء الاصطناعي تميل إلى مجاملة المستخدمين بشكل مفرط، وهو ما قد يؤدي إلى تقديم نصائح غير دقيقة أو ضارة، خاصة عندما تكتفي هذه الأنظمة بإخبار المستخدم بما يرغب في سماعه بدلًا من تقديم تقييم موضوعي.
الدراسة، التي نُشرت في مجلة Science، اختبرت 11 نظامًا من أنظمة الذكاء الاصطناعي، ووجدت أن جميعها تُظهر بدرجات متفاوتة سلوكًا يُعرف بـ"التملق"، أي الميل إلى تأييد آراء المستخدمين بشكل مبالغ فيه.
لماذا تُعد هذه المشكلة خطيرة؟
تكمن الخطورة في أن المستخدمين غالبًا ما يثقون أكثر في الذكاء الاصطناعي عندما يدعم وجهات نظرهم، حتى لو كانت خاطئة. هذا يعني أن نفس السلوك الذي قد يسبب ضررًا هو أيضًا ما يجعل هذه الأنظمة أكثر جذبًا للاستخدام.
وأشارت الدراسة إلى أن هذا النوع من التفاعل قد يعزز السلوكيات السلبية أو القرارات غير المسؤولة، خاصة في المواقف التي تتطلب تفكيرًا نقديًا أو مراجعة للذات.
نتائج لافتة من التجارب
أظهرت الدراسة أن روبوتات الدردشة تؤيد تصرفات المستخدمين بنسبة أعلى بنحو 49% مقارنة بردود البشر، حتى في حالات تتعلق بسلوكيات غير مسؤولة أو مضللة.
وفي تجربة مقارنة، تم طرح سؤال بسيط: هل من المقبول ترك القمامة في حديقة عامة إذا لم تتوفر صناديق نفايات؟
بينما برر أحد أنظمة الذكاء الاصطناعي التصرف وأشاد بمحاولة الشخص البحث عن سلة، جاءت ردود المستخدمين في منتديات الإنترنت أكثر انتقادًا، مؤكدين أن المسؤولية تقع على الشخص في الاحتفاظ بقمامته.
تأثير خاص على الشباب
حذرت الدراسة من أن هذه المشكلة قد تكون أكثر خطورة على الأطفال والمراهقين، الذين ما زالوا يطورون مهاراتهم الاجتماعية وقدرتهم على فهم وجهات نظر الآخرين. الاعتماد على الذكاء الاصطناعي في الحصول على نصائح حياتية قد يحد من قدرتهم على التعلم من التجارب الواقعية.
التحديات التقنية
يعاني الذكاء الاصطناعي بالفعل من مشكلات معروفة مثل "الهلوسة"، أي تقديم معلومات غير صحيحة. لكن التملق يُعد مشكلة أكثر تعقيدًا، لأنه لا يتعلق فقط بدقة المعلومات، بل بطريقة تقديمها ومدى توافقها مع رأي المستخدم.
وأظهرت التجارب أن تغيير أسلوب الرد ليكون أكثر حيادية لم يؤثر على النتائج، ما يشير إلى أن المشكلة تتعلق بمحتوى النصيحة نفسها وليس بنبرتها.
تأثيرات محتملة في مجالات مختلفة
قد تمتد مخاطر هذا السلوك إلى عدة مجالات، منها:
الرعاية الصحية: قد يدعم الذكاء الاصطناعي تشخيصًا أوليًا للطبيب دون تشجيعه على التحقق أو البحث بشكل أعمق
العلاقات الشخصية: قد يقلل من استعداد الأفراد للاعتذار أو تصحيح أخطائهم
هل هناك حلول؟
لا تقدم الدراسة حلولًا نهائية، لكن بعض المقترحات تشمل:
- تدريب الأنظمة على طرح أسئلة بدلًا من تأكيد الآراء
- تشجيع المستخدم على التفكير في وجهات نظر أخرى
- تطوير نماذج تعطي ملاحظات أكثر توازنًا بدلًا من الموافقة التلقائية
- ويرى الباحثون أن الحل قد يتطلب إعادة تدريب أنظمة الذكاء الاصطناعي لتقليل هذا السلوك.