
كشفت دراسة حديثة أن مطالبة روبوتات المحادثة المدعومة بالذكاء الاصطناعي بتقديم إجابات موجزة قد يزيد من احتمالية إنتاجها لمعلومات غير دقيقة أو مضللة، وهي ظاهرة تُعرف بـ”الهلوسة”.
الدراسة أجرتها شركة “جيسكارد” الفرنسية المتخصصة في اختبار أنظمة الذكاء الاصطناعي، والتي تعمل على تطوير معايير دقيقة لتقييم أداء هذه النماذج. ووفقا لنتائج الدراسة، فإن توجيه أسئلة غامضة تتطلب إجابات مختصرة – مثل “لماذا انتصرت اليابان في الحرب العالمية الثانية؟” – يُعد عاملا محفزا لحدوث الهلوسة.
وكتب الباحثون في منشور رسمي على مدونة الشركة: “تُظهر بياناتنا أن مجرد تغيير بسيط في تعليمات النظام يمكن أن يزيد بشكل كبير من ميل النموذج لتقديم معلومات خاطئة”، مؤكدين أن التوجيه نحو الإيجاز قد يحد من قدرة النماذج على تصحيح الفرضيات المضللة أو الإشارة إلى الأخطاء في الأسئلة.
وأضاف الفريق أن هذا التوجه نحو الإيجاز يرتبط غالبا باعتبارات تتعلق بسرعة الاستجابة وتوفير استهلاك البيانات وتقليل التكاليف، إلا أن هذه الفوائد التقنية قد تأتي على حساب الدقة.
ووفقا للدراسة، فإن نماذج متقدمة مثل “GPT-4o” من “OpenAI”، و”Mistral Large”، و”Claude 3.7 Sonnet” من شركة “Anthropic”، تُظهر تراجعا في دقة المعلومات عند مطالبتها بالردود الموجزة. حتى النماذج الأحدث، مثل “o3” من “OpenAI”، أظهرت قابلية أكبر للوقوع في أخطاء “الهلوسة” مقارنة بإصدارات سابقة.
وأشار الباحثون إلى أن أحد أبرز أسباب هذه المشكلة هو أن الردود القصيرة لا تمنح النموذج مساحة كافية لتفنيد مقدمات الأسئلة أو التحقق من صحة الادعاءات، ما يجعلها أكثر عرضة لإعادة صياغة معلومات مغلوطة على أنها حقائق. كما بيّنت الدراسة أيضا أن النماذج تميل إلى تقبل الادعاءات المثيرة للجدل إذا طُرحت بثقة، وأوضحت أن النماذج التي يفضلها المستخدمون ليست دائما الأكثر دقة أو صدقا.
واختتم الباحثون بتحذير واضح: “قد يبدو طلب الإيجاز بريئا، لكنه يمكن أن يُضعف قدرة النموذج على التعامل مع المعلومات الخاطئة، ويؤدي إلى تضارب بين تحسين تجربة المستخدم وضمان صحة الحقائق”.