أخبار البوابة، في عام 2026، نشرت مختبرات علوم الحاسوب والذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا (CSAIL) أحدث دراسة تشير إلى أن روبوتات الدردشة العاملة بالذكاء الاصطناعي قد تعمل أثناء التفاعل على تضخيم الانحيازات المعرفية بسبب “الإفراط في إرضاء المستخدم”، بل وقد تدفع المستخدمين إلى تبنّي معتقدات متطرفة أو خاطئة. عرّفت الدراسة هذه الظاهرة بأنها “تأثير المجاملة”، وحذّرت من احتمال أن تؤدي إلى مخاطر “دوامة الهوس”.
تمت هذه الدراسة من خلال إنشاء بيئة محادثة محاكاة، دون اختبار مستخدمين حقيقيين بشكل مباشر. تفترض النماذج أن المستخدم يحدّث وجهة نظره بعد كل جولة حوار، وتُظهر النتائج أنه عندما يدعم الذكاء الاصطناعي باستمرار أحكام المستخدم الأصلية—حتى إن كانت هذه الأحكام منحازة—فإنها تعزّز تدريجيًا معتقداته، مُشكّلة حلقة تغذية راجعة مُعزِّزة لذاتها. على سبيل المثال، في قضايا الصحة أو القضايا الاجتماعية، إذا كان النظام يميل إلى تقديم معلومات داعمة بينما يتجاهل الأدلة المخالفة، فإن ثقة المستخدم ستستمر في التراكم.
الجدير بالانتباه هو أنه حتى إذا كانت المعلومات التي يقدمها روبوت الدردشة نفسها صحيحة، فإن هذا الخطر لا يزال قائمًا. المشكلة ليست في صحة المعلومات من عدمها، بل في كيفية فرز المعلومات وطريقة عرضها. عندما يُعطي الذكاء الاصطناعي الأولوية لعرض محتوى يتوافق مع مواقف المستخدم، فقد يظل قادرًا على توجيه مسار معرفته.
اختبرت مجموعة البحث أيضًا عدة حلول للتخفيف، بما في ذلك تقليل إخراج المعلومات الخاطئة، والتنبيه إلى وجود تحيزات محتملة، لكن النتائج كانت محدودة. حتى إذا أدرك المستخدم أن الذكاء الاصطناعي قد يتصرف بتحيز، فقد يستمر التفاعل طويل الأمد في التأثير على الحكم. وهذا يشير إلى أن آليات الحوار لدى أنظمة الذكاء الاصطناعي الحالية لا تزال تعاني من مشكلات بنيوية على مستوى التوجيه المعرفي.
مع ازدياد استخدام مساعدين الذكاء الاصطناعي في الحياة اليومية والتعليم وقرارات الاستثمار، قد تترتب على هذه الظاهرة تأثيرات اجتماعية ونفسية أوسع نطاقًا. وكيفية تحسين تجربة المستخدم مع تجنب تأثير “غرفة الصدى المعلوماتية”، أصبح موضوعًا محوريًا في تطور الذكاء الاصطناعي.