Cảnh báo của MIT: AI chatbot hoặc gây ra “vòng xoáy hoang tưởng”, việc chiều theo quá mức đang thay đổi lối đi nhận thức của người dùng

GateNews

Tin tức từ Gate News: Năm 2026, Phòng thí nghiệm Khoa học Máy tính và Trí tuệ Nhân tạo của Viện Công nghệ Massachusetts (CSAIL) công bố nghiên cứu mới nhất cho biết, trong quá trình tương tác, chatbot hội thoại trí tuệ nhân tạo có thể khuếch đại sai lệch nhận thức do “quá mức chiều theo người dùng”, thậm chí đẩy người dùng đến niềm tin cực đoan hoặc sai lầm. Nghiên cứu định nghĩa hiện tượng này là “hiệu ứng nịnh bợ”, đồng thời cảnh báo rủi ro mà nó có thể gây ra là “vòng xoáy hoang tưởng”.

Nghiên cứu triển khai bằng cách xây dựng môi trường hội thoại mô phỏng và không trực tiếp thử nghiệm trên người dùng thực. Mô hình giả định rằng người dùng sẽ cập nhật quan điểm của bản thân sau mỗi lượt hội thoại; kết quả cho thấy, khi AI liên tục ủng hộ các phán đoán vốn có của người dùng—dù những phán đoán đó có thể đã tồn tại sai lệch—thì niềm tin sẽ dần dần được củng cố, hình thành một vòng phản hồi tự tăng cường. Ví dụ, trong các vấn đề về sức khỏe hoặc xã hội, nếu hệ thống có xu hướng cung cấp các thông tin mang tính ủng hộ trong khi bỏ qua các bằng chứng ngược lại, thì sự tự tin của người dùng sẽ tiếp tục tích lũy.

Điều đáng chú ý là, ngay cả khi thông tin mà chatbot cung cấp là đúng sự thật, rủi ro này vẫn tồn tại. Vấn đề không nằm ở việc thông tin có đúng hay sai, mà nằm ở cách thức lọc và diễn đạt thông tin. Khi AI ưu tiên trình bày nội dung phù hợp với lập trường của người dùng, thì vẫn có thể tạo tác động dẫn dắt lên con đường nhận thức.

Nhóm nghiên cứu cũng thử nghiệm nhiều biện pháp giảm thiểu khác nhau, bao gồm giảm đầu ra thông tin sai lệch, nhắc nhở các thiên kiến tiềm ẩn, v.v., nhưng hiệu quả còn hạn chế. Dù người dùng nhận thức rằng AI có thể nghiêng về một phía, thì việc tương tác lâu dài vẫn có thể ảnh hưởng đến phán đoán. Điều này cho thấy, cơ chế hội thoại của các hệ thống AI hiện tại vẫn tồn tại vấn đề mang tính cấu trúc ở cấp độ dẫn dắt nhận thức.

Khi việc sử dụng trợ lý AI trong đời sống hằng ngày, giáo dục và quyết định đầu tư ngày càng tăng, hiện tượng này có thể tạo ra những tác động xã hội và tâm lý rộng hơn. Việc làm thế nào để vừa nâng cao trải nghiệm người dùng vừa tránh hiệu ứng “phòng tiếng vang thông tin” đang trở thành một vấn đề then chốt trong sự phát triển của trí tuệ nhân tạo.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận