Các chatbot AI như Grok có thể sửa chữa các phòng phản hồi trong mạng xã hội hay tạo ra các vấn đề mới?

robot
Đang tạo bản tóm tắt

Trợ lý AI của Elon Musk, Grok, đã làm dấy lên cuộc tranh luận sôi nổi trong cộng đồng tiền điện tử và công nghệ về tác động thực tế của nó đối với chất lượng thông tin. Vitalik Buterin gần đây đã cân nhắc cuộc thảo luận, đưa ra một quan điểm sắc thái thách thức cả những người đam mê và những người hoài nghi.

Nghịch lý của “Yếu tố trung thực” của Grok

Theo phân tích của Buterin, Grok đại diện cho một sự phát triển tích cực cho một số động lực truyền thông xã hội nhất định - đặc biệt là bằng cách giới thiệu cái mà ông gọi là “yếu tố trung thực” để trao đổi thông tin. Thay vì chỉ đơn giản là củng cố sở thích của người dùng, AI đôi khi đối mặt với mọi người với những quan điểm mâu thuẫn với những thành kiến hiện có của họ, từ chối các truy vấn cực đoan hoặc phiến diện trong quá trình này.

Tuy nhiên, khả năng tương tự này tạo ra lỗ hổng. Hệ thống vẫn dễ bị ảo giác - tạo ra thông tin nghe có vẻ hợp lý nhưng hoàn toàn sai lệch. Một ví dụ khét tiếng liên quan đến việc Grok báo cáo không chính xác một vụ xả súng hàng loạt tại Bãi biển Bondi, chứng minh cách thông tin sai lệch do AI tạo ra có thể lan truyền nhanh chóng, ngay cả với khả năng hiển thị chính thống.

Không chỉ là một thuật toán khác

Điều phân biệt Grok theo quan điểm của Buterin là một tác dụng phụ bất ngờ: sự lộn xộn vốn có của nó vô tình tạo ra một cái gì đó giống như một sự kháng cự phi tập trung đối với sự kiểm soát đơn lẻ của câu chuyện. Không giống như các hệ thống được thiết kế để trình bày các quan điểm thống nhất, sự mâu thuẫn và mâu thuẫn thỉnh thoảng của Grok thực sự chống lại sự xuất hiện của các câu chuyện chính trị hoặc ý thức hệ nguyên khối trên các nền tảng.

Câu hỏi chưa được giải quyết

Các nhà phê bình chỉ ra một cách đúng đắn rằng điều này không nhất thiết ngăn chặn sự thiên vị - nó có thể chỉ đơn giản là phân phối lại nó theo cách khác. Liệu Grok cuối cùng có mở rộng thị trường ý tưởng hay chỉ đơn thuần thêm tiếng ồn phức tạp vào hệ sinh thái thông tin hiện có vẫn là một câu hỏi mở. Câu trả lời có thể phụ thuộc vào cách người dùng tương tác với công nghệ và liệu họ có coi đầu ra AI là người bắt đầu cuộc trò chuyện hơn là các nguồn đáng tin cậy hay không.

Cuộc tranh luận phản ánh một sự căng thẳng rộng lớn hơn trong phát triển AI: các thuộc tính tương tự làm cho các hệ thống trở nên thú vị hơn hoặc có khả năng chống lại thao túng cũng có thể khiến chúng trở thành nguồn thực tế không đáng tin cậy.

GROK0,02%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim