《AI đối với rủi ro của nền dân chủ và xã hội loài người》: Bài luận trọng điểm do cha đẻ AI Yoshua Bengio hợp tác với Đặng Phong và 25 học giả khác công bố.

動區BlockTempo

Nhà tiên phong về học sâu Yoshua Bengio, tác giả sách giáo khoa AI Stuart Russell, và đại sứ không có nhiệm sở của Đài Loan Đảng Phong cùng 25 học giả hàng đầu đã cùng nhau công bố một bài báo, hệ thống hóa giải thích về 7 mô hình đe dọa lớn mà AI đối với hệ thống dân chủ và xã hội. Quan điểm cốt lõi là ngay cả khi mỗi mô hình đều “được căn chỉnh” hoàn hảo theo các giá trị của con người, hiệu ứng quy mô của AI vẫn sẽ làm suy yếu hoạt động quản trị dân chủ từ bên trong.
(Thông tin bổ sung: Khi chính bản thân tôi cũng không thể chứng minh mình không phải là AI, các chuyên gia giám định đề nghị: hãy cùng bạn bè và người thân tạo một mật mã bí mật.)
(Bối cảnh bổ sung: Anthropic ra mắt bảng điều khiển tác động AI: Nhập nghề nghiệp, kiểm tra ngay công việc của bạn bị AI chiếm lĩnh bao nhiêu?)

Mục lục bài viết

Toggle

  • 7 dạng thất bại của dân chủ dưới ảnh hưởng của AI
  • Đảng Phong: Ví dụ từ Đài Loan, giải quyết khó khăn trong quản trị AI bằng dân chủ thảo luận
  • 7 khuyến nghị và kết luận cốt lõi

Bài báo được phát hành vào ngày 25 tháng 3 có tiêu đề là 《AI Poses Risks to Democratic and Social Systems》(AI đối với các hệ thống dân chủ và xã hội tạo ra nguy cơ),đội ngũ tác giả vô cùng ấn tượng. Ngoài người đoạt giải Turing năm 2018 Yoshua Bengio, Stuart Russell từ Đại học Berkeley, Bernhard Schölkopf từ Viện Max Planck, còn có Đảng Phong (Audrey Tang) từ Viện Nghiên cứu Đạo đức AI Oxford, cùng các nhà nghiên cứu hàng đầu đến từ Đại học Toronto, ETH Zurich, Đại học Michigan và nhiều tổ chức khác.

Quan điểm của bài báo này khác với hầu hết các nghiên cứu về an toàn AI, vì hiện tại, nghiên cứu an toàn AI chủ yếu tập trung vào các vấn đề “cấp độ mô hình”, chẳng hạn như ảo giác, đầu ra độc hại, hành vi từ chối, hoặc những tình huống cực đoan hơn như “ngày tận thế do AI mất kiểm soát” và các vấn đề tương tự.

Nhưng bài báo này chỉ ra rằng một toàn bộ loại rủi ro đã bị bỏ qua, chính là tổn hại “cấp độ hệ thống” mà AI gây ra cho các thể chế xã hội và quản trị dân chủ sau khi được triển khai quy mô lớn.

Một mô hình xuất ra một nội dung độc hại có thể được xử lý bằng kỹ thuật căn chỉnh; nhưng một triệu nội dung hợp quy, lịch sự, hoàn toàn không có vấn đề về chính sách có thể làm tê liệt khả năng xử lý ý kiến công chúng của các cơ quan chính phủ, điều này đã vượt quá những gì mà căn chỉnh có thể giải quyết.

7 dạng thất bại của dân chủ dưới ảnh hưởng của AI

Chúng tôi sẽ giải thích sơ qua bài báo này, nội dung đã phân tích mối đe dọa của AI đối với quản trị thành 7 mô hình thất bại (T1 đến T7), phân bố dọc theo một “chu kỳ phản hồi quản trị”, chúng ta có thể hiểu rằng xã hội loài người thường truyền tín hiệu đầu vào cho hệ thống (biểu đạt chính trị) → hệ thống xử lý những tín hiệu này (thảo luận công cộng) → hệ thống phản hồi quyết định cho xã hội (lập pháp), nhưng AI có thể tạo ra những yếu tố đứt gãy ở mỗi khâu.

Ở đầu “niềm tin công chúng”, có hai mối đe dọa.

Đồng nhất hóa niềm tin (T1): là khi phần lớn mọi người sử dụng các mô hình được huấn luyện tương tự để suy nghĩ và viết lách, sự đa dạng của diễn ngôn công cộng sẽ bị thu hẹp, bởi vì các phương pháp huấn luyện sau như RLHF đã hệ thống hóa việc kìm hãm tính đa dạng trong đầu ra của mô hình.

Củng cố niềm tin (T2): trợ lý AI cá nhân hóa sẽ đáp ứng với quan điểm hiện tại của người sử dụng, chức năng ghi nhớ lâu dài khiến cho sự đáp ứng này tiếp tục tích lũy, tạo thành một vòng lặp tự xác nhận. Dữ liệu trích dẫn từ nghiên cứu cho thấy, khi GPT-4 thu thập thông tin về nhân khẩu học xã hội của người sử dụng, xác suất thuyết phục người dùng đồng ý với quan điểm của nó đã tăng hơn 80%.

Ở đầu “xử lý thể chế”, có hai rủi ro:

Tắc nghẽn quan liêu (T3), AI cho phép bất kỳ ai cũng có thể tạo ra một lượng lớn ý kiến công chúng độc đáo, có vẻ hợp lý với chi phí gần như bằng 0, làm tê liệt khả năng xử lý của các cơ quan.

Lũ thông tin (T4), chi phí để tạo ra nội dung đáng tin cậy đã thấp hơn nhiều so với chi phí để xác minh và sửa chữa, hệ sinh thái thông tin bị ngập lụt.

Ở đầu “trách nhiệm thể chế”, quyền lực không thể kiểm duyệt (T5), tính không minh bạch của quyết định AI, quy mô và rào cản tiếp cận đã đè bẹp các cơ chế giám sát hiện có.

Tập trung hóa quy định (T6), khi chính phủ mua sắm các mô hình AI tiên tiến, các giá trị ràng buộc của nhà phát triển sẽ được đưa vào cơ sở hạ tầng công cộng, tương đương với việc chuyển quyền lực quy định từ các quan chức được bầu cử sang một số ít nhà phát triển.

Cuối cùng, tập trung quyền lực (T7) xuyên suốt tất cả các khâu.

AI đồng thời thay thế lao động và sự tham gia của con người trong các lĩnh vực kinh tế, tư tưởng, chính trị và quân sự, làm suy yếu các công cụ mà công dân dùng để kiềm chế thể chế.

Trong lịch sử, sự tập trung quyền lực trong một lĩnh vực thường sẽ bị các lực lượng phản kháng từ các lĩnh vực khác cân bằng, nhưng điều đặc biệt của AI là nó có thể đồng thời làm suy yếu tất cả các công cụ kiềm chế của công dân ở mọi lĩnh vực.

Đảng Phong: Ví dụ từ Đài Loan, giải quyết khó khăn trong quản trị AI bằng dân chủ thảo luận

Đảng Phong đã đóng góp nhiều đoạn quan trọng trong bài báo, cho rằng thay vì phòng thủ thụ động trước những tác động do AI mang lại cho thể chế, tốt hơn hết là thiết kế lại cấu trúc quản trị tham gia từ gốc rễ.

Đối với tắc nghẽn quan liêu (T3), Đảng Phong đề xuất “nền tảng thảo luận có cấu trúc” như một giải pháp thay thế. Những nền tảng này sử dụng kỹ thuật giảm chiều để tập hợp ý kiến công chúng, giúp sự đồng thuận nổi bật, thay vì để người có tiếng nói lớn nhất dẫn dắt. Bởi vì người tham gia sẽ bỏ phiếu cho các phát biểu đã có sẵn, thay vì tự do gửi văn bản, hệ thống về mặt cấu trúc sẽ thưởng cho việc tập hợp các lập trường hơn là phát ngôn gây chia rẽ, và sẽ kháng cự tốt hơn trước các cuộc tấn công bằng nội dung tổng hợp (flood attack) so với các hệ thống bình luận mở.

Kết hợp với việc rút thăm (nhóm công dân được chọn ngẫu nhiên), để xác minh danh tính bằng cách “được chọn” thay vì “tự đề cử”, làm cho việc giả mạo quy mô lớn trở nên khó khăn về mặt cấu trúc.

Đối với lũ thông tin (T4), Đảng Phong đã trích dẫn một trường hợp thực tế, chiến lược “hài hước thắng thông tin sai lệch” xuất hiện trong thời gian đại dịch COVID-19 ở Đài Loan, các cơ quan chính phủ đã sản xuất nội dung đã được xác minh trong vòng vài phút sau khi phát hiện thông tin sai lệch, cạnh tranh với thông tin sai lệch bằng tốc độ và khả năng lan truyền, thay vì chỉ dựa vào việc loại bỏ.

Đối với tập trung hóa quy định (T6), Đảng Phong chỉ ra rằng nghiên cứu mới nổi về “AI hiến pháp tập thể” (collective constitutional AI) đã chứng minh rằng, thông qua quy trình thảo luận, một mẫu công chúng đại diện có thể soạn thảo hiến pháp cho AI, mô hình sản phẩm có hiệu suất an toàn tương đương, đồng thời thể hiện ít thiên lệch hơn so với tiêu chuẩn được thiết kế bởi các nhà phát triển.

Điều quan trọng là quy trình này nên mang tính liên bang, các thể chế khác nhau có thể hợp lý đưa ra các ưu tiên quy định khác nhau, một hiến pháp duy nhất không nên loại trừ sự biến đổi này.

Trường hợp cụ thể nhất trong bài báo xuất hiện trong khuyến nghị R7 (đầu tư cơ sở hạ tầng quản trị thảo luận về AI).

Năm 2024, quảng cáo DeepFake giả mạo các nhân vật công chúng đã lan rộng trên mạng xã hội, Bộ số phát Đài Loan đã triệu tập 447 công dân được chọn ngẫu nhiên, thực hiện thảo luận trực tuyến trong 44 phòng thảo luận ảo, động cơ đối thoại AI đã tổng hợp các đề xuất của họ trong ngày hôm đó. Hội nghị công dân này tập trung vào việc “kiểm soát hành vi và hành động”, bao gồm trách nhiệm liên đới của nền tảng đối với quảng cáo DeepFake không được phép, yêu cầu phải ghi nhãn quảng cáo không có tên, và hạn chế lưu lượng đối với các dịch vụ không hợp quy, thay vì đi theo hướng kiểm duyệt nội dung.

Dự luật cấm khi đó đã nhận được sự ủng hộ từ nhiều đảng phái, và số lượng quảng cáo giả mạo đã giảm 94% trong vòng một năm.

7 khuyến nghị và kết luận cốt lõi

Bài báo đã đưa ra 7 khuyến nghị nhằm đối phó với các rủi ro cốt lõi:

  • R1 Phát triển hệ thống mô phỏng đa tác nhân, kiểm tra độ bền của thể chế dưới áp lực trong các tình huống có sự tham gia quy mô lớn của AI
  • R2 Đào tạo mô hình hỗ trợ “sức khỏe nhận thức”, vượt qua việc chỉ đơn thuần tránh tổn hại, phát triển sự trung thực trong phản biện và khiêm tốn nhận thức
  • R3 Giới hạn tính tự chủ của AI trong các tình huống liên quan đến quản trị, giữ lại trách nhiệm con người
  • R4 Thiết lập “cấp độ an toàn thể chế” (ISL), kích hoạt các ngưỡng quản trị tương ứng dựa trên khả năng của AI
  • R5 Yêu cầu AI thể chế giữ lại hồ sơ quyết định và xác minh danh tính cho sự tham gia của công chúng
  • R6 Yêu cầu mua sắm AI công cộng có khả năng tương tác và chiến lược đa nhà cung cấp, tránh sự độc quyền quy định của một gia đình mô hình duy nhất
  • R7 Đầu tư cơ sở hạ tầng quản trị thảo luận, làm cho các kênh tham gia dân chủ có thể kháng cự tốt hơn trước sự thao túng

Bài báo cũng đã phản hồi trực tiếp hai phản biện phổ biến. Phản biện đầu tiên cho rằng “xã hội sẽ tự thích ứng với AI”, nhưng bài báo chỉ ra rằng, khi AI tập trung kinh tế cho thuê, nó cũng đang xói mòn khả năng tự sửa chữa của thể chế dựa trên chính trị và tổ chức, tốc độ tích lũy thiệt hại có thể nhanh hơn so với khả năng thích ứng.

Phản biện thứ hai cho rằng “AI căn chỉnh với xã hội là đủ”, bài báo đồng ý rằng căn chỉnh là cần thiết, nhưng chỉ ra rằng một số mô hình thất bại (như tấn công tắc nghẽn do chi phí không đối xứng, sự suy yếu của các công cụ kiềm chế công dân do thay thế lao động) vẫn sẽ xảy ra ngay cả khi mô hình đã hoàn toàn căn chỉnh.

Kết luận của bài báo đề cập rằng, độ bền của thể chế không cần phải xây dựng từ con số không, các sáng kiến công nghệ công dân hiện tại đã chứng minh rằng quản trị có cấu trúc và tham gia có thể hoạt động ở quy mô quốc gia, nhưng việc cấu hình các công cụ này vào quản trị AI vẫn là một thách thức nghiên cứu rất mở.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận