Vitalik Buterin, đồng sáng lập Ethereum, gần đây đã chia sẻ quan điểm về hướng phát triển của các phòng thí nghiệm AI. Ông cho rằng, nếu muốn khởi động các dự án nghiên cứu AI mới, trước tiên cần đặt "nâng cao năng lực con người" làm mục tiêu rõ ràng để thiết kế.



Ông đặc biệt nhấn mạnh rằng, khi phát triển hệ thống AI, cần cẩn trọng tránh tạo ra những hệ thống có tính tự chủ lâu dài — những hệ thống này dễ gây ra hậu quả không kiểm soát được. Nói cách khác, AI nên duy trì trong phạm vi mà con người có thể giám sát và hướng dẫn hiệu quả.

Một điểm nữa Vitalik coi trọng là mở nguồn và minh bạch. Ông đề xuất các phòng thí nghiệm AI mới nên áp dụng mô hình mở nguồn càng nhiều càng tốt, điều này giúp nhiều nhà phát triển tham gia hơn, cũng thuận tiện cho cộng đồng kiểm tra và phản hồi.

Theo quan điểm của ông, Vitalik tỏ ra thận trọng với các hệ thống AI có tính tự chủ cao hiện nay. Ông lo ngại rằng, nếu các hệ thống này mất đi sự kiểm soát hiệu quả của con người, có thể mang lại những rủi ro chưa biết. Lập trường này cũng phản ánh suy nghĩ trong cộng đồng Web3 về an toàn và đạo đức của AI — làm thế nào để tận hưởng tiện ích của AI trong khi vẫn đảm bảo công nghệ phát triển theo hướng có lợi cho con người.

Những quan điểm này đã gây được nhiều sự đồng cảm trong cộng đồng các nhà phát triển blockchain, vì cuối cùng thì phi tập trung và quản trị minh bạch chính là giá trị cốt lõi của Web3.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 6
  • Đăng lại
  • Retweed
Bình luận
0/400
UnruggableChadvip
· 01-01 13:58
Lời nói của Vitalik là tốt, AI phải thuyết phục con người chứ không phải ngược lại --- Mã nguồn mở và tính minh bạch từ lâu đã được web3 hiểu và giờ đây AI phải đi theo xu hướng --- Chết tiệt, một lập luận "giám sát của con người" khác, lần này nghe có vẻ khác với miệng của V God --- Nói một cách thẳng thắn, đừng gây rối với loại thứ chạy tự động trong hộp đen, rủi ro là rất cao --- Điều thú vị là ý tưởng phi tập trung của blockchain cuối cùng cũng sắp bước vào lĩnh vực AI --- Câu hỏi cốt lõi vẫn là câu hỏi: ai sẽ giám sát người giám sát AI? --- Tôi ủng hộ nguồn mở, nhưng trên thực tế, có bao nhiêu phòng thí nghiệm thực sự sẵn sàng mở cơ hội này --- Ý tưởng này phù hợp với DNA của Web3 và nó là một tập hợp bác bỏ kiểm soát điểm đơn --- Tăng cường khả năng của con người thay vì thay thế họ nghe có vẻ giống như phanh AGI --- Đúng vậy, một hệ thống có quyền tự chủ mạnh mẽ là một quả bom hẹn giờ, và bất cứ ai muốn nó sẽ hối tiếc
Xem bản gốcTrả lời0
AirdropChaservip
· 2025-12-30 05:54
vitalik này vẫn còn khá tỉnh táo trong suy nghĩ, hợp lý hơn nhiều so với những người cứ thích khoe khoang về AGI AI cần phải trang bị "cầu chì giám sát của con người", nếu không ai biết sẽ xảy ra chuyện gì Hệ thống mã nguồn mở và minh bạch thực sự cần phải học hỏi, đừng chơi trò hộp đen Năng lực con người tăng cường vs sinh vật tự trị, lựa chọn đều rõ rồi phải không nhóm web3 này lại còn nghĩ về an toàn AI rõ ràng hơn cả một số ông lớn ở Silicon Valley? Thật là thú vị đấy
Xem bản gốcTrả lời0
MEVictimvip
· 2025-12-29 14:28
Lý thuyết của V God là tốt, nhưng có bao nhiêu phòng thí nghiệm AI thực sự có thể là mã nguồn mở và minh bạch? --- Đó cũng là về việc nâng cao năng lực của con người và duy trì kiểm soát... Nghe có vẻ hay, nhưng thực tế là vốn không còn bỏ tiền ra để xây dựng hệ thống hộp đen --- Tôi đồng ý với mô hình mã nguồn mở, luôn tốt hơn là bị độc quyền bởi một vài nhà sản xuất lớn --- Sợ hậu quả không thể kiểm soát, V God vẫn chu đáo, đáng tin cậy hơn những dự án AI đang phát triển dã man đó --- Trong phân tích cuối cùng, khái niệm phi tập trung của Web3 được áp dụng cho AI và câu hỏi vẫn là liệu nó có thực sự có thể được chơi hay không --- Quản trị minh bạch + giám sát của con người, đây không phải là những gì Web3 đã và đang làm, nó chỉ là một đối tượng khác --- Tôi cảm thấy V God cảnh giác với rủi ro AI hơn nhiều người, và điều này phải được thừa nhận
Xem bản gốcTrả lời0
Rugpull幸存者vip
· 2025-12-29 14:25
vitalik vẫn còn cẩn trọng như vậy, sợ AI gây ra chuyện gì Mô hình mã nguồn mở và minh bạch thực sự không có vấn đề gì, nhưng thực sự làm được bao nhiêu? Tuy nhiên, chúng ta những người web3 chỉ thích thế, còn phía trung tâm đã sớm bị AI hộp đen tẩy não rồi Nếu AI thật sự mất kiểm soát, thì phi tập trung có thể là lối thoát đấy Cảm giác như anh ấy đang dạy một bài học chính trị cho tất cả các phòng thí nghiệm AI... hiệu quả thế nào thì còn khó nói Ý tưởng này nếu đặt ra cách đây mười năm tôi đã tin rồi, giờ thì hơi muộn rồi anh ơi Nói hay lắm, ai thực sự sẽ trao quyền đây, vẫn là cái cũ thôi
Xem bản gốcTrả lời0
IronHeadMinervip
· 2025-12-29 14:22
vitalik nói đúng rồi, AI tự chủ quá mạnh vẫn còn hơi ảo, vẫn cần phải kiểm soát mới được Mình đồng ý với phần mã nguồn mở, còn cái kiểu đóng mã thì ai tin nổi Cảm giác như đây và ý tưởng quản trị trên chuỗi là cùng một chuyện Nhưng nói đi cũng phải nói lại, ai có thể thực sự "giám sát hiệu quả" cái này? Nói dễ làm khó đấy Lại là nâng cao năng lực rồi phòng ngừa rủi ro, điểm cân bằng nằm ở đâu? Triết lý minh bạch của web3 chuyển sang lĩnh vực AI, ý tưởng này vẫn khá nhất quán ha
Xem bản gốcTrả lời0
BoredApeResistancevip
· 2025-12-29 14:04
vitalik这套说法咋听都像在为自己的技术路线背书啊,开源透明本质还是控制权问题 --- 说白了就是AI也得去中心化,不然咋跟web3的理想相容呢 --- Trong phạm vi giám sát của con người? Vậy ai sẽ giám sát người giám sát? Điều này chẳng phải là nghịch lý vĩnh cửu sao? --- 又一个区块链大佬搬出来讲AI安全,感觉有点借势的意思 --- 开源我赞,但增强人类能力这目标听起来太虚了,怎么define呢 --- Có vẻ như đang ám chỉ rằng các phòng thí nghiệm AI hiện tại đều chơi phản rồi, quá tự chủ --- 去中心化AI听起来美好,但现实能跑通吗,懂技术的人说说
Xem bản gốcTrả lời0
  • Ghim