O cofundador do Ethereum, Vitalik Buterin, partilhou recentemente as suas opiniões sobre a direção do desenvolvimento de laboratórios de IA. Ele acredita que, para iniciar novos projetos de investigação em IA, é fundamental definir "aumentar as capacidades humanas" como objetivo central claro.



Ele destacou especialmente a importância de evitar cautelosamente a criação de sistemas de IA com autonomia de longo prazo — esses sistemas podem gerar consequências imprevisíveis. Em outras palavras, a IA deve permanecer dentro de um âmbito que possa ser efetivamente supervisionado e orientado pelos humanos.

Outro ponto que Vitalik valoriza é a transparência de código aberto. Ele defende que os novos laboratórios de IA devem adotar, sempre que possível, um modelo de código aberto, permitindo assim a participação de mais desenvolvedores e facilitando a revisão e o feedback por parte da comunidade.

Na sua visão, Vitalik mantém uma postura cautelosa em relação aos sistemas de IA altamente autônomos atuais. Ele teme que, se esses sistemas perderem o controle efetivo dos humanos, possam trazer riscos desconhecidos. Essa posição também reflete o pensamento interno da comunidade Web3 sobre a segurança e ética da IA — como aproveitar as vantagens da IA ao mesmo tempo que garantimos que a tecnologia evolua de forma a beneficiar a humanidade.

Este tipo de opinião tem gerado bastante ressonância entre os desenvolvedores de blockchain, pois descentralização e governança transparente são, por si só, valores centrais do Web3.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 6
  • Republicar
  • Partilhar
Comentar
0/400
UnruggableChadvip
· 01-01 13:58
Vitalik esta frase está correta, a IA deve respeitar os humanos, não ao contrário --- A transparência de código aberto, nós do web3 já entendemos há muito tempo, agora a IA também precisa seguir essa tendência --- Caramba, mais um argumento de "supervisão humana", desta vez vindo do V神, soa diferente vindo dele --- Resumindo, não façam aquelas coisas de caixas pretas que operam autonomamente, o risco é muito grande --- Interessante, o pensamento de descentralização do blockchain finalmente vai avançar para o campo da IA --- A questão principal ainda é: quem supervisiona o supervisor da IA --- Concordo com o código aberto, mas na prática, quantos laboratórios realmente estão dispostos a abrir essa porta --- Essa ideia realmente combina com o DNA do Web3, ambos rejeitam o controle centralizado --- Aumentar a capacidade humana ao invés de substituí-la, parece que estão freando a AGI --- Exatamente, sistemas com alta autonomia são como bombas-relógio, quem os tiver vai se arrepender
Ver originalResponder0
AirdropChaservip
· 2025-12-30 05:54
vitalik esta abordagem ainda é bastante clara, muito mais racional do que aqueles que exageram na AGI A IA deve ter um fusível de "supervisão humana", senão quem sabe que tipo de confusão pode acontecer Aprender com o conceito de código aberto e transparência, realmente é importante, nada de caixas pretas Capacidades humanas aumentadas vs monstros autônomos, todos entendem a questão de escolha, né? Web3, esse pessoal, na questão de segurança de IA, na verdade, pensa de forma mais profunda do que alguns grandes nomes do Vale do Silício? É interessante isso
Ver originalResponder0
MEVictimvip
· 2025-12-29 14:28
V神 esta teoria está bem articulada, mas quantos laboratórios de IA verdadeiramente abertos e transparentes existem? --- Mais uma vez, é sobre melhorar as capacidades humanas e manter o controle... soa bem, mas na prática, o capital ainda está investindo em sistemas de caixa preta. --- Eu apoio o modelo de código aberto, é certamente melhor do que ser monopolizado por algumas grandes empresas. --- Sobre o medo de consequências fora de controle, V神 pensou bem nisso, é certamente mais confiável do que projetos de IA que crescem de forma selvagem. --- Falando nisso, a ideia de descentralização do Web3 aplicada à IA, será que realmente podemos dominá-la? Ainda é uma questão. --- Governança transparente + supervisão humana, isso é exatamente o que o Web3 tem feito, só mudou o foco. --- Tenho que admitir que V神 está mais consciente do risco da IA do que muitas pessoas.
Ver originalResponder0
Rugpull幸存者vip
· 2025-12-29 14:25
vitalik ainda é tão cauteloso, com medo de que a IA cause algum problema Open source e transparência realmente não têm defeitos, mas quantos realmente conseguem implementar isso? Mas nós, do Web3, seguimos essa filosofia, enquanto do lado da centralização já foram manipulados pela IA de caixa preta Se a IA realmente perder o controle, a descentralização talvez seja a saída Parece que ele está dando uma aula de política para todos os laboratórios de IA... mas o efeito é difícil de prever Se essa ideia fosse de há dez anos, eu acreditaria, mas agora já está um pouco tarde, irmão Falando bonito, quem realmente entregaria o poder? Ainda é a mesma história
Ver originalResponder0
IronHeadMinervip
· 2025-12-29 14:22
vitalik disse que está certo, a autonomia da IA ainda é um pouco vazia, ainda é preciso controlá-la Concordo com a questão do código aberto, quem acredita na abordagem de código fechado? Como parece que isso é uma coisa só com a governança na cadeia Mas voltando ao assunto, quem pode realmente "supervisionar efetivamente" essa coisa? Falar é fácil, fazer é difícil É sobre aumentar capacidades e também prevenir riscos, onde está o ponto de equilíbrio? A ideia de transparência do web3 aplicada ao campo da IA, essa abordagem ainda é bastante consistente, hein
Ver originalResponder0
BoredApeResistancevip
· 2025-12-29 14:04
vitalik esta forma de dizer parece sempre uma forma de endossar a sua própria linha tecnológica, a transparência de código aberto é essencialmente uma questão de controlo --- Resumindo, até a IA deve ser descentralizada, senão como é que ela se alinha com os ideais do web3 --- Dentro do âmbito da supervisão humana? Então quem supervisiona os supervisores? Isto não se torna um paradoxo eterno --- Mais um grande nome da blockchain a falar sobre segurança de IA, parece um pouco uma jogada de marketing --- Sou a favor de código aberto, mas o objetivo de melhorar as capacidades humanas soa demasiado vago, como é que se define isso --- É um pouco como se estivesse a insinuar que os laboratórios de IA atuais estão a exagerar na autonomia --- IA descentralizada parece ótimo, mas na prática será que funciona? Quem entende de tecnologia pode comentar?
Ver originalResponder0
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)