No momento em que a comunidade de IA fervilhava devido às controvérsias de segurança em torno do modelo Anthropic Mythos, o vencedor do Prémio Turing e principal cientista de IA da Meta, Yann LeCun, publicou no X uma declaração curta: «Não haverá ninguém, em particular, que “se responsabilize” por uma inteligência superinteligente.» Este post recebeu 935 gostos e mais de 100 respostas, oferecendo uma perspetiva de governação diametralmente diferente no clima de pânico gerado pelo Mythos.
Uma filosofia de governação por detrás de uma única frase
A declaração de LeCun parece simples, mas na verdade aponta diretamente para um erro de pensamento fundamental nos debates sobre governação de IA: simplificar os riscos da superinteligência como a questão de «quem deve controlar». Quando as pessoas discutem a segurança da IA, a narrativa comum é procurar um «responsável» — uma empresa, um organismo governamental, ou um líder técnico para «orientar» o desenvolvimento da IA. LeCun considera que este pressuposto, por si só, está errado.
Esta posição está alinhada com a sua filosofia de IA aberta e consistente: a governação da IA deve ser descentralizada, sistémica e com participação de múltiplas partes, em vez de ficar concentrada na mão de qualquer entidade única.
Pensamento inverso na controvérsia do Mythos
O momento em que LeCun falou é particularmente digno de nota. No mesmo dia, Matt Shumer descreveu o modelo Mythos da Anthropic como «uma arma em rede», e Ethan Mollick expressou surpresa com «Oh no.». A lógica implícita destas reações é: uma IA tão poderosa deve ser estritamente controlada, idealmente gerida por um «guardião» responsável.
A posição de LeCun é precisamente o oposto — ele não acredita que «uma empresa decidir não lançar» seja uma garantia de segurança. Se apenas um pequeno número de empresas detiver uma IA a níveis de superinteligência e as decisões unilaterais dessas empresas puderem determinar, por si, a trajetória global do desenvolvimento da IA, isso é, em si mesmo, um risco. O controlo centralizado não equivale a segurança; pelo contrário, pode criar desequilíbrios de poder novos.
Os desafios da governação descentralizada
A posição de LeCun também enfrenta desafios reais. A governação descentralizada soa ideal, mas, na realidade de a capacidade de IA crescer de forma exponencial, «ninguém é responsável» pode significar «ninguém consegue ser responsável». Quando um modelo consegue encontrar vulnerabilidades de zero-day, o acesso aberto continua a ser a melhor estratégia?
Este é precisamente o paradoxo central do debate atual sobre governação de IA: o risco de que o controlo centralizado com poder seja abusado, e o risco de que a capacidade distribuída com acesso aberto seja abusada. Uma frase de LeCun não resolve este paradoxo, mas obriga as pessoas a reconsiderarem se a aparentemente intuitiva solução de «arranjar alguém para ser responsável» é de facto viável.
Implicações para o debate sobre governação de IA
Entre o pânico gerado pelo Mythos e a reflexão serena de LeCun, vemos o desacordo fundamental entre duas escolas de pensamento na governação da IA: o campo da segurança defende limitações de capacidades e controlo centralizado, enquanto o campo aberto defende amplo acesso e governação descentralizada. Este debate não terá uma conclusão simples, mas para decisores em Taiwan que se interessam por políticas de IA, compreender a tensão entre estes dois extremos é uma tarefa necessária para definir uma estratégia local de governação de IA.
Este artigo, em resposta à disputa sobre superinteligência com uma frase de LeCun, surgiu pela primeira vez em Chain News ABMedia.