A Califórnia Aperta as Regras de Contratos de IA à medida que se Intensifica o Conflito com a Administração Trump

Decrypt

Em resumo

  • A Califórnia ordena salvaguardas mais fortes para as empresas de IA que procuram contratos do Estado.
  • A medida surge à medida que a administração Trump promove normas nacionais de IA.
  • Os responsáveis estatais irão desenvolver regras de contratação pública que abordem questões como enviesamento, uso indevido e riscos para os direitos civis.

O conflito entre Washington e os estados sobre a política de inteligência artificial intensificou-se na segunda-feira, após o governador da Califórnia, Gavin Newsom, ter assinado uma ordem executiva que exige salvaguardas mais fortes por parte das empresas de IA que procuram contratos do Estado. De acordo com a ordem, as empresas que vendem sistemas de IA a agências da Califórnia terão de demonstrar políticas destinadas a impedir o uso indevido e a proteger a privacidade, a segurança e os direitos civis. “A Califórnia sempre foi o berço da inovação. Mas também compreendemos o lado inverso: nas mãos erradas, a inovação pode ser usada indevidamente de formas que colocam as pessoas em risco”, disse Newsom num comunicado. “A Califórnia lidera em IA, e vamos usar todas as ferramentas que temos para garantir que as empresas protegem os direitos das pessoas, em vez de as explorarem ou de as colocar em perigo. Enquanto outros em Washington desenham políticas e criam contratos à sombra do uso indevido, estamos focados em fazer isto da forma certa.” A ordem de Newsom orienta a Agência de Operações Governamentais do estado a desenvolver normas de contratação pública para fornecedores de IA que abordem questões como a geração ilegal de conteúdos, o enviesamento do modelo e o risco para os direitos civis e para a liberdade de expressão. A ordem também instrui o Departamento de Tecnologia da Califórnia a desenvolver recomendações para a marcação (watermarking) de imagens geradas por IA e de vídeo manipulado.

 A ordem coloca a Califórnia em conflito com o esforço da administração de Donald Trump para estabelecer normas nacionais de IA e limitar a regulamentação a nível estadual. No início deste mês, a administração Trump divulgou um quadro de política nacional de inteligência artificial que insta o Congresso a estabelecer normas federais e a reduzir aquilo que os responsáveis descrevem como um mosaico de regulações de IA por parte dos estados. Kevin Frazier, um investigador sénior associado do Cato Institute, disse que o diferendo reflecte um equilíbrio constitucional de longa data entre a autoridade dos estados e a autoridade federal. “Cada avanço tecnológico—do barco a vapor à superinteligência—levanta questões-chave sobre como atribuir a autoridade reguladora entre os estados e o governo federal”, disse Frazier ao Decrypt. “A Constituição dá uma resposta clara: o governo federal tem de liderar em matéria de segurança económica e nacional, bem como naquelas que exigem uma resposta uniforme; os estados podem exercer os seus poderes tradicionais de polícia dentro das suas fronteiras.”

Frazier classificou a ordem executiva de Newsom como “um exemplo exemplar de federalismo em acção” e disse que as empresas que rejeitem os requisitos da Califórnia podem optar por não vender ao estado. “Entretanto, o Congresso ainda está numa posição para definir os termos do ritmo e da direcção das ambições de IA do país”, afirmou. Quinn Anex-Reis, analista sénior de políticas no Center for Democracy and Technology, disse que o tamanho da Califórnia e o seu poder de compra significam que ela poderia influenciar a forma como as empresas concebem e testam sistemas de IA, se quiserem vender ao estado. “A contratação pública é muito valiosa para as empresas”, disse Anex-Reis ao Decrypt. “É uma parte enorme do negócio para os programadores de tecnologia, de um modo geral, e uma via de negócio em crescimento especificamente para os programadores de IA.” Disse que as regras de contratação pública são uma das formas mais eficazes de os governos influenciarem a maneira como os sistemas de IA são desenvolvidos e avaliados. “O processo de contratação pública é um lugar realmente importante para prestar atenção”, disse Anex-Reis. “Porque é mesmo o lugar mais importante onde o estado pode procurar definir protecções e expectativas sobre a forma como os fornecedores desenvolvem as suas ferramentas.” Newsom surgiu como uma figura democrata a nível nacional e como potencial candidato presidencial para 2028. Uma sondagem recente da Politico–UC Berkeley Citrin Center revelou que ele lidera o antigo vice-presidente Kamala Harris por 14 pontos entre os eleitores prováveis nas primárias democratas na Califórnia. O confronto de políticas sobre a regulamentação de IA coloca-o em conflito directo com a administração Trump, à medida que os debates se intensificam sobre quem deve estabelecer as regras que regem a tecnologia. No Verão passado, a administração Trump ordenou às agências federais que evitassem contratos com os modelos de “woke AI”, como lhe chamaram, e que adquirissem sistemas que demonstrem neutralidade ideológica.

Ainda assim, Anex-Reis disse que a questão em torno da regulamentação de IA é maior do que a política. “Isto não deve mesmo ser uma questão política”, disse Anex-Reis. “Trata-se, na realidade, de garantir que o dinheiro dos contribuintes não é desperdiçado e que as ferramentas que o nosso governo compra funcionam.”

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário