EUA vão revisar IAs antes do lançamento? Entenda a virada de Trump sobre regulação

Quem imaginaria? O mesmo governo Trump que, logo ao assumir, revogou as regulações de IA herdadas de Biden agora estuda criar sua própria supervisão sobre os modelos de inteligência artificial. A virada aconteceu nos primeiros dias de maio de 2026 e pegou boa parte do setor de surpresa.

O que está sendo proposto, na prática

A administração Trump está avaliando criar um grupo de trabalho conjunto entre governo e empresas — com nomes como OpenAI, Google e Anthropic — para definir procedimentos de supervisão antes que novos modelos de IA sejam liberados ao público. A ideia não é proibir nada, mas estabelecer um rito de passagem: o modelo passa por avaliação antes de chegar às mãos dos usuários.

Já existe algo concreto rodando: o CAISI (Centro de Padrões e Inovação em IA), vinculado ao governo federal americano, já começou a testar modelos do Google DeepMind, da Microsoft e da xAI — a empresa de IA de Elon Musk. É uma sinalização clara de que o assunto saiu do papel.

Por que agora? O caso Mythos como gatilho

O catalisador mais citado foi o modelo Mythos, desenvolvido pela Anthropic. Esse sistema de IA é capaz de detectar falhas críticas em softwares — o tipo de vulnerabilidade que, nas mãos erradas, poderia comprometer infraestruturas inteiras. O modelo não foi liberado ao público justamente por esse risco.

O episódio escancarou uma questão que o setor vinha ignorando: não basta a empresa decidir internamente se um modelo é seguro o suficiente para lançar. Quando o potencial de dano é sistêmico, isso se torna uma questão de interesse público — e o governo quer ter voz.

Os dois lados do debate

O tema divide opiniões dentro e fora do Vale do Silício. De um lado, empresas e parte dos especialistas temem que qualquer burocracia extra atrase lançamentos e enfraqueça a competitividade americana frente à China, que avança em IA sem os mesmos freios. Do outro, pesquisadores de segurança e parte do próprio governo argumentam que modelos com capacidade de causar danos em larga escala precisam de revisão independente — da mesma forma que medicamentos passam pela FDA antes de chegar às farmácias.

Argumento contra regulaçãoArgumento a favor da regulação
Atrasa inovação e lançamentosPrevine riscos sistêmicos graves
EUA perde terreno para a ChinaModelos perigosos exigem supervisão independente
Empresas já fazem avaliações internasAvaliação interna tem conflito de interesse

O que o Brasil e o mundo podem aprender com isso

A movimentação americana importa muito além das fronteiras dos EUA. As grandes empresas de IA são americanas, e qualquer exigência regulatória lá dentro afeta o que chega — e como chega — ao resto do mundo, incluindo o Brasil. Nosso país ainda está construindo seu próprio marco regulatório para IA, e o modelo que os EUA adotarem vai servir de referência (ou contraponto) para países em desenvolvimento.

Além disso, o debate traz uma reflexão relevante: quem decide se uma IA é segura o suficiente para ser lançada? Hoje, basicamente, as próprias empresas. Se os EUA criarem um terceiro independente para essa avaliação, pode ser um passo importante na direção de mais transparência.

O que esperar nos próximos meses

Ainda não há um prazo definido para que o grupo de trabalho apresente propostas concretas. O que sabemos:

  • O CAISI já está testando modelos ativamente — isso é regulação na prática, mesmo sem lei formal
  • Empresas estão participando das conversas, o que sugere disposição para negociar
  • A China continua avançando, e isso pressiona os EUA a não travar demais o setor
  • O modelo Mythos mostrou que o risco é real — e isso tende a pesar no debate

Se o grupo de trabalho sair do papel, pode ser o início de um modelo de governança de IA inédito: não uma regulação pesada e top-down, mas uma supervisão colaborativa entre setor privado e governo. Vai funcionar? Acompanhamos.

Fontes: PardalTech | Exame | Olhar Digital

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima