Quem imaginaria? O mesmo governo Trump que, logo ao assumir, revogou as regulações de IA herdadas de Biden agora estuda criar sua própria supervisão sobre os modelos de inteligência artificial. A virada aconteceu nos primeiros dias de maio de 2026 e pegou boa parte do setor de surpresa.
O que está sendo proposto, na prática
A administração Trump está avaliando criar um grupo de trabalho conjunto entre governo e empresas — com nomes como OpenAI, Google e Anthropic — para definir procedimentos de supervisão antes que novos modelos de IA sejam liberados ao público. A ideia não é proibir nada, mas estabelecer um rito de passagem: o modelo passa por avaliação antes de chegar às mãos dos usuários.
Já existe algo concreto rodando: o CAISI (Centro de Padrões e Inovação em IA), vinculado ao governo federal americano, já começou a testar modelos do Google DeepMind, da Microsoft e da xAI — a empresa de IA de Elon Musk. É uma sinalização clara de que o assunto saiu do papel.
Por que agora? O caso Mythos como gatilho
O catalisador mais citado foi o modelo Mythos, desenvolvido pela Anthropic. Esse sistema de IA é capaz de detectar falhas críticas em softwares — o tipo de vulnerabilidade que, nas mãos erradas, poderia comprometer infraestruturas inteiras. O modelo não foi liberado ao público justamente por esse risco.
O episódio escancarou uma questão que o setor vinha ignorando: não basta a empresa decidir internamente se um modelo é seguro o suficiente para lançar. Quando o potencial de dano é sistêmico, isso se torna uma questão de interesse público — e o governo quer ter voz.
Os dois lados do debate
O tema divide opiniões dentro e fora do Vale do Silício. De um lado, empresas e parte dos especialistas temem que qualquer burocracia extra atrase lançamentos e enfraqueça a competitividade americana frente à China, que avança em IA sem os mesmos freios. Do outro, pesquisadores de segurança e parte do próprio governo argumentam que modelos com capacidade de causar danos em larga escala precisam de revisão independente — da mesma forma que medicamentos passam pela FDA antes de chegar às farmácias.
| Argumento contra regulação | Argumento a favor da regulação |
|---|---|
| Atrasa inovação e lançamentos | Previne riscos sistêmicos graves |
| EUA perde terreno para a China | Modelos perigosos exigem supervisão independente |
| Empresas já fazem avaliações internas | Avaliação interna tem conflito de interesse |
O que o Brasil e o mundo podem aprender com isso
A movimentação americana importa muito além das fronteiras dos EUA. As grandes empresas de IA são americanas, e qualquer exigência regulatória lá dentro afeta o que chega — e como chega — ao resto do mundo, incluindo o Brasil. Nosso país ainda está construindo seu próprio marco regulatório para IA, e o modelo que os EUA adotarem vai servir de referência (ou contraponto) para países em desenvolvimento.
Além disso, o debate traz uma reflexão relevante: quem decide se uma IA é segura o suficiente para ser lançada? Hoje, basicamente, as próprias empresas. Se os EUA criarem um terceiro independente para essa avaliação, pode ser um passo importante na direção de mais transparência.
O que esperar nos próximos meses
Ainda não há um prazo definido para que o grupo de trabalho apresente propostas concretas. O que sabemos:
- O CAISI já está testando modelos ativamente — isso é regulação na prática, mesmo sem lei formal
- Empresas estão participando das conversas, o que sugere disposição para negociar
- A China continua avançando, e isso pressiona os EUA a não travar demais o setor
- O modelo Mythos mostrou que o risco é real — e isso tende a pesar no debate
Se o grupo de trabalho sair do papel, pode ser o início de um modelo de governança de IA inédito: não uma regulação pesada e top-down, mas uma supervisão colaborativa entre setor privado e governo. Vai funcionar? Acompanhamos.
Fontes: PardalTech | Exame | Olhar Digital
