A substituição da Anthropic pela OpenAI despertou preocupação. Isso porque, segundo a Anthropic, o fim das tratativas com o Departamento de Guerra decorreu da recusa da empresa em atender à exigência do governo de permitir o uso de sua tecnologia para “qualquer finalidade legal”, o que poderia abranger desde aplicações de vigilância em larga escala até a integração da tecnologia a sistemas de armas letais totalmente autônomas. A OpenAI afirma que suas ferramentas não serão usadas para vigilância doméstica nem para dirigir sistemas de armas autônomas, mas o temor da opinião pública subsiste. Afinal, ao mesmo tempo em que se expande o poder do Estado sobre as pessoas, esse poder se vê dependente do insondável sistema de inteligência artificial de uma empresa privada.
“Estou ordenando a TODAS as agências federais do governo dos Estados Unidos que CESSEM IMEDIATAMENTE todo o uso da tecnologia da Anthropic. Não precisamos dela, não a queremos e não voltaremos a fazer negócios com eles!” Foi esse o conteúdo da mensagem postada por Trump em 27 de fevereiro em sua rede, a Truth Social. No mesmo dia, o secretário de Guerra dos Estados Unidos, Pete Hegseth, anunciou na rede X que “nenhum contratado, fornecedor ou parceiro que faça negócios com as Forças Armadas dos Estados Unidos poderá realizar qualquer atividade comercial com a Anthropic”.
A artilharia do governo norte-americano seguiu-se à nota publicada no dia anterior pelo CEO da Anthropic, Dario Amodei. Nela, Amodei afirma que alguns usos da inteligência artificial estão fora dos limites do que a tecnologia atual consegue fazer de forma segura e confiável, referindo-se particularmente à vigilância doméstica em massa e a armas totalmente autônomas.
Ocorre, segundo ele, que o Departamento de Guerra afirmou que só contrataria empresas de IA que aceitassem “qualquer uso legal” da tecnologia e removessem salvaguardas nos casos mencionados acima – exigência que, em suas palavras, “não podemos, em sã consciência, atender”.
Após substituir a Anthropic, a OpenAI divulgou comunicado a respeito em seu site. Nele, garantiu que as tratativas com o Departamento de Guerra tinham três linhas vermelhas: “Nenhum uso da tecnologia da OpenAI para vigilância doméstica em massa”, “Nenhum uso da tecnologia da OpenAI para dirigir sistemas de armas autônomas” e “Nenhum uso da tecnologia da OpenAI para decisões automatizadas de alto impacto”. No mesmo comunicado, a empresa se adianta à pergunta sobre ter conseguido fechar um acordo que a Anthropic não conseguiu, afirmando: “Pelo que sabemos, acreditamos que nosso contrato oferece garantias mais fortes e salvaguardas mais responsáveis do que acordos anteriores”.
O tempo revelará o grau de fidelidade da OpenAI aos compromissos acima. Mas já é inquietante cogitar a disposição do governo da principal potência democrática do mundo de ampliar – por meio da IA – sua capacidade de coletar e processar dados sobre sua própria população. Faz lembrar o Panopticon, de Jeremy Bentham: um conjunto de celas separadas, cada uma abrigando um detento, dispostas em círculo ao redor de uma torre central, do alto da qual o vigilante pode observar os vigiados sem que estes saibam se estão sendo observados – um poder ao mesmo tempo onividente e invisível.
Inquietante também é perceber que esse poder – inclusive letal – do Estado passa a apoiar-se em sistemas tecnológicos cujo funcionamento permanece opaco ao público, às autoridades que os utilizam e, em alguma medida, até mesmo às empresas que os desenvolveram. Em suma: o poder se expande, mas sua lógica se torna cada vez menos visível.