Proibição da Anthropic por Trump expõe os perigos de um vale-tudo com a IA
Dario Amodei, CEO da Anthropic, discursa no AI Impact Summit, que aconteceu há duas semanas, na Índia Foto: reprodução
Na semana passada, neste mesmo espaço, abordei em artigo como a militarização da inteligência artificial pode se tornar um severo risco existencial para a humanidade, especialmente em cenários em que limites éticos no desenvolvimento e uso dessa tecnologia sejam desrespeitados. Pois bem, na sexta passada (27), o presidente dos EUA, Donald Trump, resolveu banir a Anthropic de qualquer contrato com o governo, justamente por ela insistir nesses cuidados.
Ironicamente, o Claude, plataforma de IA da Anthropic, era, até então, a única classificada como segura para aplicações em redes secretas de militares nos EUA. Agora eles exigem essa tecnologia para “qualquer finalidade legal”. Isso inclui a vigilância em massa de cidadãos e seu uso em armas letais totalmente autônomas. Foi quando o CEO da empresa, Dario Amodei, não concordou.
Outras empresas, aparentemente com menos escrúpulos, ocuparam o espaço da Anthropic assim que Trump a escorraçou. A primeira foi a xAI, criadora do Grok, seguida de perto pela OpenAI, dona do ChatGPT. Vale dizer que a Anthropic nasceu quando Amodei e outros pesquisadores se demitiram da OpenAI em 2021 por discordarem do ritmo acelerado de comercialização e da redução na segurança.
Um funcionário do governo disse ao jornal Financial Times que o Claude continua sendo o melhor modelo para uso militar, e que cortá-lo imediatamente prejudicaria as operações. De fato, apesar das ameaças e dos insultos de Trump, a transição deve durar seis meses, período em que um acordo ainda pode ser feito.
Não se trata de um problema pontual entre uma empresa e militares, ou de mais um arroubo autoritário de Trump. As exigências são profundamente antidemocráticas. Se isso for adiante, criará um Estado autoritário sem precedentes, que violará liberdades fundamentais de cidadãos do mundo todo. E as big techs serão cúmplices.
Veja esse artigo em vídeo:
Em nota, Amodei disse que essa vigilância é “incompatível com valores democráticos” e que só é “legal” em alguns casos pelo descompasso entre a lei e a capacidade da IA. As novas exigências permitirão ao governo correlacionar, em larga escala e automaticamente, localização, navegação, associações e outros dados públicos e privados, criando perfis completos de pessoas sem supervisão judicial robusta.
No mês passado, ele publicou que “uma IA poderosa analisando bilhões de conversas de milhões de pessoas poderia medir o sentimento público, detectar focos de deslealdade em formação e eliminá-los antes que cresçam”. Sobre o uso da IA em armas totalmente autônomas, a Anthropic argumenta que os modelos atuais não são suficientemente confiáveis para operar sistemas letais sem supervisão humana, o que colocaria em risco as vidas tanto de militares quanto de civis.
A empresa, avaliada em US$ 380 bilhões, tem contratos de US$ 200 milhões com as Forças Armadas. O Pentágono acreditava que ela cederia após as ameaças. Mas sua recusa mostra como o Departamento de Guerra não consegue dobrar facilmente empresas do Vale do Silício, ao contrário de fornecedores militares tradicionais, que dependem de contratos de longa duração.
As empresas de IA dependem de profissionais muito qualificados, difíceis de recrutar e mais difíceis de reter. Eles mudam para outras empresas, se não concordarem com posicionamentos de suas lideranças. Além disso, os US$ 200 milhões dos militares representam apenas uma pequena porcentagem da receita da Anthropic: suas vendas corporativas em 2025 ficaram entre US$ 8 bilhões e US$ 10 bilhões.
O secretário de Guerra, Pete Hegseth, ameaçou acionar a Lei de Produção de Defesa para forçar a Anthropic a dar aos militares o que eles querem. Ela concede ao presidente dos EUA poderes emergenciais para intervir na economia do país pela defesa nacional. Nesse caso, empresas devem cumprir ordens sob pena de multas, sanções criminais, perda de contratos, apreensão de bens e até intervenção federal.
Revolta no Vale do Silício
A crise provocou uma reação no Vale do Silício. Funcionários da Amazon, do Google e da Microsoft enviaram carta aberta na sexta aos seus superiores pedindo que apoiem a Anthropic e rejeitem contratos que envolvam armas autônomas ou monitoramento em larga escala. Na quinta, 175 funcionários do Google e 50 da OpenAI assinaram outra carta pedindo que suas empresas se recusem a concordar com o Pentágono.
“Eles estão tentando dividir cada empresa com o medo de que a outra ceda”, dizia o documento. “Essa estratégia só funciona se nenhum de nós souber qual é a posição dos outros. Esta carta serve para criar entendimento compartilhado e solidariedade diante dessa pressão do Departamento de Guerra.”
Isso lembra um conflito ético envolvendo o Vale do Silício e os militares em 2017. O Projeto Maven usava a visão computacional da IA do Google para identificar alvos, mas com supervisão humana. Milhares de funcionários se opuseram à empresa “estar no negócio da guerra”, denunciando que a tecnologia poderia refinar ataques letais. O Google decidiu não renovar o contrato e publicou princípios afirmando que não desenvolveria a IA para armas. Mas, no ano passado, eles acabaram flexibilizados.
Agora, os militares não querem só um “Maven mais rápido”, e sim modelos para planejar e apoiar missões, guerra eletrônica e potencialmente controle de armas. E não aceitam “insubordinações” como a da Anthropic e a do Google de 2017.
O amplo uso de IA como exige o Pentágono ameaça a segurança global e os direitos humanos ao facilitar o início de conflitos com armas letais autônomas. Além de gerar um vácuo legal na responsabilização por mortes de civis, erros algorítmicos em operações militares podem ampliar conflitos de maneira rápida e irreversível.
No âmbito interno, a tecnologia impulsiona a vigilância em massa, com rastreamento de localização, contatos e preferências políticas e religiosas em escala sem precedentes. Isso cria discriminação algorítmica de minorias e a repressão de liberdades civis. Sem transparência, a infraestrutura opaca da IA inibe a participação política e pode corroer silenciosamente os pilares fundamentais da democracia liberal.
Antes de se perguntar o que a IA pode fazer pela segurança dos países, devemos perguntar o que os militares estão dispostos a fazer com a liberdade de seus cidadãos usando a IA. Se a democracia não consegue impor limites à IA em tempos de paz relativa, é improvável que faça isso em meio a uma guerra.
Se a Anthropic sucumbir à pressão, passará ao Vale do Silício o recado de que princípios custam caro demais. E aí poucos repetirão esse gesto essencial para a democracia e a vida.



Publicar comentário