Home » EUA usaram inteligência artificial Claude, rival do ChatGPT, em ataque ao Irã, diz jornal

EUA usaram inteligência artificial Claude, rival do ChatGPT, em ataque ao Irã, diz jornal

by Silas Câmara


Entenda o que levou Israel e EUA a atacarem o Irã
Os Estados Unidos usaram a ferramenta de inteligência artificial Claude na ofensiva militar contra o Irã no último sábado (28), revelou o jornal The Wall Street Journal. A informação foi confirmada pelo site Axios e pela agência de notícias Reuters.
💡 O Claude é um aplicativo parecido com o ChatGPT que responde a perguntas e comandos feitos por usuários. É possível conectar os sistemas que “raciocinam”, também chamados de modelos de linguagem, a outros programas, permitindo que eles realizem funções mais complexas.
O Comando Central dos EUA no Oriente Médio (Centcom), principal base do Exército americano na região, utiliza o Claude, mas se recusou a comentar como o assistente foi usado na atual operação, segundo o Wall Street Journal.
Ainda de acordo com a reportagem, o Centcom integrou inteligência artificial em suas operações e costuma usar o Claude para fazer avaliações de inteligência, identificar alvos e simular cenários de batalha.
Ataque ao Irã: entenda o que aconteceu e o que pode vir agora
Irã tem novo apagão de internet em meio a conflito com EUA e Israel
Ataques dos EUA e Israel contra o Irã
AP
O Claude foi usado na operação contra o território iraniano enquanto os EUA travam uma batalha contra a Anthropic, empresa americana que criou a ferramenta.
O presidente Donald Trump ordenou na última sexta-feira (27) que órgãos federais dos EUA deixassem de usar programas da Anthropic imediatamente.
“O egoísmo deles está colocando vidas americanas em risco, nossas tropas em perigo e nossa segurança nacional sob ameaça”, afirmou Trump na sexta, em sua rede social.
O governo americano está insatisfeito com a decisão da empresa de impedir o uso irrestrito de seus modelos de IA pelo Departamento de Guerra, também conhecido como Pentágono.
A Anthropic tem desde 2025 um contrato de US$ 200 milhões (cerca de R$ 1 bilhão) com o Pentágono para fornecer modelos de IA para uma série de aplicações militares.
Mas há limites: eles não podem ser usados para vigilância em massa de cidadãos e sistemas de armamento autônomos.
A empresa disse na quinta-feira (26) que, apesar da pressão, não permitiria o uso irrestrito de suas ferramentas pelo Departamento de Guerra. “Essas ameaças não mudam nossa posição: não podemos, em consciência, atender à sua solicitação”.
O diretor-executivo da Anthropic, Dario Amodei, disse que os modelos foram usados pelos órgãos federais para defender o país, mas que a companhia estabelece uma linha ética em relação ao uso para a vigilância em massa de cidadãos americanos e para armas totalmente autônomas.
Ele afirmou ainda que os sistemas de IA de vanguarda ainda não são confiáveis o bastante para lidar com armas letais sem haver um ser humano com o controle final.

Autor Original

You may also like

Leave a Comment