Poderá o ataque dos EUA ao Irão ter sido o primeiro grande crime de guerra com a Inteligência Artificial?
Tomasz Konicz, 06.03.2026
Mil alvos em 24 horas! O que Jeff Bezos deixou da equipa editorial do Washington Post (WaPo) após a sua última purga1 relatou, a 4 de Março de 2026, o tremendo sucesso militar da utilização de sistemas de IA na guerra.2 O ataque ao Irão representa a “primeira grande operação de guerra” em que o Pentágono está a fazer uso extensivo de plataformas apoiadas por IA, de acordo com o WaPo. Estão a ser utilizados dois sistemas interligados: a Palantir fornece o Maven Smart System, que pode avaliar uma “quantidade espantosa de dados confidenciais de satélites, vigilância e outras fontes de informação” em tempo real, a fim de detectar e estabelecer prioridades para os alvos. Este sistema utiliza a ferramenta de IA Claude, da empresa Anthropic.
Maven e Claude sugeriram “centenas de alvos” num curto espaço de tempo durante a fase de planeamento da guerra, explica o WaPo, citando informações privilegiadas, com os sistemas de informação apoiados por IA a fornecerem também “coordenadas precisas”. Semanas de planeamento de uma campanha militar foram transformadas numa “operação em tempo real”. O sistema Maven, entrelaçado com o Claude, foi integrado na máquina militar do Pentágono a partir de 2024, com a administração Trump a generalizar rapidamente a sua utilização, de modo a que cerca de 20 000 militares norte-americanos tenham agora acesso a ele. Para além da identificação de alvos, é também utilizado para monitorização logística e análise de reconhecimento.
Não é apenas a redução do tempo na fase de planeamento que é importante. O tempo de reacção durante a guerra é também um factor decisivo. O complexo sistema de IA do Pentágono permite que a máquina militar americana reaja muito rapidamente aos acontecimentos. Quanto mais depressa os militares puderem reagir à localização e à identificação exacta de um alvo potencial com um ataque devidamente calibrado, mais eficazmente se pode reduzir o potencial militar do lado oposto. Toda a cadeia de decisão pode ser enormemente reduzida; poder-se-ia falar de um “kill time”, que poderia ser maciçamente reduzido através da utilização da inteligência artificial, mesmo no caso de um bombardeamento abrangente com centenas de alvos no Irão.
A guerra em tempo real apoiada por IA parece ter sido quase alcançada. O Maven representa uma “mudança de paradigma”, disse um especialista em segurança ao WaPO, uma vez que a IA “permite agora que os militares dos EUA desenvolvam pacotes de alvos à velocidade da máquina e não à velocidade humana”. No entanto, também existem “desvantagens”, uma vez que a IA comete erros e é por isso que “precisamos de humanos para rever os resultados da IA generativa quando se trata de questões de morte e de vida”.
Alucinação assassina em massa?
Mil alvos em 24 horas. E depois há mais de 100 corpos de crianças na escola feminina bombardeada em Minab, no sul do Irão, que foram mortas num ataque aéreo no sábado, 28 de Fevereiro.3 28 de Fevereiro é o primeiro dia da guerra em que os sistemas de IA do Pentágono foram capazes de fornecer à máquina de guerra dos EUA mais de mil alvos num espaço de tempo muito curto, como o WaPo orgulhosamente salientou. A escola estava situada nas imediações de uma base da Guarda Revolucionária Iraniana, separada desta por uma vedação. No entanto, as imagens de satélites comerciais analisadas pelos media americanos4 mostram claramente que não se tratou de “danos colaterais”. O edifício da escola foi atingido directa e precisamente. No total, podem ser identificados sete ataques no complexo, incluindo uma clínica que também estava separada da base militar por um muro.
De acordo com as avaliações dos media, a causa deste crime de guerra pode ser encontrada em “dados desactualizados”.5 Toda a área tinha sido anteriormente utilizada pelos Guardas Revolucionários Iranianos, a escola foi criada e separada “entre 2013 e 2016”, a clínica entre 2022 e 2024. O alvo dos militares dos EUA teria, portanto, sido baseado em dados muito antigos.
De acordo com o relatório do WaPo acima mencionado, também é claro “quem” foi o mais provável responsável por este facto: Maven e Claude foram responsáveis pela designação dos alvos, pelo que são possíveis duas opções: Em primeiro lugar, o Pentágono poderia estar a trabalhar com material desactualizado, com mais de dez anos. Ou, em segundo lugar, a designação da escola como alvo foi uma daquelas “alucinações” a que todos os Grandes Modelos de Linguagem (LLMs), como o Claude, tendem inevitavelmente. Todos os LLMs trabalham com probabilidades estatísticas que são aperfeiçoadas no decurso da sua formação; são, de facto, soluções de autocompletamento que operam com enormes capacidades computacionais. E qual é a probabilidade de haver uma escola de meninas ao lado de uma base naval da Guarda Revolucionária Iraniana?
Independentemente da causa específica do erro,6 este incidente lança uma luz reveladora sobre a verificação dos alvos gerados pela IA por pessoas reais, que os informadores do Pentágono mencionaram ao WaPo. A pressão para atingir o maior número de alvos o mais rapidamente possível, a fim de obter o efeito de “choque e pavor” desejado no início da guerra,7 deve ter sido enorme. A revisão teria sido correspondentemente superficial. Tanto mais que Pete Hegseth, o actual chefe do Pentágono, é um fascista assumido (à semelhança de Stephen Miller8), que profere uma retórica de desumanização9 – e que mina deliberadamente as medidas de segurança, as regras de empenhamento e os protocolos do Pentágono.10
O conflito entre o Pentágono e a Anthropic, criadora do Claude, agravou-se poucos dias antes do início da guerra.11 Os sistemas de combate totalmente autónomos e a vigilância em massa dos cidadãos americanos foram os pontos de discórdia oficiais. É também muito possível que a startup de IA se tenha apercebido do uso indevido do sistema, mesmo que um humano estivesse ao leme. Em termos puramente formais, a IA apenas sugere os alvos a atacar; um humano (ainda) tem de premir o botão. Esta formalidade constitui também a abertura que permite a utilização de sistemas de IA para determinar os alvos da máquina de guerra dos EUA. Os sistemas Terminator totalmente autónomos são apenas uma questão de tempo. A designação da Anthropic pelo Pentágono como um risco para a segurança e a conclusão imediata de contratos com a OpenAI e a Grok de Musk já ilustram que os últimos obstáculos cairão rapidamente assim que os requisitos técnicos para sistemas de armas de IA autónomos forem cumpridos.
O meu trabalho jornalístico é financiado em grande parte por donativos. Se gosta dos meus textos, pode contribuir – através do Patreon, do Substack ou por transferência bancária direta após consulta por e-mail:
https://www.patreon.com/user?u=57464083
https://konicz.substack.com
1 https://www.theguardian.com/media/2026/feb/04/washington-post-layoffs
2 https://www.washingtonpost.com/technology/2026/03/04/anthropic-ai-iran-campaign/
3 https://www.theguardian.com/global-development/2026/mar/03/minab-school-bombing-how-the-worst-mass-casualty-event-of-the-iran-war-unfolded-a-visual-guide
4 https://www.npr.org/2026/03/04/nx-s1-5735801/satellite-imagery-shows-strike-that-destroyed-iranian-school-was-more-extensive-than-first-reported
5 https://www.npr.org/2026/03/04/nx-s1-5735801/satellite-imagery-shows-strike-that-destroyed-iranian-school-was-more-extensive-than-first-reported
6 É extremamente improvável que os EUA bombardeiem deliberadamente escolas femininas enquanto tentam incitar a população a se revoltar contra o regime.
7 https://en.wikipedia.org/wiki/Shock_and_awe
8 https://www.konicz.info/2026/01/11/die-herrschaft-der-terror-clowns/
9 https://x.com/Acyn/status/2029182895013916898
10 https://x.com/Acyn/status/2028459380132446599
11 https://www.konicz.info/2026/03/04/neue-oligarchische-realitaet/
Original “KI-Killing Time” in konicz.info. 06.03.2026. Tradução de Boaventura Antunes
https://www.konicz.info/2026/03/06/time-to-ki-kill/