LAVANDER: A MÁQUINA DE INTELIGÊNCIA ARTIFICIAL QUE COMANDA BOMBARDEIOS DE ISRAEL E GAZA

Exército israelense usou inteligência artificial para apontar 37 mil moradores de Gaza como alvos

Por Texto: Yuval Abraham | Edição: Bruno Fonseca | Tradução: Maria Martha Bruno

O livro A equipe homem-máquina: como criar sinergia entre a inteligência humana e artificial que revolucionará nosso mundo [tradução livre do inglês] defendia a criação de uma máquina para processar rapidamente grande quantidade de dados para gerar milhares de alvos em potencial para ataques militares. O autor da obra, lançada em 2021, assinava com o pseudônimo “General de brigada YS”. O “general” do livro, que confirmamos ser o atual comandante da unidade de inteligência israelense de elite 8200, afirmava que tal tecnologia resolveria o “gargalo humano na localização de novos alvos e na tomada de decisões”.

Hoje, a máquina existe. Reportagem investigativa dos veículos +972 e Local Call, traduzida pela Agência Pública, revela que o Exército israelense desenvolveu um programa baseado em inteligência artificial (IA) conhecido como “Lavender”. A reportagem original você pode ler aqui, em inglês.

De acordo com seis oficiais das forças de inteligência israelenses, que serviram o exército na atual guerra na Faixa de Gaza e tiveram envolvimento direto com a IA na geração de alvos humanos, o Lavender desempenhou papel central nos bombardeios aos palestinos, sobretudo nos primeiros estágios da guerra. Segundo as fontes, a influência do programa foi tão grande que os resultados do trabalho da IA foram tratados “como decisões humanas”.

Em tese, o sistema Lavender foi concebido para apontar suspeitos de operar nas alas militares do Hamas e da Jihad Islâmica Palestina, inclusive pessoas de baixo escalão. As fontes disseram que, nas primeiras semanas da guerra, o exército confiou quase completamente no Lavender, que registrou cerca de 37 mil palestinos como suspeitos.

Nos primeiros meses, o exército deu ampla aprovação para que seus oficiais adotassem listas de mortes produzidas pelo Lavender, sem nenhuma exigência de verificação minuciosa sobre as escolhas do programa. Uma fonte afirmou que a mão humana muitas vezes servia somente para chancelar as decisões da máquina, acrescentando que, normalmente, eles dedicavam apenas cerca de “20 segundos” a cada alvo antes de autorizar um bombardeio.

Isso acontecia mesmo com o Exército sabendo que o sistema “erra” em aproximadamente 10% dos casos e, ocasionalmente, aponta indivíduos que têm apenas ligação superficial ou nenhuma ligação com o Hamas ou a Jihad.

Além disso, o exército atacou sistematicamente indivíduos apontados como alvo ​​enquanto estavam nas suas casas – geralmente à noite, com as famílias –, e não durante atividades militares. Segundo as fontes, isso ocorreu porque era mais fácil localizá-los nas residências.

O resultado é que milhares de palestinos – em sua maioria mulheres, crianças ou pessoas que não estiveram envolvidas nos combates – foram exterminados por ataques aéreos israelenses, sobretudo nas primeiras semanas da guerra.

“As Forças de Defesa de Israel (IDF) bombardeavam dentro de casa, sem hesitação. É muito mais fácil bombardear a casa de uma família. O sistema foi construído para rastrear as pessoas nestas situações”, disse A, um oficial de inteligência.

Além disso, nos ataques a alvos apontados pelo Lavender, o exército israelense preferiu usar apenas mísseis não guiados, vulgarmente conhecidos como bombas “burras”, que podem destruir edifícios inteiros. “Não querem desperdiçar bombas caras com pessoas sem importância”, disse C, um dos oficiais do serviço secreto israelense. Outra fonte autorizou pessoalmente o bombardeio de “centenas” de casas de supostos agentes iniciantes (de baixo escalão), matando civis e famílias inteiras.

Duas das fontes afirmam que, numa ação sem precedentes, o exército decidiu também, durante as primeiras semanas da guerra, que, para cada agente iniciante do Hamas apontado pelo Lavender, seria permitido matar até 15 ou 20 civis; para altos funcionários, o limite chegava a mais de 100 civis.

A seguir, a reportagem mostra as fases, em ordem cronológica, da automatização de alvos nas primeiras semanas da guerra em Gaza.

1ª fase: Gerando metas

No passado, para o exército israelense, o termo “alvo humano” se referia a um agente de alto escalão que poderia ser morto em casa, mesmo com civis por perto. Fontes da inteligência disseram que, em outras guerras, tais alvos eram apontados com muito cuidado.

Depois de 7 de outubro de 2023 – quando terroristas liderados pelo Hamas fizeram um ataque às comunidades do sul de Israel, matando cerca de 1.200 pessoas e sequestrando 240 –, o exército adotou uma abordagem totalmente diferente: todos os agentes da ala militar do Hamas se tornaram alvos humanos, independentemente do escalão.

De acordo com quatro das fontes, o Lavender apontou cerca de 37 mil palestinos como possíveis “membros do Hamas” – a maioria deles eram agentes iniciantes. O porta-voz das Forças de Defesa de Israel negou a existência da lista em nota enviada à reportagem. “Queriam autorização para atacar automaticamente. Esse é o Santo Graal. Depois de automatizada, a geração de alvos enlouquece”, explicou o oficial superior B.

A aprovação para adotar automaticamente as listas de mortes foi concedida duas semanas após o início da guerra, depois que as equipes de inteligência verificaram “manualmente” a precisão de uma amostra aleatória de centenas de alvos selecionados pelo sistema.

Como a amostra concluiu que os resultados do Lavender atingiram 90% de precisão, o exército autorizou o uso abrangente da IA. A partir daí, se o Lavender decidisse que um indivíduo era membro do Hamas, não havia necessidade de verificação independente.

“Foi muito surpreendente pedirem para bombardear uma casa para matar um soldado tão pouco importante”, disse uma fonte. “Eu apelidei estes alvos de ‘alvos de lixo’. Ainda assim, me parecia ético bombardear os alvos para ‘dissuasão’ – arranha-céus derrubados apenas para causar destruição.”

De acordo com dados do Ministério da Saúde palestino em Gaza, que o exército israelense usa quase que exclusivamente desde o início da guerra, Israel matou cerca de 15 mil palestinos nas primeiras seis semanas da guerra, até o cessar-fogo de uma semana iniciado em 24 de novembro. Hoje, o número de mortes já quase dobrou.

O software Lavender analisa informações sobre a maioria dos 2,3 milhões de residentes da Faixa de Gaza por um sistema de vigilância em massa. Em seguida, avalia a probabilidade de cada pessoa estar ativa na ala militar do Hamas ou da Jihad Islâmica Palestina. Segundo as fontes, a máquina classifica quase todas as pessoas em Gaza em uma escala de 1 a 100.

No livro mencionado no início desta reportagem, o autor e atual comandante da Unidade 8200 não chama o Lavender pelo nome. O livro traz um breve guia para construir um programa semelhante ao Lavender e mostra exemplos de traços que podem aumentar a classificação de um indivíduo, como fazer parte de um grupo de WhatsApp com um membro conhecido do Hamas, trocar de celular em poucos meses e mudar de endereço com frequência.

Fontes explicaram que o Lavender às vezes sinalizava erroneamente indivíduos que tinham padrões de comunicação semelhantes aos de agentes do Hamas ou da Jihad Islâmica Palestina. Eram funcionários da polícia e da defesa civil, parentes de membros dos grupos terroristas, residentes de Gaza com nome e sobrenome idênticos e moradores que usavam celulares que haviam pertencido a eles.

“Quão próxima uma pessoa deve estar do Hamas para ser considerada afiliada?”, disse uma fonte que criticou a imprecisão do Lavender. “É um limite vago. Uma pessoa que não recebe salário do Hamas, mas ajuda o grupo com outras coisas, é um agente? E alguém que fez parte, mas não está lá hoje?”

Segundo as fontes, o exército sabia que a supervisão humana mínima não iria descobrir essas falhas. “Não havia uma política de ‘erro zero’. Os erros foram tratados estatisticamente”, disse uma fonte que usou o Lavender.

“Houve uma quantidade ilógica de [bombardeios] nesta operação. Foi algo sem precedentes. Confio muito mais num mecanismo estatístico do que num soldado que perdeu um amigo há dois dias. Todos lá, inclusive eu, perderam pessoas no dia 7 de outubro. A máquina fez isso com frieza. E isso tornou tudo mais fácil”, disse B.

Outra fonte da inteligência, que defendeu as listas de suspeitos geradas pelo Lavender, argumentou que valia a pena investir o tempo de um oficial de inteligência para verificar a informação só se o alvo fosse um comandante sênior do Hamas.

B disse que o propósito da automação foi o esforço para gerar mais alvos. “Éramos constantemente pressionados. Gritavam conosco. Nós acabávamos [de matar] nossos alvos muito rapidamente. […] No auge, o sistema conseguiu gerar 37 mil potenciais alvos humanos”, disse B.

Em nota ao +972 e à Local Call, o porta-voz das Forças de Defesa de Israel negou o uso de inteligência artificial para apontar alvos, dizendo que estas são apenas “ferramentas auxiliares que auxiliam os oficiais no processo”.

“Em todo caso, é necessária uma avaliação independente por um analista [de inteligência], que verifique se os alvos são legítimos para ataque, segundo as condições estabelecidas nas diretivas das Forças e no direito internacional”, diz a nota.

No entanto, fontes disseram que o único protocolo de supervisão humana em vigor antes de bombardear as casas de supostos agentes iniciantes marcados pelo Lavender era garantir que o alvo fosse um homem e não uma mulher. O exército acreditava que, se fosse uma mulher, a máquina teria cometido um erro, porque não há mulheres nas alas militares do Hamas e da Jihad. Na prática, isso significava que, para homens civis apontados equivocadamente pelo Lavender, não havia como detectar o erro.

                                             2023/Agência Palestina de Notícias e Informações 
                                                 (Wafa) /APAimages/Wikimedia Commons
Danos após um ataque aéreo israelense na área de El-Remal, na cidade de Gaza, em 9 de outubro de 2023

2ª fase: Relacionando alvos às casas

A etapa seguinte do protocolo de assassinatos do exército israelense era identificar onde atacar os alvos.

Em nota, o porta-voz das Forças de Defesa de Israel afirmou que “o Hamas coloca agentes e aparatos militares no coração da população civil e usa sistematicamente escudos humanos, além de travar combates em estruturas civis, incluindo hospitais e escolas. As Forças agem de acordo com o direito internacional, direcionando ataques apenas contra alvos militares”.

As fontes argumentaram que muitos ataques israelenses matam civis como resultado dessas táticas do Hamas. Por outro lado, explicaram que uma das principais razões para o alto número de mortes são os ataques sistemáticos a alvos em suas casas, com suas famílias.

As fontes contaram que, como todos em Gaza tinham uma casa à qual podiam estar associados, os sistemas de vigilância do exército poderiam automaticamente “associar” os indivíduos às residências.

Para identificar o momento em que os agentes entram em casa, foram desenvolvidos softwares automáticos adicionais, que rastreiam milhares de indivíduos simultaneamente, identificam quando estão em casa e enviam um alerta automático ao oficial responsável, que aponta a casa a ser bombardeada. Um destes softwares chama-se Where’s daddy? (Onde está papai?).

A evidência dessa política fica clara também nos dados: no primeiro mês da guerra, mais de metade das mortes – 6.120 pessoas – pertencia a 1.340 famílias, muitas exterminadas enquanto estavam em casa, segundo a ONU.

“Um dia, por minha conta, adicionei cerca de 1.200 novos alvos ao sistema, porque o número de ataques diminuiu”, disse uma fonte. “Tais decisões não foram tomadas em altos escalões.”

Nas primeiras duas semanas da guerra, milhares de alvos foram incluídos em programas de localização. Esses alvos incluíam todos os membros da Nukhba, a unidade de forças especiais da elite do Hamas e todos os agentes antitanques do grupo. Mas, em pouco tempo, a lista foi ampliada e incluiu até menores de idade.

O Lavender e sistemas como Where’s daddy? trabalhavam de forma combinada, matando famílias inteiras. Quando um nome das listas geradas pelo Lavender era adicionado ao Where’s daddy?, explicou A, a pessoa ficaria sob vigilância contínua e poderia ser atacada assim que colocasse os pés em casa. Em seguida, a casa poderia desabar sobre quem estivesse lá dentro.

“Digamos que você calcule [que há um] [agente] do Hamas mais dez [civis na casa]”, disse A. “Normalmente, esses dez serão mulheres e crianças. É tão absurdo que a maioria das pessoas mortas eram mulheres e crianças.”

3ª fase: Escolhendo uma arma

Em dezembro de 2023, a rede de televisão CNN informou que, de acordo com estimativas da inteligência dos EUA, cerca de 45% das munições utilizadas pela força aérea israelense em Gaza eram bombas “burras”, conhecidas por causarem mais danos colaterais do que bombas guiadas.

Em resposta à CNN, um porta-voz do exército garantiu que os militares “dedicam muitos recursos para minimizar os danos aos civis obrigados a serem usados como escudos humanos pelo Hamas. Nossa guerra é contra o Hamas, não contra o povo de Gaza”.

Três fontes de inteligência, no entanto, disseram que agentes iniciantes apontados pelo Lavender foram assassinados com “bombas burras”, para economizar armamentos mais caros. Uma delas explicou que o exército não atacaria tal alvo se ele morasse em um prédio alto, porque não gastaria uma bomba mais precisa e cara.

4ª Fase: Autorizando vítimas civis

Uma fonte disse que, ao atacar agentes iniciantes, o número de civis autorizados a matar para cada alvo era de até 20 nas primeiras semanas da guerra. Esses “graus de danos colaterais”, como os militares chamam, foram aplicados a todos os suspeitos de serem iniciantes.

De acordo com A, ex-oficial numa sala de operações na guerra, o Departamento de Direito Internacional do exército nunca havia dado uma “aprovação tão ampla”. “Não se trata apenas de poder matar qualquer soldado do Hamas, o que é claramente permitido e legítimo no direito internacional. Mas diziam diretamente: ‘Você tem permissão para matá-los com muitos civis’.” Questionada sobre a lógica de segurança por trás dessa política, a fonte respondeu: “Letalidade”.

Fontes disseram ao +972 e à Local Call que agora, em parte devido à pressão americana, o exército israelense não gera alvos em massa para bombardear casas de civis. O fato de a maioria das residências na Faixa de Gaza já ter sido destruída ou danificada, e de quase toda a população ter sido deslocada, também prejudicou a capacidade do exército de confiar em bases de dados e automatização.

No entanto, os ataques aéreos contra altos comandantes do Hamas continuam, e, segundo as fontes, os militares podem autorizar a morte de “centenas” de civis por alvo – uma política oficial para a qual não há precedente em Israel ou nas recentes operações militares dos EUA.

“No bombardeio contra o comandante do Batalhão Shuja’iya, sabíamos que mataríamos mais de cem civis”, lembrou B, ao se referir a um atentado em 2 de dezembro, que o porta-voz das Forças de Defesa de Israel disse ter como objetivo assassinar Wisam Farhat. “Para mim, psicologicamente, foi incomum. Mais de cem civis… Isso ultrapassa qualquer limite.”

Amjad Al-Sheikh, um jovem palestino de Gaza, disse que muitos de seus familiares foram mortos naquele atentado. Ele estava num supermercado quando ouviu cinco explosões que quebraram as janelas de vidro.

“Corri para a casa da minha família, mas não havia mais prédios lá”, disse Al-Sheikh ao +972 e à Local Call. “A rua estava tomada por gritos e fumaça. Blocos residenciais inteiros viraram escombros. Eu e outras pessoas começamos a remover o concreto com as mãos, em busca de vestígios das famílias.” Sua esposa e filha sobreviveram, “protegidas” por um armário que caiu em cima delas, mas ele perdeu 11 membros da família, entre eles irmãos e filhos pequenos.

Fontes de inteligência disseram que participaram de ataques ainda mais letais. Para assassinar Ayman Nofal, comandante da Brigada Central de Gaza do Hamas, uma fonte contou que o exército autorizou a morte de aproximadamente 300 civis, destruindo edifícios em ataques aéreos em um campo de refugiados, com base na localização imprecisa de Nofal.

“A política em relação às baixas era tão permissiva que, na minha opinião, havia um elemento de vingança”, afirmou D. “Fazíamos um cálculo: ‘Quantas pessoas para um comandante de brigada? Quantas para um comandante de batalhão?’”

Todas as fontes disseram que os massacres do Hamas em 7 de outubro de 2023 e o sequestro de reféns israelenses influenciaram muito a política de ataques do exército e os graus de danos colaterais.

“No início, a atmosfera era dolorosa e vingativa”, disse B, que foi convocado imediatamente após 7 de outubro e serviu numa sala de operações. “As regras eram muito brandas. Derrubaram quatro prédios quando souberam que o alvo estava em um deles. Foi insano.”

“Havia uma dissonância: por um lado, as pessoas estavam frustradas porque não estávamos atacando o suficiente”, continuou B. “Por outro, no fim do dia, víamos que mais mil habitantes de Gaza haviam morrido, a maioria civis.”

B, a fonte de inteligência sênior ouvida pela reportagem, disse que, olhando em retrospectiva, acredita que esta política “desproporcional” de matar palestinos em Gaza também põe em perigo os israelenses. Essa foi uma das razões pelas quais decidiu falar.

“Em curto prazo, estamos mais seguros, porque prejudicamos o Hamas, mas não estamos a longo prazo. As famílias enlutadas em Gaza – que são quase todas – aumentarão a motivação para [se juntarem] ao Hamas em dez anos. E será muito mais fácil para [o Hamas] recrutá-las.”

Em nota ao +972 e à Local Call, o exército israelense negou a maior parte do que as fontes disseram, alegando que “cada alvo é examinado individualmente, enquanto é feita uma avaliação única da vantagem militar e dos danos colaterais esperados do ataque. As IDF não realizam ataques quando os danos colaterais ultrapassam a vantagem militar”.

5ª fase: Bombardeando uma casa de família

As fontes explicaram que às vezes havia um intervalo considerável entre o momento em que sistemas de rastreamento como o Where’s daddy? alertavam que um alvo havia entrado em casa e o instante do bombardeio. “O resultado é que você mata uma família sem motivo”, afirmou uma delas.

“Às vezes [o alvo] estava em casa mais cedo e à noite ia dormir em outro lugar”, disse uma das fontes. “Há momentos em que você verifica novamente a localização, e outros em que você apenas diz: ‘Ele esteve em casa nas últimas horas, então podemos bombardear’.”

Nas guerras anteriores em Gaza, após o assassinato de alvos, a inteligência israelense fazia procedimentos de avaliação de danos causados ​​por bombas [BDA, na sigla em inglês] – uma verificação para ver se o comandante superior foi morto e quantos civis foram mortos com ele. Na guerra que começou em outubro de 2023, fontes dizem que esse procedimento foi abolido para poupar tempo quando os alvos eram agentes de baixo escalão.

Embora os militares israelenses possam avançar após cada ataque sem se preocuparem com o número de vítimas, Amjad Al-Sheikh, o residente de Shuja’iya que perdeu 11 membros da família no bombardeio de 2 de dezembro, disse que ele e os seus vizinhos estão ainda em busca de corpos.

“Quatorze prédios residenciais foram bombardeados com moradores dentro. Alguns dos meus parentes e vizinhos ainda estão soterrados.”

apublica.org                                              




GAZETA SANTA CÂNDIDA, JORNAL QUE TEM O QUE FALAR

Postar um comentário

0 Comentários