Estamos testemunhando o genocídio dos palestinos com base em algoritmos e aprendizado de máquina; um sistema de apartheid na Cisjordânia e na Faixa de Gaza ocupadas por Israel reforçado pela inteligência artificial; e sistemas de vigilância e reconhecimento facial tão proficientes que o regime de 1984 de Orwell ficaria verde de inveja. A atual Palestina ocupada por Israel manifesta um roteiro de filme de ficção científica distópico e totalitário no que diz respeito aos palestinos. Além disso, os sionistas estão alimentando esse pesadelo da IA.
Desde o início de sua atual guerra contra os palestinos em Gaza, o regime sionista, cego pela vingança pelo 7 de outubro, alavancou a IA da maneira mais indiscriminada e bárbara para matar dezenas de milhares de civis palestinos inocentes. Uma dessas ferramentas insidiosas de IA que dominou as manchetes foi o The Gospel. Desde outubro passado, Israel tem utilizado esse sistema de IA para acelerar a criação de alvos do Hamas. Mais especificamente, o The Gospel marca estruturas e edifícios nos quais a IDF afirma que os “militantes” do Hamas operam. Essa lista de alvos em ritmo acelerado, a relutância de Israel em aderir ao direito humanitário internacional, bem como o apoio dos EUA que encoraja o governo do primeiro-ministro Benjamin Netanyahu, levaram a um genocídio moderno.
O Gospel é usado pela agência de inteligência cibernética e de sinais 8200 de elite de Israel para analisar “comunicações, imagens e informações da Internet e de redes móveis para entender onde as pessoas estão”, explicou um ex-oficial da Unidade 8200. O sistema estava ativo até mesmo na ofensiva de 2021, de acordo com o ex-chefe do Estado-Maior do Exército de Israel, Aviv Kochavi: “…na Operação Guardião dos Muros [em 2021], a partir do momento em que essa máquina foi ativada, ela gerou 100 novos alvos todos os dias… no passado [em Gaza], criávamos 50 alvos por ano. E aqui a máquina produziu 100 alvos em um dia.”
LEIA: Guerra Israel-Palestina: Como Israel usa o programa de genocídio da IA para obliterar Gaza
A disposição apática de Israel em relação aos civis é evidente, pois deu sinal verde para a morte de muitos inocentes a fim de atingir seus alvos gerados por IA, sejam eles hospitais, escolas, prédios de apartamentos ou outras infraestruturas civis. Por exemplo, em 10 de outubro do ano passado, a força aérea de Israel bombardeou um prédio de apartamentos, matando 40 pessoas, a maioria delas mulheres e crianças. Israel também usou bombas burras que causam mais danos colaterais em vez de munições guiadas para atingir alvos de baixo escalão da liderança do Hamas. “A ênfase está nos danos e não na precisão”, disse o porta-voz das Forças de Defesa de Israel. Esse é o principal motivo pelo qual o número de mortes de civis é tão alto, assim como o número de feridos. De acordo com um estudo, o número total da guerra atual de 110.000 e mais baixas palestinas (a maioria delas civis) é quase seis vezes maior do que o número de baixas palestinas nas cinco ofensivas militares anteriores combinadas, que foi de 18.992.
Dois outros programas de IA que foram notícia recentemente são Lavender e Where’s Daddy? O Lavender difere do The Gospel pelo fato de que o primeiro marca seres humanos como alvos (criando uma lista de mortes), enquanto o segundo marca edifícios e estruturas supostamente usados por combatentes. Fontes israelenses afirmam que, nas primeiras semanas da guerra, o Lavender foi utilizado em excesso e criou uma lista de 37.000 palestinos como “militantes suspeitos” a serem mortos por meio de ataques aéreos. Conforme mencionado anteriormente, a apatia de Israel em relação aos palestinos ficou evidente em sua matança em massa de civis para eliminar até mesmo um único membro do Hamas. De acordo com fontes militares israelenses, a IDF decidiu inicialmente que, para cada membro júnior do Hamas, 15 ou 20 civis poderiam ser mortos.
Essa brutalidade não tem precedentes.
Se o membro do Hamas fosse um comandante sênior, a IDF, em várias ocasiões, autorizava a morte de mais de 100 civis para atingir seu objetivo. Por exemplo, um oficial israelense disse que, em 2 de dezembro, para assassinar Wissam Farhat, comandante do Batalhão Shuja’iya da ala militar do Hamas, as IDF sabiam que matariam mais de 100 civis e seguiram em frente com a matança.
Se isso não fosse suficientemente polêmico, o Lavender também era usado sem nenhum controle e equilíbrio significativos. Em muitas ocasiões, o único exame humano realizado era para garantir que a pessoa em questão não fosse uma mulher. Além disso, as listas de mortes geradas pelo Lavender eram confiadas cegamente.
LEIA: Morte por algoritmo: Inteligência artificial na guerra em Gaza
Entretanto, as mesmas fontes explicam que o Lavender comete erros; aparentemente, ele tem uma taxa de erro de 10%. Isso significa que, às vezes, ela marcava pessoas inocentes e/ou indivíduos com conexões frouxas com o Hamas, mas isso era ignorado propositalmente por Israel.
Além disso, o Lavender também foi programado para ser abrangente em sua criação de alvos. Por exemplo, um oficial israelense ficou incomodado com a definição vaga de um agente do Hamas e com o fato de a Lavender também ter sido treinada com dados de funcionários da defesa civil. Portanto, essas conexões vagas com o Hamas foram exploradas por Israel e, como resultado, milhares de pessoas foram mortas. Os números da ONU confirmam o uso dessa política devastadora quando, durante o primeiro mês da guerra, mais da metade das 6.120 pessoas mortas pertenciam a 1.340 famílias, muitas das quais foram completamente eliminadas.
O Where’s Daddy? é um sistema de IA que rastreia os indivíduos visados para que a IDF possa assassiná-los. Essa IA, juntamente com The Gospel, Lavender e outros, representa uma mudança de paradigma no programa de assassinatos seletivos do país. No caso do Where’s Daddy?, as IDF esperavam propositalmente que o alvo entrasse em sua casa e, em seguida, ordenavam um ataque aéreo, matando não apenas o alvo, mas também toda a sua família e outros inocentes no processo. Como afirmou um oficial da inteligência israelense: “Não estávamos interessados em matar os agentes [do Hamas] somente quando eles estavam em um prédio militar ou envolvidos em uma atividade militar. Pelo contrário, as IDF os bombardeavam em suas casas sem hesitação, como primeira opção. É muito mais fácil bombardear a casa de uma família. O sistema foi criado para procurá-los nessas situações.” Em uma reviravolta ainda mais terrível, às vezes o indivíduo visado nem mesmo estava em casa quando o ataque aéreo foi realizado, devido a um lapso de tempo entre o momento em que o Where’s Daddy? enviou um alerta e quando o bombardeio ocorreu. A família do alvo seria morta, mas não o alvo. Acredita-se que dezenas de milhares de palestinos inocentes, principalmente mulheres e crianças, tenham sido mortos por causa disso.
O software de IA israelense também permeia a Cisjordânia ocupada, onde faz parte da vida cotidiana dos palestinos.
Em Hebron e Jerusalém Oriental, Israel usa um sistema avançado de reconhecimento facial chamado Red Wolf. O Red Wolf é utilizado para monitorar os movimentos dos palestinos por meio dos muitos pontos de controle de segurança fixos e “voadores”. Sempre que os palestinos passam por um posto de controle, seus rostos são escaneados sem sua aprovação ou conhecimento e, em seguida, comparados com outros dados biométricos palestinos. Se uma pessoa for identificada pela Red Wolf devido a uma detenção anterior, ao seu ativismo ou a protestos, ela decide automaticamente se deve ser autorizada a passar ou não.
ASSISTA: Israel está usando o WhatsApp para atingir palestinos em Gaza?
Se uma pessoa não estiver no banco de dados do sistema, sua identidade biométrica e seu rosto serão salvos sem consentimento e sua passagem será negada. Isso também significa que Israel tem uma lista exaustiva de palestinos em seu banco de dados, que é usada regularmente para reprimir não apenas os chamados militantes, mas também os manifestantes pacíficos e outros palestinos inocentes. De acordo com um oficial israelense, a tecnologia “marcou falsamente civis como militantes”. Além disso, é muito provável que a Red Wolf esteja conectada a dois outros bancos de dados administrados por militares – o aplicativo Blue Wolf e o Wolf Pack. Os soldados da IDF podem até mesmo usar seus telefones celulares para escanear palestinos e acessar todas as informações privadas sobre eles. De acordo com a Anistia Internacional, “seu uso generalizado [da Red Wolf] tem implicações alarmantes para a liberdade de movimento de inúmeros palestinos…”
Durante anos, Israel usou os territórios palestinos ocupados como campo de testes para seus produtos de IA e spyware. Na verdade, o país vende “spyware para quem paga mais, ou para regimes autoritários com os quais o governo israelense queria melhorar as relações” com base no fato de que eles foram “testados em campo”. O próprio uso dessa tecnologia por Israel é a melhor propaganda para seus produtos. O chefe da infame agência de espionagem interna Shin Bet de Israel, Ronen Bar, declarou que está usando IA para evitar o terrorismo e que Israel e outros países estão formando uma “cúpula de ferro cibernética global”. A questão gritante aqui é a violação dos direitos palestinos por Israel por meio da espionagem de suas mídias sociais, bem como da detenção indevida, da tortura e da morte de pessoas inocentes. “As autoridades israelenses não precisam de IA para matar civis palestinos indefesos”, disse um comentarista. “No entanto, eles precisam de IA para justificar suas ações injustificáveis, para considerar a morte de civis como ‘necessária’ ou ‘dano colateral’ e para evitar a responsabilização.”
Israel firmou um contrato polêmico de US$ 1,2 bilhão com o Google e a Amazon chamado Projeto Nimbus, que foi anunciado em 2021. O objetivo do projeto é fornecer computação em nuvem e serviços de IA para os militares e o governo israelense. Isso permitirá maior vigilância e a coleta ilegal de dados palestinos. Os próprios funcionários do Google e da Amazon discordaram e escreveram um artigo para o Guardian expressando seu descontentamento sobre isso. “Nossos empregadores assinaram um contrato… para vender tecnologia perigosa para os militares e o governo israelense. Esse contrato foi assinado na mesma semana em que o exército israelense atacou palestinos na Faixa de Gaza, matando cerca de 250 pessoas, incluindo mais de 60 crianças. A tecnologia… tornará a discriminação e o deslocamento sistemáticos realizados pelos militares e pelo governo israelenses ainda… mais mortais para os palestinos”. Segundo consta, o contrato tem uma cláusula que não permite que o Google e a Amazon abandonem o contrato, de modo que a aquiescência das empresas é axiomática. De acordo com Jane Chung, porta-voz da No Tech For Apartheid, mais de 50 funcionários do Google foram demitidos sem o devido processo devido a seus protestos contra o Projeto Nimbus.
Os palestinos talvez sejam as pessoas mais corajosas do mundo.
Seja no cano de uma arma, no invólucro de uma bomba ou no código de um sistema de IA, a opressão israelense nunca os impedirá de defender seus direitos legítimos. A situação deles despertou o mundo para a natureza do regime israelense e sua ocupação brutal, com protestos e boicotes que eclodiram no Ocidente e no Sul Global. Usando seus canais de mídia de propaganda, os EUA e Israel estão tentando aplacar os bilhões de pessoas que apoiam a Palestina, mesmo com o genocídio em andamento. Israel espera que seu sistema maquiavélico desmoralize e crie um povo palestino obsequioso – pessoas cujos gritos são silenciados – mas, como sempre, subestima seu espírito infatigável que, milagrosamente, fica mais forte a cada adversidade.
LEIA: De Deir Yassin ao Hospital Al-Ahli: O legado de Israel em matança de palestinos
As opiniões expressas neste artigo são de responsabilidade do autor e não refletem necessariamente a política editorial do Middle East Monitor.