Estarão os israelenses a comportar-se de forma inteligente?

(Dmitry Orlov, in Resistir, 18/04/2024)

Eu não ia escrever sobre Israel, mas por acaso estava no Museu Hermitage de São Petersburgo hoje e me deparei com “A batalha entre os israelitas e os amorreus”, uma pintura a óleo sobre tela de 1625 do artista francês Nicolas Poussin, e pensei: esses israelitas irritantes estão de volta, não estão? De fato, eles estão!

Ler artigo completo aqui.


Gosta da Estátua de Sal? Click aqui.

Os EUA recusam o convite de Israel para iniciar a 3ª Guerra Mundial (por enquanto)

(Caitlin Johnstone, 14/04/2024, Trad. Estátua de Sal)

O Irão realizou a sua há muito prometida retaliação ao ataque de Israel ao prédio de seu consulado em Damasco, lançando uma enorme enxurrada de drones e mísseis que, segundo os iranianos, atingiram e destruíram alvos militares israelitas, enquanto Israel diz que eles causaram apenas danos superficiais e alguns feridos. Os EUA e seus aliados teriam ajudado a abater vários projéteis iranianos.

Assim, como discutimos no período que antecedeu o ataque, a classe político-mediática ocidental está a agir como se este fosse um ataque completamente não-provocado, lançado contra a Israel, a vitima inocente de olhos de Bambi. 

Os comentários das autoridades e dos especialistas ocidentais e das manchetes dos meios de comunicação social estão a omitir que Israel instigou tais hostilidades, tanto quanto possível, com o seu ato extremo de agressão na Síria. Na Austrália, o Sydney Morning Herald escreveu sobre o ataque e não chegou a informar os leitores sobre o ataque ao consulado iraniano até ao décimo parágrafo do artigo, e disse apenas que o Irão havia “acusado” Israel de lançar o ataque porque Israel nunca o confirmou oficialmente.

De qualquer forma, o Irão diz que o ataque já acabou. Dado que não estamos vendo sinais de danos maciços, a alegação relatada pelo Irão de que a retaliação seria calibrada para evitar uma escalada para uma guerra regional em grande escala, parece ter sido precisa, assim como a alegação relatada por Washington de que não esperava que o ataque fosse grande o suficiente para atrair os EUA para a guerra.

Um novo relatório do Axios diz que Biden disse pessoalmente a Netanyahu que os EUA não apoiarão nenhuma resposta militar israelita ao ataque iraniano. Um alto funcionário anónimo da Casa Branca disse ao Axios que Biden disse a Netanyahu: “Você tem uma vitória. Tome a vitória”, em referência ao número de armas iranianas que foram retiradas do céu pela coligação internacional em defesa de Israel. Aparentemente, ajudar a mitigar os danos do ataque iraniano, é todo o compromisso militar que a Casa Branca está disposta a fazer contra o Irão, neste momento.

E agradeçamos a todos os santos por isso. Uma guerra entre a aliança dos EUA e o Irão e os seus aliados seria um pesadelo, fazendo com que os horrores que temos visto em Gaza nos últimos seis meses parecessem um episódio de Peppa Pig.

Mas, Washington simplesmente recusar a envolver-se, está longe de ser suficiente. Como brincou Trita Parsi, do Instituto Quincy , no Twitter, “Biden precisa de EVITAR uma nova escalada, não apenas declarar a sua intenção de ficar de fora”.

Na verdade, Israel já deixou claro que vai avançar com uma escalada contra o Irão. O Canal 12 de Israel cita um alto funcionário não identificado dizendo que o contra-ataque iraniano receberá uma “resposta sem precedentes”.

“Israel já informou os americanos e os governos da região que uma resposta é inevitável”, relata a The Economist. “Suas opções militares incluem o lançamento de drones contra o Irão e ataques aéreos de longo alcance contra o Irão, possivelmente contra bases militares ou instalações nucleares.”

Não está claro, neste momento, o quanto a última mensagem do governo Biden afetará os cálculos dessa posição, mas os meios de comunicação social estão relatando que funcionários da Casa Branca estão preocupados com a possibilidade de Israel estar a preparar-se para fazer algo extremamente imprudente, que pode levar os EUA para uma guerra que preferem evitar.

A NBC News relata o seguinte::

“Alguns altos funcionários dos EUA estão preocupados com a possibilidade de Israel possa fazer rapidamente algo em resposta aos ataques do Irão sem pensar nas possíveis consequências posteriores, isto de acordo com um alto funcionário do governo e um alto funcionário da defesa.”

“Essas preocupações decorrem, em parte, das opiniões do governo sobre a abordagem que Israel adotou na sua guerra contra o Hamas, bem como o ataque em Damasco.

O presidente Joe Biden expressou, em particular, preocupação sobre a eventualidade de o primeiro-ministro israelita, Benjamin Netanyahu, estar a tentar arrastar os EUA mais profundamente para um conflito mais amplo, de acordo com três pessoas familiarizadas com seus comentários.”

As pessoas vêm levantando essa preocupação há algum tempo. No início deste mês, Paul Pillar desenvolveu um sólido argumento de que Netanyahu tem muito a ganhar pessoalmente ao atrair os EUA para uma guerra com o Irão, para o ajudar nos seus problemas legais e políticos e desviar o foco do genocídio de Israel em Gaza.

Seja como for, é bastante absurdo que o governo Biden fique sentado passivamente esperando que isso não aconteça, como se não tivesse uma palavra a dizer sobre o assunto, e como se não houvesse nada que pudesse fazer para evitar tal ocorrência. Biden tem a capacidade de encerrar esse ciclo insano de escalada no Médio Oriente desde que começou, há seis meses, exigindo um cessar-fogo em Gaza e exigindo que Israel controle a sua máquina de assassinatos, tal como outros presidentes dos EUA fizeram com sucesso no passado.

Biden poderia acabar com tudo isso com um telefonema. O facto de ele não o fazer significa que é um monstro, e não serão as reportagens da comunicação social, sobre o quão “preocupado” e “frustrado” ele está em relação às ações de Israel – por muitas que se façam -, que irão mudar isso.

Fonte aqui.


Gosta da Estátua de Sal? Click aqui.

O destino de centenas de milhares de civis em Gaza está nas mãos da inteligência artificial

(Por Ayse Iram Tiryaki e Irmak Akcan, in Reseau International, 08/04/2024, Trad. Estátua de Sal)

(Este artigo revela toda a ignomínia e maldade de que é capaz a espécie humana, ou pelo menos alguns dos seus membros. Aterrador e revoltante. Desculpem-me, mas quem assim atua não tem perdão. Merece mais e pior que uma morte rápida e indolor.

Estátua de Sal, 08/04/2024)


Os militares israelitas perseguem 37 mil “alvos humanos” identificados pelo programa de inteligência artificial “Lavender”, por alegadas ligações ao Hamas, entre os 2,3 milhões de habitantes de Gaza cujos dados foram avaliados pelo programa.

A comunicação social israelita revelou que o exército está a usar inteligência artificial (IA) para determinar os seus alvos entre a população de Gaza.

Assim, segundo fontes que prestaram declarações aos meios de comunicação israelitas (+972 e Local Call), com sede em Telavive, o programa “Lavender” analisa os dados que recolhe sobre cerca de 2,3 milhões de pessoas de Gaza segundo critérios vagos, avaliando a probabilidade de uma pessoa estar ligada ao Hamas.

Segundo estas fontes, Israel arriscaria pelo menos 20 “vítimas civis” por cada um dos 37 mil “suspeitos”, identificados pelo programa de inteligência artificial “Lavender” como “alvos humanos”, nos ataques a Gaza.

O exército israelita “aderiu integralmente” ao programa, nomeadamente no início da guerra, e os nomes identificados pelo “Lavender” foram, portanto, considerados “alvos”, por pessoal sem controlo e sem critérios específicos, desde que se tratassem de homens, especificam as fontes nas suas declarações aos meios de comunicação em questão.

37000 Palestinianos rotulados como suspeitos

Fontes disseram ao +972 que o conceito de “alvo humano”, que permite matar em propriedade privada mesmo que haja civis no edifício e arredores, anteriormente abrangia apenas “alvos militares de alto nível”, mas depois de 7 de outubro, os “alvos humanos” foram expandidos para incluir todos os membros do Hamas.

Devido ao aumento no número de alvos, notou-se que a inteligência artificial era necessária porque a capacidade de verificar alvos – através de exame e verificação individual por humanos, como se fazia anteriormente -, foi eliminada, e foi relatado que a inteligência artificial rotulou cerca de 37.000 palestinianos como “suspeitos”. O processo foi totalmente automatizado depois que o “Lavender” foi considerado capaz de classificar os palestinianos “em até 90%”.

Matámos milhares de pessoas. Automatizámos tudo e não verificámos os alvos individualmente. Quando as pessoas marcadas entravam nas suas casas, nós as bombardeávamos”, disseram as fontes, confirmando a retirada do controle humano.

O comentário de uma fonte de que era “muito surpreendente que lhe pedissem para bombardear uma casa para matar um personagem menor” foi visto como uma admissão do massacre de civis em Gaza, por Israel.

Luz verde para alvos de alto nível com até 100 vítimas civis

Fontes indicaram que foi permitido um máximo de “20 vítimas civis” na operação contra um “suspeito” de baixo escalão, e que este número foi frequentemente aumentado e diminuído durante o processo, chamando a atenção para o facto de que o “princípio da proporcionalidade” não foi aplicado. Por outro lado, foi afirmado que o número em questão subia para 100, quando se tratava de alvos de alto nível. As mesmas fontes disseram que receberam ordens de “bombardear onde pudessem” e acrescentaram: “Os altos funcionários estavam em estado de histeria. Eles não sabiam como reagir. Tudo o que sabiam era que tinham de bombardear como loucos para limitar as capacidades do Hamas”. “B.”, um militar de alta patente que usou o “Lavender”, afirma que o programa tem uma “margem de erro de cerca de 10%” e que não precisa ser verificado por humanos para evitar perdas de tempo.

Uma pessoa que levava o telefone, identificado como alvo, foi bombardeada juntamente com a sua família

Quando a definição de membro do Hamas foi alargada, a aplicação começou a visar todos os tipos de membros da proteção civil e agentes da polícia. Mesmo que estas pessoas estivessem a ajudar o Hamas, não estavam realmente a pôr em perigo os soldados israelitas”. Destacando as deficiências do sistema, “B.” disse: “Se o alvo desse o seu telefone a outra pessoa, essa pessoa seria bombardeada na sua casa com toda a sua família. Isso aconteceu com muita frequência. Este foi um dos erros mais frequentes do Lavender”.

A maioria dos mortos eram mulheres e crianças

Por outro lado, outro software chamado “Onde está o papai?” rastreia milhares de pessoas simultaneamente e notifica as autoridades israelitas quando elas entram em casa. As casas das pessoas visadas foram bombardeadas usando este software: “Digamos que você calcule que há um membro do Hamas e 10 civis numa casa, geralmente essas 10 pessoas são mulheres e crianças. Portanto, a maioria das pessoas que você mata são mulheres e crianças”.

Este sistema também apresenta erros de cálculo, como explica uma das fontes: “Na maioria das vezes, a pessoa visada nem está na casa que bombardeámos. Portanto, estávamos a matar uma família para nada”.

Bombas não guiadas são usadas para economizar dinheiro

As fontes também disseram que pessoas de baixo escalão foram alvo de “bombas não guiadas” em vez de “bombas inteligentes guiadas”, a fim de “economizar armas caras”, causando muitas vítimas civis à medida que edifícios localizados dentro e ao redor da pessoa visada eram destruídos.

Sobre o uso de bombas não guiadas, uma das fontes disse: “Costumamos realizar ataques com bombas não guiadas, o que significa literalmente a destruição de toda a casa e do seu conteúdo. Por causa deste sistema, os alvos continuam a multiplicar-se”.

A inteligência artificial é usada para encontrar mais alvos, não para reduzir as vítimas civis

Em declarações à Al Jazeera, o professor Marc Owen Jones, que trabalha em estudos do Médio Oriente e humanidades digitais na Universidade Hamid bin Khalifa, no Qatar, disse: “Está a tornar-se cada vez mais claro que Israel utiliza sistemas de inteligência artificial não testados, que não foram avaliados de forma transparente, para ajudar na tomada de decisões sobre a vida dos civis”. Sugerindo que as autoridades israelitas – quando usam sistemas de inteligência artificial delegam a seleção de alvos na inteligência artificial e usam o sistema para “evitar a responsabilidade moral ” -, Jones afirmou que o sistema é usado “para encontrar mais alvos, e não para reduzir o número de vítimas civis”. Alegando que mesmo os responsáveis ​​que operam o sistema veem a inteligência artificial como uma “máquina de matar”, Jones sublinhou que é pouco provável que Israel acabe com a utilização de inteligência artificial em ataques, a menos que “os seus aliados pressionem muito”.Descrevendo o incidente como um genocídio assistido por IA, Jones acredita que “deveria ser discutida e negociada uma moratória sobre o uso de inteligência artificial em guerras”.

“Habsora” (O Evangelho)

Num outro estudo publicado a 1 de Dezembro de 2023, afirma-se que o exército israelita utilizou a aplicação de inteligência artificial chamada “Habsora” (O Evangelho), que é utilizada para identificar alvos durante os seus ataques contra a Faixa de Gaza, para atacar deliberadamente infraestruturas civis, e que sabe sempre quantos civis morrerão nos ataques contra os alvos gerados automaticamente pela aplicação. Enquanto o “Habsora” tem como alvo edifícios e estruturas, o Lavender tem como alvo indivíduos.

Fonte aqui.


Gosta da Estátua de Sal? Click aqui.