O destino de centenas de milhares de civis em Gaza está nas mãos da inteligência artificial

(Por Ayse Iram Tiryaki e Irmak Akcan, in Reseau International, 08/04/2024, Trad. Estátua de Sal)

(Este artigo revela toda a ignomínia e maldade de que é capaz a espécie humana, ou pelo menos alguns dos seus membros. Aterrador e revoltante. Desculpem-me, mas quem assim atua não tem perdão. Merece mais e pior que uma morte rápida e indolor.

Estátua de Sal, 08/04/2024)


Os militares israelitas perseguem 37 mil “alvos humanos” identificados pelo programa de inteligência artificial “Lavender”, por alegadas ligações ao Hamas, entre os 2,3 milhões de habitantes de Gaza cujos dados foram avaliados pelo programa.

A comunicação social israelita revelou que o exército está a usar inteligência artificial (IA) para determinar os seus alvos entre a população de Gaza.

Assim, segundo fontes que prestaram declarações aos meios de comunicação israelitas (+972 e Local Call), com sede em Telavive, o programa “Lavender” analisa os dados que recolhe sobre cerca de 2,3 milhões de pessoas de Gaza segundo critérios vagos, avaliando a probabilidade de uma pessoa estar ligada ao Hamas.

Segundo estas fontes, Israel arriscaria pelo menos 20 “vítimas civis” por cada um dos 37 mil “suspeitos”, identificados pelo programa de inteligência artificial “Lavender” como “alvos humanos”, nos ataques a Gaza.

O exército israelita “aderiu integralmente” ao programa, nomeadamente no início da guerra, e os nomes identificados pelo “Lavender” foram, portanto, considerados “alvos”, por pessoal sem controlo e sem critérios específicos, desde que se tratassem de homens, especificam as fontes nas suas declarações aos meios de comunicação em questão.

37000 Palestinianos rotulados como suspeitos

Fontes disseram ao +972 que o conceito de “alvo humano”, que permite matar em propriedade privada mesmo que haja civis no edifício e arredores, anteriormente abrangia apenas “alvos militares de alto nível”, mas depois de 7 de outubro, os “alvos humanos” foram expandidos para incluir todos os membros do Hamas.

Devido ao aumento no número de alvos, notou-se que a inteligência artificial era necessária porque a capacidade de verificar alvos – através de exame e verificação individual por humanos, como se fazia anteriormente -, foi eliminada, e foi relatado que a inteligência artificial rotulou cerca de 37.000 palestinianos como “suspeitos”. O processo foi totalmente automatizado depois que o “Lavender” foi considerado capaz de classificar os palestinianos “em até 90%”.

Matámos milhares de pessoas. Automatizámos tudo e não verificámos os alvos individualmente. Quando as pessoas marcadas entravam nas suas casas, nós as bombardeávamos”, disseram as fontes, confirmando a retirada do controle humano.

O comentário de uma fonte de que era “muito surpreendente que lhe pedissem para bombardear uma casa para matar um personagem menor” foi visto como uma admissão do massacre de civis em Gaza, por Israel.

Luz verde para alvos de alto nível com até 100 vítimas civis

Fontes indicaram que foi permitido um máximo de “20 vítimas civis” na operação contra um “suspeito” de baixo escalão, e que este número foi frequentemente aumentado e diminuído durante o processo, chamando a atenção para o facto de que o “princípio da proporcionalidade” não foi aplicado. Por outro lado, foi afirmado que o número em questão subia para 100, quando se tratava de alvos de alto nível. As mesmas fontes disseram que receberam ordens de “bombardear onde pudessem” e acrescentaram: “Os altos funcionários estavam em estado de histeria. Eles não sabiam como reagir. Tudo o que sabiam era que tinham de bombardear como loucos para limitar as capacidades do Hamas”. “B.”, um militar de alta patente que usou o “Lavender”, afirma que o programa tem uma “margem de erro de cerca de 10%” e que não precisa ser verificado por humanos para evitar perdas de tempo.

Uma pessoa que levava o telefone, identificado como alvo, foi bombardeada juntamente com a sua família

Quando a definição de membro do Hamas foi alargada, a aplicação começou a visar todos os tipos de membros da proteção civil e agentes da polícia. Mesmo que estas pessoas estivessem a ajudar o Hamas, não estavam realmente a pôr em perigo os soldados israelitas”. Destacando as deficiências do sistema, “B.” disse: “Se o alvo desse o seu telefone a outra pessoa, essa pessoa seria bombardeada na sua casa com toda a sua família. Isso aconteceu com muita frequência. Este foi um dos erros mais frequentes do Lavender”.

A maioria dos mortos eram mulheres e crianças

Por outro lado, outro software chamado “Onde está o papai?” rastreia milhares de pessoas simultaneamente e notifica as autoridades israelitas quando elas entram em casa. As casas das pessoas visadas foram bombardeadas usando este software: “Digamos que você calcule que há um membro do Hamas e 10 civis numa casa, geralmente essas 10 pessoas são mulheres e crianças. Portanto, a maioria das pessoas que você mata são mulheres e crianças”.

Este sistema também apresenta erros de cálculo, como explica uma das fontes: “Na maioria das vezes, a pessoa visada nem está na casa que bombardeámos. Portanto, estávamos a matar uma família para nada”.

Bombas não guiadas são usadas para economizar dinheiro

As fontes também disseram que pessoas de baixo escalão foram alvo de “bombas não guiadas” em vez de “bombas inteligentes guiadas”, a fim de “economizar armas caras”, causando muitas vítimas civis à medida que edifícios localizados dentro e ao redor da pessoa visada eram destruídos.

Sobre o uso de bombas não guiadas, uma das fontes disse: “Costumamos realizar ataques com bombas não guiadas, o que significa literalmente a destruição de toda a casa e do seu conteúdo. Por causa deste sistema, os alvos continuam a multiplicar-se”.

A inteligência artificial é usada para encontrar mais alvos, não para reduzir as vítimas civis

Em declarações à Al Jazeera, o professor Marc Owen Jones, que trabalha em estudos do Médio Oriente e humanidades digitais na Universidade Hamid bin Khalifa, no Qatar, disse: “Está a tornar-se cada vez mais claro que Israel utiliza sistemas de inteligência artificial não testados, que não foram avaliados de forma transparente, para ajudar na tomada de decisões sobre a vida dos civis”. Sugerindo que as autoridades israelitas – quando usam sistemas de inteligência artificial delegam a seleção de alvos na inteligência artificial e usam o sistema para “evitar a responsabilidade moral ” -, Jones afirmou que o sistema é usado “para encontrar mais alvos, e não para reduzir o número de vítimas civis”. Alegando que mesmo os responsáveis ​​que operam o sistema veem a inteligência artificial como uma “máquina de matar”, Jones sublinhou que é pouco provável que Israel acabe com a utilização de inteligência artificial em ataques, a menos que “os seus aliados pressionem muito”.Descrevendo o incidente como um genocídio assistido por IA, Jones acredita que “deveria ser discutida e negociada uma moratória sobre o uso de inteligência artificial em guerras”.

“Habsora” (O Evangelho)

Num outro estudo publicado a 1 de Dezembro de 2023, afirma-se que o exército israelita utilizou a aplicação de inteligência artificial chamada “Habsora” (O Evangelho), que é utilizada para identificar alvos durante os seus ataques contra a Faixa de Gaza, para atacar deliberadamente infraestruturas civis, e que sabe sempre quantos civis morrerão nos ataques contra os alvos gerados automaticamente pela aplicação. Enquanto o “Habsora” tem como alvo edifícios e estruturas, o Lavender tem como alvo indivíduos.

Fonte aqui.


Gosta da Estátua de Sal? Click aqui.

ChatGPT

(Raquel Varela, in raquelcardeiravarela.wordpress.com, 07/02/2023)

(Para saber em pormenor o que é o ChatGPT ver aqui).


Estou tranquila com o ChatGPT. Já explicarei porquê, no fim. Primeiro o horror e o pavor. O ChatGPT é a divisão sócio-técnica do trabalho que caracteriza o capitalismo (parcelar em tarefas simples o trabalho, para aumentar a quantidade produzida) a chegar às letras e à criação artística, que deixará de ser letras e arte, passará a ser standartizada. Em vez de mais gente a saber escrever vamos ter menos gente a saber escrever e a maioria dos textos e desenhos vão ser todos iguais. Professores, jornalistas, escritores, guionistas, tradutores, designers, arquitectos, todos a serem substituídos por máquinas.

No século XIX um sapateiro tinha uma oficina com centenas (sim, podia ser mais de uma centena) de instrumentos para fazer sapatos, era um artista. Cada sapato era uma obra, de alta qualidade, feita para aquele pé. Foi substituído por um designer que faz sapatos e milhões de operários que operam: colocam solas, cosem, colam, cortam, cada um faz a sua tarefa, estupidificante, de forma repetitiva. São de má qualidade e duram pouco mas são triliões de sapatos. Porque as máquinas que os fazem nunca conseguiram fazer melhor do que uma obra de um artista/sapateiro. A maioria dos operários de sapatos hoje não faz a mais pequena ideia de como se faz um sapato. Em breve assim será com os designers, não saberão desenhar. Porque agora este rumo chegou aos textos.

Mas não foi de agora: escrever e ler, que são a mesma actividade, exige uma educação intelectual exigente, que desenvolve o nosso cérebro e uma autodisciplina muito difícil de adquirir – tem sido substituída nas ultimas 3 décadas pelo empobrecimento dos currículos na escola, substituição da leitura pelo ecrã, substituição do ensino lento e complexo da leitura pelo ensino repetitivo de pequenos textos; substituição do jornalismo porque corta e cola; temos hoje teses de mestrado que antigamente eram trabalhos de disciplina; quilos de livros vazios; séries cujos guiões se repetem ad nauseum; professores que se limitam a repetir o que está no manual, cada vez mais fácil e repetitivo; agora com os telemóveis basta mandar um emoticon. É por isso que quando lemos os textos do ChatGPT aquilo nem parece mau – aquilo repete o mau que estava a ser feito há décadas. O ChatGPT vai fazer milhões de textos iguais, como os móveis da Ikea, e a roupa made in China.

Porque não tenho grande angustia? Digamos que eu tenho com o capitalismo uma relação pacífica – é um sistema paranóico, irracional, de criar infelizes, que gera o seu antagonista, a classe trabalhadora, nós, gente com uma capacidade única de mudar o rumo da história. Ciclicamente os operários mais estupidificados, padronizados, ignorantes, se rebelam com uma grandeza tal, e a sua força, concentrada é tal, que mudam o mundo e param a marcha da desordem. Cada um destes operários – das fábricas, professores, designers – individualmente pode ser tão desinteressante como o trabalho alienado e vazio que faz, mas em conjunto a lutar fazem o que o mais brilhante dos intelectuais não é capaz de fazer. As melhores artes, direitos, vanguardas científicas nasceram das revoluções. Por isso não percebo o medo de greves e os apelos à estabilidade, quando o que a sociedade precisa é de uma rotundo Não, um divórcio urgente, uma ruptura completa com um modus operandi sociopata.

E caótico. Sim – a estabilidade é o caos. É um casamento de violência que se mantém porque se acha que o divórcio é uma desordem. Ora o divórcio é a libertação do caos.

O ChatGTP é o caminho para a completa proletarização dos sectores médios, mas também os coloca na situação objectiva de serem obrigados a fazerem parte da luta contra essa proletarização. Compreenderem finalmente que a única coisa boa em fazer parte da classe trabalhadora é a capacidade de lutar para sair da classe trabalhadora.

As revoluções nunca foram defendidas pelos revolucionários para gerar o caos e levar a classe trabalhadora ao poder, mas para acabar com as classes sociais, e com o poder, e começar a criar uma sociedade de trabalho livre, criativo, humanizado, sem classes. Marx aliás tinha esta bela ideia – a emancipação da classe trabalhadora vai emancipar a classe burguesa, que vive enredada em desejo paranóico de poder, lutas de heranças, raiva e medo, a competição torna-os cínicos, e desumanos. Libertava o oprimido e o opressor.

O ChatGPT não é nem inteligente, nem artificial, é concentração de trabalho vivo em trabalho morto num mundo de zombies. Ou seja, ele é o que os seres humanos põem lá, se os seres humanos que lá põem alguma coisa são cada vez menos, o ChatGPT vai-nos oferecer o que já temos hoje mas numa escala maior: todos os canais de TV são iguais, os jornais têm textos idênticos, os prédios são iguais, a roupa é igual, as casas são decoradas da mesma forma, a música é igual.

Por isso a grande questão revolucionária é e sempre foi a mesma – como construir uma sociedade onde o trabalho é emancipado e não padronizado? Essa é a ideia socialista (nada a ver com o PS ou com a URSS). A ideia socialista é a projecção de futuro de que o bem comum (comunismo é o comum) assegurado, em cooperação, nos liberta para o trabalho criativo. E o trabalho criativo é o único reino da liberdade e do desenvolvimento pleno do indivíduo. Nunca como hoje foi uma questão tão importante e actual.

Gosta da Estátua de Sal? Click aqui.