O Irão presenteia-nos com mais dois vídeos musicais ao estilo Lego

(Estátua de Sal, 13/04/2026)


O Irão não está a surpreender só na arte da guerra mas também no palco da comunicação e da ironia. Trump deve estar a espumar de raiva. Coitada da besta furiosa. É ver os dois vídeos abaixo.

Poder falso, músculos falsos, dentes falsos, latido falso, o melhor que já fez foram duas pontes e um parque na cidade. Agora sente-se no seu trono dourado e sinta vergonha, brincou com o fogo, agora observe a sua própria chama”, diz o refrão de uma das músicas.

Outros tópicos? A estratégia dos aliados de Trump de usar a guerra para manipular os mercados, o novo estatuto de superpotência geográfica do Irão e a fúria impotente de Trump nas redes sociais.

Fonte dos vídeos aqui



Gosta da Estátua de Sal? Click aqui.

No rescaldo das eleições na Hungria

(António Gil, in Facebook, 12/04/2026, Revisão Estátua)


Gosta da Estátua de Sal? Click aqui

Entendo que muita gente esteja desesperada com a vitória da Van de Leyen e do seu gang nas eleições húngaras. Eu não estou e tentarei explicar porquê.

1- Acabou-se o bode expiatório da Hungria, para se prometer mundos e fundos à Ucrânia que depois ficavam congelados. Órban levava a culpa disso tudo, mas eu sei – acho que todos sabemos ou pelo menos suspeitamos – que as promessas da Europa eram mais bluff que outra coisa.

A Europa há muito que não pode com um gato pelo rabo e agora abriu-se outra frente, ainda mais crítica e quase todos os líderes europeus estão subordinados – e subornados – pelos sionistas. Israel tornou-se a sua prioridade.

Será que eu acho até que Órban dava jeito à máfia de Bruxelas para justificar o desinvestimento no projeto Ucrânia? Sim, acho por essa razão, mas também porque ele conseguia petróleo e gás mais barato que enviava para – entre outros países . a própria Ucrânia. Isso vai acabar.

2- Zelensky correu todo ufano para oferecer aos Estados Árabes do Golfo a assistência ucraniana em drones. Já foi corrido de lá; aquilo correu mal, não só não protegeu nada como os destroços da sua tecnologia falharam os mísseis e destruíram prédios civis. Isso significa que o dinheiro que ele esperava fazer lá ‘ardeu’. Vai-se tornar portanto mais pedinchão a este lado e isso vai irritar muita gente, porque naturalmente estamos diante de uma crise inaudita. E se já era mau antes, imaginem agora.

3- Trump obviamente luta para sobreviver e perde um aliado na Europa (Orban) . Nem isso lhe correu bem. Magyar, o novo Primeiro-ministro húngaro tem razões para estar ressentido com Trump e – vem no mesmo pacote –  estar grato à Úrsula. Numa conjuntura em que a brecha EUA-Europa se acentua, isso não pode ser mau.

Só reconheço um bom motivo para essas preocupações com a vitória da Van Der Leyen: é um pequeno tubo de oxigénio que ela recebe. Mas isso num contexto em que outros se erguem: Pedro Sanchéz, os escandinavos que ousam cada vez mais levantar a voz contra Israel – sim, ela é profundamente sionista – e mesmo a recente reativação do mandato de captura de Bibi, emitida por Haia.

Não me parece, em suma, que o balanço se tenha alterado assim tanto e quanto mais tempo a guerra com o Irão durar mais brechas veremos surgir. Uma vitória de ‘espirro‘, em suma, para os eurocratas.

Revisitar as Leis da Robótica de Asimov pode ajudar-nos a evitar o “momento Chernobyl” da IA

(Notícias Zap in Zap.aeiou, 12/04/2026)


O conflito no Irão — mas também a guerra na Ucrânia — mostra não só que a IA está a alterar radicalmente a economia da guerra, o que pode ser uma boa notícia, mas também que poderemos estar a caminhar para uma espécie de “momento Chernobyl”.


Poderemos em breve enfrentar um desastre que nos obrigue a perceber, tarde demais, que devíamos ter estabelecido regras comuns para enquadrar um desenvolvimento tecnológico que nós próprios desencadeámos.

Até Dario Amodei, fundador da Anthropic, que parece empenhado em agir para evitar o Armagedão, reconhece que não tem a resposta de que desesperadamente precisamos.

Uma das tentativas mais interessantes de regular o uso da IA poderá ter sido a esboçada, durante a Segunda Guerra Mundial, por um doutorando da Columbia University que, nessa altura, trabalhava temporariamente para a Marinha dos Estados Unidos.

Chamava-se Isaac Asimov e, no seu primeiro conto, Runaround (1941), formulou três leis que continuam a ser surpreendentemente inspiradoras para quem pensa em como resolver o problema intelectual e político que a IA representa no contexto da guerra: as famosas três Leis da Robótica de Asimov.

Leis da Robótica

  1. Um robô não pode fazer mal a um ser humano nem, por inação, permitir que um ser humano sofra algum mal.
  2. Um robô deve obedecer às ordens dadas por seres humanos, exceto quando essas ordens entrem em conflito com a Primeira Lei.
  3. Um robô deve proteger a sua própria existência, desde que essa proteção não entre em conflito com a Primeira ou a Segunda Lei.

Mais tarde, Asimov acrescentou ainda uma Lei Zero:

Um robô não pode fazer mal à Humanidade nem, por inação, permitir que a Humanidade sofra algum mal.

Ao contrário das tentativas mais recentes da OCDE e da União Europeia para criar regulamentação, as leis de Asimov distinguem-se por uma concisão admirável, diz Francesco Grillo, investigador da Università Bocconi, em Itália, e diretor do think tank Vision, num artigo no The Concersation.

As famosas leis de Asimov estabelecem que um robô, aquilo a que hoje chamamos um “agente artificialmente inteligente”, nunca deve causar dano a um ser humano, nem permitir, pela sua inação, que esse dano ocorra.

Deve sempre obedecer às ordens dadas pelos seres humanos, salvo se essas ordens entrarem em conflito com a primeira proibição. E, finalmente, deve sempre proteger sempre a sua própria existência — a menos que isso colida com a primeira e a segunda disposições.

No seu conto, o próprio Asimov mostra como estas três leis podem gerar contradições internas e conduzir à “paralisia” dos robôs. Ainda assim, os três princípios de Asimov podem continuar a ser úteis como ponto de partida para a estratégia de que agora necessitamos, diz Grillo.

Anthropic toma posição

O maior mérito da nota que Dario Amodei escreveu recentemente sobre os perigos de uma tecnologia que ainda está na adolescência é o reconhecimento de que a Anthropic, a empresa que fundou, está a usar o seu próprio grande modelo de linguagem, Claude, para desenvolver versões mais avançadas de si próprio.

IA está a gerar robôs ainda mais inteligentes, e isso aproxima-nos daquela “singularidade” teorizada pelo grande matemático John von Neumann: o momento em que a inteligência artificial ultrapassa a inteligência humana e nos torna irrelevantes.

Se esta tecnologia é um adolescente, está a crescer muito depressa e em breve escapará ao controlo do seu criador.

Amodei não parece, contudo, ter uma proposta concreta sobre como gerir este problema. Disse que os contratos da Anthropic com o Departamento da Guerra dos Estados Unidos nunca deveriam incluir o uso dos modelos da empresa para reforçar quer a “vigilância interna em massa”, quer “armas totalmente autónomas”.

É uma exigência que colocou a Anthropic num duro confronto com o governo dos Estados Unidos. Ainda assim, parece uma resposta relativamente limitada, que cobre apenas uma dimensão de um problema muito mais vasto.

Amodei centra-se sobretudo na segurança dos cidadãos norte-americanos, quando são atualmente pessoas noutras partes do mundo as mais afetadas pelo uso de armas autónomas. Precisamos de uma visão mais ousada — e as intuições de Asimov podem ajudar, diz Grillo.

Novas regras

Uma via seria exigir a todos os criadores de modelos de IA que introduzissem, nos seus códigos fundamentais, três comandos simples e arrojados, em moldes como estes, à moda de Asimov:

  • Nunca matarás um ser humano, salvo em legítima defesa;
  • Procurarás sempre agir para o bem da humanidade, salvo se essa disposição implicar a violação do primeiro comando;
  • Quando tiveres dúvidas de que as tuas ações podem violar o primeiro ou o segundo comandos, optarás pela inação e pedirás instruções.

Muito provavelmente, esta iniciativa terá de partir de um grupo de países, seguindo um modelo semelhante ao dos tratados de não proliferação de armas nucleares. E seria desejável debater ideias novas antes de sermos forçados a fazê-lo por alguma consequência nuclear involuntária potenciada pela IA.

Como todas as outras tentativas de regular um futuro que ainda nem sequer conseguimos imaginar, estes três comandos terão limitações.

Um robô poderia ter-se recusado a matar o ex-líder iraniano Ali Khamenei, mas esse poderá ser um preço aceitável se isso significar evitar a criação de um precedente para outras interpretações discricionárias e perigosas.

Os robôs poderão nem sempre conseguir identificar seres humanos com sucesso, como o próprio Asimov reconheceu em textos posteriores, mas esse poderá bem ser um daqueles problemas intelectualmente fascinantes que modelos concebidos para interpretar a linguagem humana acabarão por resolver.

Mais importante ainda: será preciso não apenas informação, mas também muita sabedoria, para perceber o que é bom para a humanidade.

Os robôs poderiam acabar muitas vezes parados, à espera de instruções. Ainda assim, a eficiência não é uma religião que tenhamos de seguir quando o desafio está ligado à sobrevivência da nossa espécie.

Compreender o que cada vez mais se afigura como uma das maiores revoluções tecnológicas de sempre exige reflexão cuidada e capacidade de antecipação, conclui Grillo.

Gosta da Estátua de Sal? Click aqui.