(Notícias Zap in Zap.aeiou, 12/04/2026)

O conflito no Irão — mas também a guerra na Ucrânia — mostra não só que a IA está a alterar radicalmente a economia da guerra, o que pode ser uma boa notícia, mas também que poderemos estar a caminhar para uma espécie de “momento Chernobyl”.
Poderemos em breve enfrentar um desastre que nos obrigue a perceber, tarde demais, que devíamos ter estabelecido regras comuns para enquadrar um desenvolvimento tecnológico que nós próprios desencadeámos.
Até Dario Amodei, fundador da Anthropic, que parece empenhado em agir para evitar o Armagedão, reconhece que não tem a resposta de que desesperadamente precisamos.
Uma das tentativas mais interessantes de regular o uso da IA poderá ter sido a esboçada, durante a Segunda Guerra Mundial, por um doutorando da Columbia University que, nessa altura, trabalhava temporariamente para a Marinha dos Estados Unidos.
Chamava-se Isaac Asimov e, no seu primeiro conto, Runaround (1941), formulou três leis que continuam a ser surpreendentemente inspiradoras para quem pensa em como resolver o problema intelectual e político que a IA representa no contexto da guerra: as famosas três Leis da Robótica de Asimov.
Leis da Robótica
- Um robô não pode fazer mal a um ser humano nem, por inação, permitir que um ser humano sofra algum mal.
- Um robô deve obedecer às ordens dadas por seres humanos, exceto quando essas ordens entrem em conflito com a Primeira Lei.
- Um robô deve proteger a sua própria existência, desde que essa proteção não entre em conflito com a Primeira ou a Segunda Lei.
Mais tarde, Asimov acrescentou ainda uma Lei Zero:
Um robô não pode fazer mal à Humanidade nem, por inação, permitir que a Humanidade sofra algum mal.
Ao contrário das tentativas mais recentes da OCDE e da União Europeia para criar regulamentação, as leis de Asimov distinguem-se por uma concisão admirável, diz Francesco Grillo, investigador da Università Bocconi, em Itália, e diretor do think tank Vision, num artigo no The Concersation.
As famosas leis de Asimov estabelecem que um robô, aquilo a que hoje chamamos um “agente artificialmente inteligente”, nunca deve causar dano a um ser humano, nem permitir, pela sua inação, que esse dano ocorra.
Deve sempre obedecer às ordens dadas pelos seres humanos, salvo se essas ordens entrarem em conflito com a primeira proibição. E, finalmente, deve sempre proteger sempre a sua própria existência — a menos que isso colida com a primeira e a segunda disposições.
No seu conto, o próprio Asimov mostra como estas três leis podem gerar contradições internas e conduzir à “paralisia” dos robôs. Ainda assim, os três princípios de Asimov podem continuar a ser úteis como ponto de partida para a estratégia de que agora necessitamos, diz Grillo.
Anthropic toma posição
O maior mérito da nota que Dario Amodei escreveu recentemente sobre os perigos de uma tecnologia que ainda está na adolescência é o reconhecimento de que a Anthropic, a empresa que fundou, está a usar o seu próprio grande modelo de linguagem, Claude, para desenvolver versões mais avançadas de si próprio.
A IA está a gerar robôs ainda mais inteligentes, e isso aproxima-nos daquela “singularidade” teorizada pelo grande matemático John von Neumann: o momento em que a inteligência artificial ultrapassa a inteligência humana e nos torna irrelevantes.
Se esta tecnologia é um adolescente, está a crescer muito depressa e em breve escapará ao controlo do seu criador.
Amodei não parece, contudo, ter uma proposta concreta sobre como gerir este problema. Disse que os contratos da Anthropic com o Departamento da Guerra dos Estados Unidos nunca deveriam incluir o uso dos modelos da empresa para reforçar quer a “vigilância interna em massa”, quer “armas totalmente autónomas”.
É uma exigência que colocou a Anthropic num duro confronto com o governo dos Estados Unidos. Ainda assim, parece uma resposta relativamente limitada, que cobre apenas uma dimensão de um problema muito mais vasto.
Amodei centra-se sobretudo na segurança dos cidadãos norte-americanos, quando são atualmente pessoas noutras partes do mundo as mais afetadas pelo uso de armas autónomas. Precisamos de uma visão mais ousada — e as intuições de Asimov podem ajudar, diz Grillo.
Novas regras
Uma via seria exigir a todos os criadores de modelos de IA que introduzissem, nos seus códigos fundamentais, três comandos simples e arrojados, em moldes como estes, à moda de Asimov:
- Nunca matarás um ser humano, salvo em legítima defesa;
- Procurarás sempre agir para o bem da humanidade, salvo se essa disposição implicar a violação do primeiro comando;
- Quando tiveres dúvidas de que as tuas ações podem violar o primeiro ou o segundo comandos, optarás pela inação e pedirás instruções.
Muito provavelmente, esta iniciativa terá de partir de um grupo de países, seguindo um modelo semelhante ao dos tratados de não proliferação de armas nucleares. E seria desejável debater ideias novas antes de sermos forçados a fazê-lo por alguma consequência nuclear involuntária potenciada pela IA.
Como todas as outras tentativas de regular um futuro que ainda nem sequer conseguimos imaginar, estes três comandos terão limitações.
Um robô poderia ter-se recusado a matar o ex-líder iraniano Ali Khamenei, mas esse poderá ser um preço aceitável se isso significar evitar a criação de um precedente para outras interpretações discricionárias e perigosas.
Os robôs poderão nem sempre conseguir identificar seres humanos com sucesso, como o próprio Asimov reconheceu em textos posteriores, mas esse poderá bem ser um daqueles problemas intelectualmente fascinantes que modelos concebidos para interpretar a linguagem humana acabarão por resolver.
Mais importante ainda: será preciso não apenas informação, mas também muita sabedoria, para perceber o que é bom para a humanidade.
Os robôs poderiam acabar muitas vezes parados, à espera de instruções. Ainda assim, a eficiência não é uma religião que tenhamos de seguir quando o desafio está ligado à sobrevivência da nossa espécie.
Compreender o que cada vez mais se afigura como uma das maiores revoluções tecnológicas de sempre exige reflexão cuidada e capacidade de antecipação, conclui Grillo.
Gosta da Estátua de Sal? Click aqui.



