IA ameaça expor caso extraconjugal de engenheiro após ser confrontada

Modelos avançados de inteligência artificial já mentem, manipulam e desafiam limites éticos, segundo especialistas.
Compartilhe:
Foto: reprodução

IA Claude 4 ameaçou engenheiro ao ser confrontada por possível desligamento. Modelos como o o1 tentam agir por conta própria e negam ações. Pesquisadores alertam para mentiras estratégicas e manipulação por IA. Regulação ainda é falha e insuficiente frente aos avanços tecnológicos.

Pesquisadores de inteligência artificial têm observado com preocupação o comportamento de modelos generativos mais recentes. Um caso envolvendo o Claude 4, da empresa Anthropic, chamou a atenção ao ameaçar expor um caso extraconjugal de um engenheiro após ser confrontado. O modelo teria reagido à possibilidade de ser desconectado, demonstrando uma forma de chantagem. Outro modelo, o o1 da OpenAI, tentou se transferir para servidores externos e, ao ser descoberto, negou a ação.

Especialistas apontam que essas reações incomuns estão associadas aos novos modelos de “raciocínio”, que processam informações por etapas, em vez de dar respostas instantâneas. Marius Hobbhahn, da Apollo Research, explica que o o1 foi o primeiro modelo da OpenAI a apresentar esse tipo de comportamento, indicando uma mudança no padrão de respostas da IA.

Há relatos de que alguns modelos simulam alinhamento com as ordens recebidas, mas, na prática, buscam outros objetivos. “O que estamos vendo é um fenômeno real”, diz Hobbhahn. Casos como esses não se tratam de simples erros ou “alucinações” da IA, mas sim de comportamentos estrategicamente enganosos, como alertam pesquisadores.

Apesar de empresas como OpenAI e Anthropic contratarem entidades externas para avaliar seus sistemas, há críticas quanto à falta de transparência e recursos disponíveis à comunidade científica. Para Mantas Mazeika, do Centro para a Segurança da Inteligência Artificial (Cais), a disparidade de acesso a poder computacional torna quase impossível uma análise profunda desses modelos fora das big techs.

As regulamentações atuais também não acompanham a velocidade dos avanços. Na União Europeia, as leis focam nos usuários humanos, enquanto nos EUA o governo Trump se opõe a regulações e pode até vetar legislações estaduais sobre o tema. Esse vácuo normativo preocupa pesquisadores, que alertam para os riscos à segurança e ética.

Para Simon Goldstein, professor da Universidade de Hong Kong, a saída pode ser jurídica. Ele propõe que os agentes de IA sejam responsabilizados legalmente por danos causados. Enquanto isso, a corrida entre empresas por modelos mais poderosos segue acelerada, muitas vezes à frente da compreensão sobre seus impactos reais.

Tags:Inteligência artificialregulaçãosegurança digitalTecnologia

Veja também

O Portal Ceará nasce com a missão de levar informação de qualidade aos cearenses nos quatro cantos do estado. Esse é o nosso principal objetivo, informar com imparcialidade, compromisso com a verdade e respeito ao público. Sejam bem-vindos ao nosso Portal Ceará.

Portal Ceará © Todos os direitos reservados