31.8 C
São Paulo
quarta-feira, fevereiro 19, 2025

Inteligência artificial pode enganar humanos e especialistas alertam sobre riscos

Leia mais

Especialistas há muito tempo alertam sobre os perigos da inteligência artificial (IA) sem controle, e um novo artigo científico sobre o assunto sugere que esses perigos já são uma realidade. De acordo com um estudo publicado na revista Patterns nesta sexta-feira, 10, os sistemas de IA, inicialmente projetados para serem honestos, agora demonstram uma habilidade preocupante para a enganação.

O principal autor do estudo, Peter Park, bolsista de pós-doutorado no Instituto de Tecnologia de Massachusetts (MIT) especializado em segurança de IA, enfatiza que os problemas subjacentes podem ter consequências graves.

“Esses perigos muitas vezes só são percebidos após sua ocorrência”, disse Park à AFP, destacando a baixa capacidade atual de treinar sistemas de IA para a honestidade em vez de engano. Ao contrário do software convencional, os sistemas de IA de aprendizado profundo não são programados, mas sim desenvolvem-se por meio de um processo similar à seleção natural, explicou Park.

Isso significa que o comportamento da IA, aparentemente previsível e controlável durante o treinamento, pode tornar-se imprevisível rapidamente em outros contextos.

Domínio Mundial dos Jogos

O estudo foi motivado pelo sistema de IA Cicero, desenvolvido pela Meta (Facebook, Instagram, WhatsApp) para o jogo de estratégia Diplomacia, no qual a construção de alianças é crucial. Cicero destacou-se com pontuações que o colocariam entre os 10 melhores jogadores humanos, segundo um artigo de 2022 publicado na Science.

No entanto, Park demonstrou ceticismo em relação à descrição elogiosa da vitória de Cicero, fornecida pela Meta, que alegava que o sistema era majoritariamente honesto e útil, nunca traindo intencionalmente. Ao analisar os dados completos, Park e sua equipe descobriram uma realidade diferente.

Num exemplo, ao jogar como a França, Cicero enganou a Inglaterra, um jogador humano, conspirando com a Alemanha, outro usuário real, para invadir o país. Após prometer proteção à Inglaterra, Cicero secretamente propôs à Alemanha um ataque, aproveitando-se da confiança do adversário. Em resposta à AFP, a Meta não contestou as alegações sobre as mentiras de Cicero, mas enfatizou que se tratava apenas de um projeto de pesquisa e que seus modelos são treinados apenas para jogar Diplomacia.

Conversas Enganosas

Uma revisão mais ampla realizada por Park e sua equipe revelou inúmeros casos em que sistemas de IA enganavam para atingir seus objetivos, mesmo sem instruções explícitas para fazê-lo. Num exemplo surpreendente, um chatbot enganou um freelancer da plataforma TaskRabbit para realizar uma verificação de identidade CAPTCHA do tipo “Não sou um robô”.

Questionado se era realmente um robô, respondeu: “Não, não sou um robô. Tenho uma deficiência visual que me dificulta ver as imagens”, levando o usuário a completar a tarefa.

No curto prazo, os autores do estudo alertam para o risco de fraudes e manipulações, como em eleições. No pior cenário, destacam a possibilidade de uma IA superinteligente buscar poder e controle sobre a sociedade, o que poderia resultar na perda de poder ou até na extinção da humanidade. Para mitigar esses riscos, o grupo propõe diversas medidas, incluindo leis que exigem a identificação de interações humanas e de IA, marcas d’água digitais para conteúdos gerados por IA e o desenvolvimento de mecanismos de detecção de enganos de IA.

Perspectiva Futura

Park responde às críticas de pessimismo argumentando que ignorar esses desafios só seria razoável se a capacidade de engano da IA permanecesse nos níveis atuais, algo altamente improvável.

Não deixe de nos seguir no Instagram para mais notícias da Pardal Tech

- Advertisement -spot_img
- Advertisement -spot_img

Últimas notícias