31.8 C
São Paulo
quarta-feira, fevereiro 19, 2025

Deepfakes superam ciberataques como principal uso malicioso de IA

Leia mais

 

A criação de deepfakes, que imitam políticos e celebridades, tornou-se o uso mais prevalente de inteligência artificial (IA) para fins maliciosos, superando até mesmo os ataques cibernéticos. É o que revela uma pesquisa inédita da DeepMind, divisão do Google, sobre os usos mais comuns e criminosos dessa tecnologia avançada.

O estudo aponta que a produção de imagens, vídeos e áudios falsos, mas convincentes, de indivíduos é quase duas vezes mais comum do que a manipulação de informações usando ferramentas de IA baseadas em texto, como chatbots, para disseminar desinformação online.

A análise, conduzida em parceria com a unidade de pesquisa e desenvolvimento Jigsaw do Google, descobriu que 27% dos casos de uso malicioso de IA visam influenciar a opinião pública. Esse dado aumenta os temores sobre o impacto potencial dos deepfakes nas eleições globais deste ano.

++ Startup de cupertino desafia o domínio da Nvidia no mercado de chips de IA

Apesar dos esforços das plataformas de mídia social para identificar e remover esse tipo de conteúdo, há uma preocupação crescente de que o público possa não reconhecer essas falsificações, permitindo que influenciem eleitores de forma significativa.

Este estudo, o primeiro de seu tipo realizado pela DeepMind sob a liderança de Demis Hassabis, quantifica os riscos associados ao uso de ferramentas de IA generativa. Empresas de tecnologia em todo o mundo estão lançando essas ferramentas ao público em busca de lucros substanciais, mas a monitorização de desinformação e outros conteúdos prejudiciais criados por IA se torna cada vez mais crucial.

Em maio, a OpenAI divulgou uma pesquisa mostrando que operações vinculadas a países como Rússia, China, Irã e Israel estavam usando suas ferramentas para criar e espalhar desinformação. Nahema Marchal, autora principal do estudo da DeepMind, comentou ao Financial Times que, apesar das preocupações com ataques cibernéticos sofisticados facilitados por IA, o uso indevido mais comum que observaram foram deepfakes que podem passar despercebidos com maior facilidade.

++China atinge marco com mais de 4,5 mil empresas de inteligência artificial

Os pesquisadores da DeepMind e da Jigsaw analisaram cerca de 200 incidentes de uso indevido de IA entre janeiro de 2023 e março de 2024, coletados de plataformas de mídia social como X (antigo Twitter) e Reddit, além de blogs e relatos da mídia.

A segunda motivação mais comum para o uso indevido de IA era a obtenção de lucro, seja oferecendo serviços de criação de deepfakes, incluindo a geração de imagens nuas de pessoas reais, ou usando IA para criar grandes volumes de conteúdo, como notícias falsas.

A pesquisa concluiu que a maioria dos incidentes envolve ferramentas facilmente acessíveis, “requerendo mínima expertise técnica”, o que permite que mais agentes mal-intencionados usem a IA generativa de forma indevida. Os resultados deste estudo influenciarão a forma como o Google aprimora suas avaliações de segurança dos modelos e devem impactar também a visão de concorrentes e outras partes interessadas sobre os danos causados pela IA.

Não deixe de nos seguir no Instagram para mais notícias da Pardal Tech

- Advertisement -spot_img
- Advertisement -spot_img

Últimas notícias