19.4 C
São Paulo
segunda-feira, janeiro 13, 2025

Estudo revela que IAs mais avançadas estão mais propensas a dar respostas falsas

Leia mais

Conforme as inteligências artificiais se tornam mais sofisticadas e semelhantes ao comportamento humano, um novo problema tem surgido: elas se mostram mais propensas a fornecer respostas incorretas. Um estudo recente, publicado na revista Nature, destaca que modelos de IA como o GPT da OpenAI, o LLaMA da Meta e o BLOOM da BigScience podem fornecer informações erradas de maneira convincente.

++ Toyota convoca proprietários para recall de “airbags mortais” em modelos fabricados entre 2002 e 2017

José Hernández-Orallo, coautor do estudo e pesquisador no Instituto Valenciano de Pesquisa em Inteligência Artificial, explicou que a crescente capacidade dessas IAs de simular conhecimento muitas vezes as leva a “inventar” respostas quando faltam informações precisas. Segundo ele, essa tendência de oferecer respostas aparentando segurança torna os erros mais difíceis de detectar e pode comprometer a confiança dos usuários, uma vez que os modelos chegam a apresentar um nível de acerto de apenas 60% em questões simples.

++ ChatGPT lança mecanismo de busca para concorrer com Google: descubra como funciona

Os pesquisadores sugerem que uma possível solução seria programar as IAs para não responderem quando houver incerteza, em vez de arriscar fornecer informações imprecisas. No entanto, essa abordagem traz desafios para o mercado, pois sistemas que admitem “não saber” podem ser vistos como menos competitivos.

Não deixe de nos seguir no Instagram para mais notícias da Pardal Tech

- Advertisement -spot_img
- Advertisement -spot_img

Últimas notícias