Conforme as inteligências artificiais se tornam mais sofisticadas e semelhantes ao comportamento humano, um novo problema tem surgido: elas se mostram mais propensas a fornecer respostas incorretas. Um estudo recente, publicado na revista Nature, destaca que modelos de IA como o GPT da OpenAI, o LLaMA da Meta e o BLOOM da BigScience podem fornecer informações erradas de maneira convincente.
José Hernández-Orallo, coautor do estudo e pesquisador no Instituto Valenciano de Pesquisa em Inteligência Artificial, explicou que a crescente capacidade dessas IAs de simular conhecimento muitas vezes as leva a “inventar” respostas quando faltam informações precisas. Segundo ele, essa tendência de oferecer respostas aparentando segurança torna os erros mais difíceis de detectar e pode comprometer a confiança dos usuários, uma vez que os modelos chegam a apresentar um nível de acerto de apenas 60% em questões simples.
++ ChatGPT lança mecanismo de busca para concorrer com Google: descubra como funciona
Os pesquisadores sugerem que uma possível solução seria programar as IAs para não responderem quando houver incerteza, em vez de arriscar fornecer informações imprecisas. No entanto, essa abordagem traz desafios para o mercado, pois sistemas que admitem “não saber” podem ser vistos como menos competitivos.
Não deixe de nos seguir no Instagram para mais notícias da Pardal Tech