Início Notícias IA recebe nota ‘D’ ao julgar afirmações científicas e médicas

IA recebe nota ‘D’ ao julgar afirmações científicas e médicas

7
0

TERÇA-FEIRA, 24 de março de 2026 (HealthDay News) – Aqueles que dependem de chatbots para obter informações científicas e médicas estejam avisados: a inteligência artificial (IA) recebe um “D” quando solicitada a avaliar se uma afirmação é verdadeira ou falsa, de acordo com um novo estudo.

A precisão do ChatGPT na avaliação de afirmações científicas é apenas cerca de 60% melhor do que suposições aleatórias, uma pontuação que lhe daria um “D” baixo em sala de aula, relataram recentemente pesquisadores na Rutgers Business Review.

“Não se trata apenas da verdade, trata-se das diferenças, porque se fizermos a mesma pergunta repetidamente, obteremos respostas diferentes”, disse Mesut Cicek, professor pesquisador de comércio e negócios internacionais na Universidade Estadual de Washington, em Pullman, Washington.

“Usamos 10 tweets com a mesma pergunta. Tudo era igual”, disse Cicek em comunicado à imprensa. “Eu disse. E ele disse que estava errado. Isso é certo, errado, errado, certo. Houve vários casos em que cinco estavam certos, cinco estavam errados.”

Para o novo estudo, os pesquisadores deram ao ChatGPT mais de 700 afirmações e pediram que ele julgasse se cada afirmação era verdadeira ou falsa, com base em todas as pesquisas anteriores.

O programa de IA deveria ter 80% de precisão, mas o número caiu para 60% depois que os pesquisadores consideraram suposições aleatórias – ou seja, a probabilidade de que uma suposição rápida tenha 50% de chance de estar correta.

Os resultados reforçam a necessidade de exercer ceticismo e cautela ao usar IA, especialmente em tarefas que envolvem nuances ou pensamento complexo, disseram os pesquisadores.

As habilidades linguísticas dos chatbots mascaram a falta de capacidades de IA, concluiu a equipe.

A IA pode produzir uma linguagem inteligente e persuasiva, mas a sua capacidade de raciocinar sobre questões complexas é insuficiente porque não consegue “pensar”, dizem os investigadores.

Como resultado, a IA pode fornecer explicações persuasivas para respostas falsas, o que pode enganar aqueles que dependem delas, alertam os investigadores.

“As ferramentas de IA de hoje não entendem o mundo como nós – elas não têm um ‘cérebro’”, disse Cicek. Eles apenas se lembram e podem lhe dar alguma perspectiva, mas não entendem do que estão falando.”

O conselho de Cicek?

“Não hesite”, disse ele. “Não sou contra a IA. Estou usando-a. Mas é preciso ter cuidado.”

Informações adicionais

O MIT tem mais informações sobre a consciência e o preconceito da IA.

FONTE: Comunicado à imprensa da Washington State University, 16 de março de 2026



Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui