Las Iromucinações Na inteligência, a inteligência não publica respostas injustas, mas faz o mesmo com uma confiança tão persuadida que eles podem orientar os usuários a acreditar em informações falsas. Esse problema atraiu a atenção da tecnologia como resultado pode levar a confiança e uso ético de IA.
Openmenei emitiu um relatório do blog que inclui razões técnicas e estatísticas por trás desse incidente, bem como a ação aplicada para reduzi -lo, especialmente no desenvolvimento de GPT-5.
O relatório de Abrir Ele sustenta que a fraqueza da IA na IA é um fracasso inevitável, mas diretamente impacto nas maneiras da linguagem. Segundo a empresa, “Pressão estatística” durante o treinamento e avaliação, motiva o padrão a fornecer feedback, mesmo que não seja seguro.
O documento mostra à analogia: mas não para selecionar a melhor opção, faça “como um aluno” como a pergunta difícil de um aluno, mesmo que não saiba a resposta para ter sucesso.
No domínio pré-treinamento, Ai aprende a lingüística ao vivo de muitos trabalhos “verdadeiros”Mas com um exemplo poderoso na linguagem. Portanto, embora exista uma fonte de alta qualidade, os estágios estatísticos podem enviar um erro e, sem a mecânica para saber a dúvida, o modelo está optando por produzir uma quase obrigada.
O OpenAI oferece uma solução para aliviar esse comportamento no treinamento: inclui aula binária chamada “IS-ID-ID-“? “).”). “).”). “).”). “).”). “).”). “).”). “).”). “).”). “).”). “).”). “).”). “).”). “).”). “).”). “).”). “).”). “).”). “). Este sistema treina o modelo de separar as respostas corretas e falsas, que aumentarão o sistema para eleger a” corrupção “quando não forem informações suficientes para publicar respostas confiáveis.
Se GPT-5O aprendizado contém três categorias para respostas: direto, falha e não seguro, aumentando a “humildade” no comportamento do modelo.
De acordo com os dados do OpenI, o GPT-5 recusou as taxas no teste interno do argumento regular (52%) mais do que as iterações anteriores, como O4-mini (1%). Embora o O4-mini seja um pouco melhor na resposta correta, é pior na taxa de erro.
O documento também alerta o caminho benchmarks Cartões técnicos e técnicos para os modelos (cartão de modelo) fornecem prioridades especiais sobre a porcentagem da resposta correta. Este procedimento obtém sucesso, mas a alucinação invisível.

Como resultado, a indústria deve se concentrar na correção, pois a situação deve uma resposta à resposta “Não sei” Eles foram enviados novamente, continuam o problema com falsificação, mas como uma resposta válida.
A análise do OpenAI explica que a prevenção da alucinação requer mudança de uma maneira em que o sistema esteja inteligência artificial. Inclui mecânicos que permitem que o modelo identifique suas limitações e as limitações, como “-id-id-id”, é um passo para o estabelecimento do sistema bom e seguro.
Embora o progresso como progresso no GPT-5 enfatize a necessidade de os padrões técnicos e técnicos lidar com humildade e desigualdades, para que eles não conheçam os erros bons, mas perigosos.















