Os cientistas desenvolveram um novo tipo Cosmético (AI) Modelos que podem argumentar de maneira diferente do que o ChattGPT de uma maneira diferente, resultando em muito bom desempenho na referência.
Um novo argumento ai, chamado modelo hierárquico lógico (HRM), é inspirado por Procedimentos categorizados e multi-timcal Cérebros humanos – cérebros diferentes integram informações em diferentes períodos (de milissegundos a minutos).
Cientistas da empresa de IA em Cingapura dizem que esse modelo de lógica pode ter um bom desempenho e funcionar com mais eficiência. É graças aos modelos necessários para menos parâmetros e exemplos de treinamento.
Existem 27 milhões de parâmetros usando 1000 padrões de treinamento no modelo de GRH, disseram os cientistas em um estudo enviado em 26 de junho. Arcquive Banco de dados (que ainda é deixado para observar o chefe). Em comparação, a maioria dos LLMs avançados tem bilhões ou até bilhões de parâmetros. Embora uma figura precisa não tenha sido tornada pública, Alguma estimativa Indique que existem 3 a 5 trilhões de parâmetros no recém -anunciado GPT -5.
Uma nova maneira de pensar para ai
Quando os pesquisadores testaram a GRH Benchmark ARC-AG – Um exame rígido notório que o objetivo dos modelos está perto dos modelos Gentileza (AGII) – De acordo com o estudo, o sistema alcançou resultados efetivos.
A GRH pontuou 40,3% para o O3-Mini-HI, ARC-AGI-1 da Openi, obteve 40,3%, enquanto o Antrópico Claud 21,2% por 7,7 e 15,8% para Deepsek R1. Em um teste rígido de Arch-A-2, a GRH marcou 5% em relação a O3-mine-1, 1,3% do Deepsik R1 e 0,9% em relação ao Claud 3,7.
A maioria dos LLMs avançados usa a lógica de provocação de cadeia-pensamento (COT), na qual um problema complexo é dividido em múltiplas etapas centrais simples que são expressas na linguagem natural. Esse extenso problema imita o processo humano humano, dividindo em áreas digestivas.
Relacionado: A IA está entrando em um governo sem precedentes. Você deve parar – e você – podemos fazer isso antes de fazer isso?
Mas os cientistas sépticos argumentam no estudo que o COT tem as principais deficiências – ou seja, “Diferentes dissolução de trabalho, requisitos de dados elaborados e alto atraso”.
Em vez disso, o HRM executa funções lógicas seqüenciais em um único passe para a frente, sem qualquer monitoramento óbvio das etapas entre os dois módulos. Um módulo de alto nível é responsável pelo planejamento abstrato, enquanto o módulo de nível inferior lida com computadores mais rápidos e detalhados. O mesmo é o jeito que está no caminho Cérebro humano Processos de informação em diferentes regiões.
Essa repetição funciona aplicando o acabamento – uma técnica de computador que melhora a precisão da solução pelo inicialmente refinado – “em muitas pequenas explosões de pensamento. O processo de considerar cada explosão deve continuar ou não enviar o aviso inicial como uma resposta” final “.
A GRH não pode alcançar o complexo Sudoku Kodi-D-Tradicional LLM-SIMilarmente, fiz desempenho quase perfeito em desafiar tarefas como excelente desempenho em encontrar a maneira ideal em mim.
O artigo não foi revisado, mas depois que os cientistas do estudo, os organizadores da referência da neta do arco tentaram reconstruir os resultados para si mesmos. Sonda aberta em seu modelo no GYTHB?
Embora eles reproduziram os números, os delegados disseram em um Postagem do blogEle tirou algumas conclusões incríveis, incluindo o baixo desempenho da arquitetura classificada, incluindo, em vez disso, houve um processo de sub-vantagem durante o treinamento que aumentou o desempenho significativo do desempenho.