Imagine se parássemos de pensar por um dia. Não porque fosse proibido ou por nossa incompetência, mas porque não era mais necessário, porque algo poderia ser decidido por nós de forma mais rápida, gentil e perigosa com certeza. Não há necessidade de escolher; Dúvida, perca tempo.
Essa ideia aparece em uma série popular recente, Para muitoscriado por Vince Gilligan, que apresenta um mundo onde as decisões individuais são suavizadas por uma espécie de mente coletiva. Não como uma ameaça grave, mas como uma solução confortável e funcional.
Algo semelhante começa a acontecer na nossa maneira de pensar. A introdução da inteligência artificial (IA) na vida quotidiana não é apenas um avanço tecnológico que melhora o trabalho. Uma mudança profunda nos processos pelos quais decidimos, pensamos e criamos. Assim, a IA generativa começa a ocupar uma posição ambígua: tanto ferramenta poderosa e vara tentadora.

Dar crédito a isso pode nos levar até lá mais rápido, mas abre uma questão mais preocupante: o que acontece com nossas habilidades de pensamento quando paramos de seguir o caminho?
A ficção de Gilligan apresenta esta destruição não como uma escolha consciente, mas como uma reviravolta repentina: inteligência alienígena que espalha e padroniza o pensamento. Assim, a dúvida continua a ser a força motriz por trás do pensamento e o conflito interno é eliminado. A subjetividade não é abolida pela coerção, mas pela substituição.
Ao nível da realidade, o neurociência começar a identificar fenômenos perturbadores semelhantes sob o conceito de estilo de vida sedentário cognitivo. O envolvimento do trabalho mental não só ameaça a nossa autonomia e pensamento crítico, mas permite que a IA funcione como uma infra-estrutura que explora o inconsciente do comportamento. Portanto, é necessário proteger os direitos do inconsciente, alerta que ecoa em muitos estudos e críticas da literatura contemporânea. Esta preocupação não é apenas teórica: evidências científicas recentes fornecem dados que a apoiam.
Estudo de Laboratório de mídia do MIT Fornece evidências concretas do que acontece quando o pensamento é completamente abandonado. Foi demonstrado que os participantes dependem fortemente de ferramentas de IA para escrever pouca ativação da área cerebral envolvido na memória e no pensamento. O efeito mais notável foi comportamental: a maioria não conseguia lembrar ou explicar o conteúdo que acabava de produzir. Sem esforço mental a informação não é absorvida; simplesmente acontece.
A própria pesquisa coloca esses resultados em perspectiva, comparando-os com pesquisas anteriores sobre o uso de mecanismos de pesquisa. Encontrar informações obriga a ler, avaliar, descartar e tomar decisões, processo que mantém a mente ativa e fortalece o senso de autoria. Quando esse caminho desaparece e o resultado se fecha, não muda apenas o que conhecemos, mas a maneira como aprendemos a pensar.
O problema, portanto, não é apenas o esquecimento dos dados, mas uma mudança mais profunda na forma como as informações são processadas. A literatura científica descreve esse fenômeno como preguiça metacognitiva: a tendência de se dedicar não à execução, mas ao planejamento e controle do pensamento.
Um estudo experimental, publicado no British Journal of Educational Technology, mostra claramente esta contradição. Os alunos que usaram o ChatGPT obtiveram notas melhores em seus trabalhos, mas não aprenderam mais do que aqueles que não o fizeram. O resultado final está melhorando, mas o treinamento não está progredindo. A explicação refere-se a uma mudança na aprendizagem autorregulada (ARS): ao receber uma resposta estruturada, o sujeito reduz o esforço de planejamento e elaboração mental, limitando-se, assim, a correções arbitrárias.
Do ponto de vista social, esta dinâmica reforça o que Michael Gerlich chamada de “liberação cognitiva”. Com base na análise de 666 participantes, o seu estudo mostra uma relação clara: quanto maior a delegação de trabalho intelectual na IA, menor o uso do pensamento crítico. O perigo, concluiu Gerlich, não é que a tecnologia pense por nós, mas que nos habitue a evitar o esforço analítico necessário para avaliar a informação de forma independente.
A solução não é a negação, mas o aprisionamento desejado: usar a IA para criar desafios e contraexemplos que nos obriguem a questionar informações e a desafiar a aceitação automática de padrões que reforçam algoritmos. Estes padrões tendem a criar câmaras de eco e a alinhar ideias, não porque a IA pensa por si mesma, mas porque a utilizamos de formas confortáveis e fortalecedoras.
Para superar este risco, alguns estudos de epistemologias alternativas sugerem estratégias para fortalecer e contrariar a produção de conhecimento contra a tendência algorítmica de homogeneizar o pensamento.
Deste ponto de vista, a proposta de “melhoramento socrático” de Lara e Deckers é muito útil. O seu objectivo não é estabelecer a liberdade moral da tecnologia, mas restaurar o papel humano na comunicação. O perigo não é que a máquina decida por nós, mas que deixemos de tomar decisões aceitando respostas que estejam em conformidade com a média ou que reforcem a nossa posição.
A oposição Não se trata de antitecnologiamas mudando a forma como é usado. Em vez de pedir à IA confirmações fáceis – como “explique-me porque é que esta medida política é boa” – o que normalmente resulta numa resposta previsível, é mais útil. interagir com as críticas. Por exemplo, pede-lhe que analise pressupostos implícitos, identifique contradições entre o impacto social e os valores protegidos e formule objecções ou questões que nos façam reconsiderar a nossa posição. Portanto, a IA não substitui o julgamento humano, mas o ativa.
A suavização algorítmica tende a criar uma uniformidade digital que deixa o real para o previsível.
Se não recuperarmos a nossa independência intelectual, corremos o risco de nos tornarmos a versão inflada pelos utilizadores daquilo que a tecnologia espera que sejamos. O desafio não é competir com o poder computacional das máquinas, mas sim utilizá-lo de uma forma que liberte o nosso pensamento crítico, permitindo que a eficácia da tecnologia melhore a experiência humana sem substituir o nosso próprio pensamento.
Anita Feridouni Solimani é professora e auxiliar de planejamento do Departamento de Tecnologia da Informação e Comunicação Aplicada à Educação da UNIR. Docente em Tecnologia Educacional e Competências Digitais, UNIR – Universidade Internacional de La Rioja
Direitos autorais © 2010–2026, The Conversation US, Inc.

















