Mesmo os especialistas em IA estão superestimando suas habilidades. Entenda o 'Efeito Dunning-Kruger Reverso' O Efeito Dunning-Kruger, descrito por dois psicólogos em 1999, é um fenômeno bem conhecido: quanto menos alguém entende sobre um assunto, mais confiante tende a ser sobre o que acha que sabe. Já os verdadeiros especialistas, conscientes da complexidade dos temas, costumam adotar uma postura mais cautelosa. Mas, na era da inteligência artificial, esse comportamento está mudando — e não necessariamente para melhor. Um novo estudo da Universidade Aalto, na Finlândia, revela um fenômeno oposto: quanto mais as pessoas entendem de IA, mais elas superestimam suas habilidades. Os pesquisadores chamaram isso de 'Efeito Dunning-Kruger Reverso.' O que o estudo descobriu Para investigar o fenômeno, os cientistas reuniram cerca de 500 participantes e aplicaram testes de raciocínio lógico baseados no exame LSAT (usado em faculdades de Direito).Metade dos voluntários podia usar modelos de linguagem como o ChatGPT para resolver as questões, e a outra metade não. Além disso, todos os participantes: Foram avaliados em letramento em IA (nível de conhecimento técnico e prático sobre a tecnologia); E autoavaliaram seu desempenho após as tarefas. O resultado foi surpreendente.O esperado era que os menos experientes fossem os mais confiantes, como prevê o Efeito Dunning-Kruger clássico.Mas aconteceu o contrário: os que mais entendiam de IA foram os que mais superestimaram suas habilidades e resultados. 'Esperávamos que as pessoas com maior letramento em IA fossem melhores em avaliar suas interações com os sistemas, mas não foi o caso', afirmou o pesquisador Robin Welsch.'Descobrimos que, quando se trata de IA, o efeito Dunning-Kruger desaparece — e, surpreendentemente, quanto maior o conhecimento, maior a autoconfiança excessiva.' Ver todos os stories 6 hábitos que sabotam seu crescimento O nordestino que ousou fazer o impossível O que está em jogo com a 'PEC da Blindagem' Uma verdade sobre suas assinaturas de streaming que você não vê Boninho, The Voice e a lição da reinvenção 92% das pessoas não verificam o que a IA responde Esse resultado se torna ainda mais preocupante quando combinado com outra constatação: a imensa maioria dos usuários não confere se as respostas da IA estão corretas. Um levantamento da Exploding Topics mostrou que 92% das pessoas não checam o que os modelos de IA produzem, mesmo sabendo que eles ainda cometem erros graves — como alucinações, imprecisões e respostas que apenas 'agradam' o usuário sem corrigir equívocos. Os pesquisadores finlandeses observaram o mesmo comportamento: 'As pessoas simplesmente achavam que a IA resolveria tudo por elas. Na maioria dos casos, houve apenas uma interação para obter o resultado, o que mostra uma confiança cega no sistema', explicou Welsch. Em outras palavras, mesmo os usuários mais experientes confundem facilidade de uso com infalibilidade — um erro perigoso num momento em que ferramentas generativas estão moldando decisões empresariais, acadêmicas e até jurídicas. O perigo da autoconfiança exagerada em IA A confiança é essencial para aprender e inovar. Mas, no contexto da IA, autoconfiança excessiva pode gerar erros caros: Decisões baseadas em informações incorretas; Falta de revisão crítica de resultados automatizados; E uma cultura de complacência tecnológica, onde ninguém questiona o algoritmo. Além disso, o estudo reforça um ponto importante: entender a IA não significa dominá-la.Mesmo os mais experientes estão sujeitos à ilusão de controle — acreditando que sabem 'domar' as ferramentas quando, na prática, continuam vulneráveis aos vieses e limitações dos sistemas. Como evitar cair no 'Efeito Dunning-Kruger Reverso' Desconfie das respostas fáceis.A IA pode ser rápida e convincente, mas nem sempre correta. Revise, confirme e cruze informações. Pratique a humildade cognitiva.Reconheça o que você ainda não sabe sobre a tecnologia e esteja disposto a aprender continuamente. Incentive a checagem crítica nas equipes.Gestores devem criar uma cultura de questionamento, incentivando a validação humana antes de decisões baseadas em IA. Eduque para o uso responsável.O letramento em IA não é apenas técnico — envolve compreender os limites éticos, lógicos e contextuais da ferramenta. Conclusão: o maior risco da IA pode ser o excesso de confiança O Efeito Dunning-Kruger clássico nos alertava sobre a ignorância disfarçada de autoconfiança.Agora, o Efeito Dunning-Kruger Reverso mostra que até os especialistas podem se enganar — porque saber muito sobre IA não impede que alguém confie demais nela. A verdadeira competência na era da inteligência artificial não está em saber usar as ferramentas mais avançadas, mas em questioná-las com rigor e ceticismo saudável. No fim, a lição de Dunning e Kruger continua atual: a sabedoria começa quando reconhecemos o quanto ainda não sabemos.