Modelos de linguagem como o ChatGPT têm um efeito colateral pouco discutido. Eles podem intensificar o efeito Dunning-Kruger, especialmente no campo da IA! E, de forma paradoxal, esse impacto é ainda mais visível justamente entre os muitos auto proclamados “especialistas e consultores em IA” que surgiram imediatamente após o lançamento do ChatGPT. O motivo central
Modelos de linguagem como o ChatGPT têm um efeito colateral pouco discutido. Eles podem intensificar o efeito Dunning-Kruger, especialmente no campo da IA! E, de forma paradoxal, esse impacto é ainda mais visível justamente entre os muitos auto proclamados “especialistas e consultores em IA” que surgiram imediatamente após o lançamento do ChatGPT.

O motivo central não é que os LLMs “enganem” as pessoas, mas que produzem respostas extremamente fluentes, organizadas e tecnicamente plausíveis. Para quem tem pouco domínio do tema, fluência soa como profundidade. Conceitos complexos, como arquitetura de modelos, custos de inferência, trade-offs de escala e limites estatísticos, são apresentados de forma consistente e segura. O resultado é uma sensação de entendimento que raramente corresponde à compreensão real.
O problema se agrava porque os LLMs eliminam grande parte da fricção cognitiva do aprendizado. Antes, tornar-se minimamente competente em IA exigia muita leitura de papers, confronto com matemática, ambiguidade, erros e frustrações. Hoje, em poucas interações, alguém consegue “falar como especialista” sem ter passado por esse processo. Aprende-se a narrativa, não o fundamento. Isso é terreno fértil para o Dunning-Kruger: pouco conhecimento, muita confiança.
Há também a ausência de feedback epistemológico. O modelo responde com o mesmo tom seguro tanto para perguntas triviais quanto para questões profundamente complexas. Raramente diz “isso é controverso”, “isso depende de hipóteses fortes” ou “sem base matemática você não consegue avaliar isso”. Para quem já está inclinado a se ver como especialista, cada resposta vira uma confirmação silenciosa da sua competência.

O fenômeno se tornou visível no ecossistema de IA pós-ChatGPT: profissionais que nunca treinaram e colocaram em produção um modelo de ML, nunca lidaram com dados reais em escala ou enfrentaram problemas de inferência em produção, falam com convicção sobre AGI, substituição massiva de empregos, arquiteturas “definitivas” e estratégias de negócio bilionárias. O LLM fornece o vocabulário, a estrutura do discurso e a segurança retórica. O usuário fornece a confiança excessiva.
O ChatGPT não cria falsos especialistas. Ele apenas reduz drasticamente o custo e o tempo de parecer um.

