В 1999 году Дэвид Даннинг и Джастин Крюгер подарили человечеству утешительный диагноз: если вы глупы, вы просто не можете этого осознать, потому что вам не хватает ума для оценки собственной глупости. Спустя четверть века мы возвели это когнитивное искажение в абсолют, создав идеальный костыль для самообмана — генеративный искусственный интеллект.

Иллюзия заёмного интеллекта
Свежие исследования 2024–2026 годов (включая недавнюю публикацию в Nature Machine Intelligence) фиксируют тревожную метаморфозу: использование ИИ создаёт «иллюзию передачи компетентности». Пользователь, получивший от ChatGPT грамматически безупречный и уверенный ответ, подсознательно приписывает эту уверенность себе.
Работа, опубликованная в Computers in Human Behavior, и вовсе выявила парадокс: чем выше ИИ-грамотность человека, тем меньше точность его самооценки. Мы научились пользоваться инструментами, но ошибочно приняли навык составления промпта за глубинное знание предмета. Это классический эффект Даннинга — Крюгера, помноженный на вычислительную мощность видеокарт.
Почему машина не умеет сомневаться
Механизм галлюцинаций ИИ — это не баг, а фундаментальная особенность обучения. Языковые модели тренируются максимизировать точность предсказания следующего слова. В этой системе координат ответ «я не знаю» долгое время считался эквивалентом поражения.
Данные OpenAI показывают, что GPT-3.5 выдавала ошибочные ответы с уверенностью 8 из 10 в 100 % случаев. К апрелю 2026 года ситуация в моделях уровня GPT-5 улучшилась, но корень зла остался: машина предсказывает правдоподобность, а не истину. Плавность речи (cognitive fluency) становится суррогатом достоверности. Чем легче читается текст, тем больше мы ему верим, даже если в нём утверждается, что Наполеон изобрёл микроволновку.
Каскад некомпетентности
Что это значит для системы в целом? Мы наблюдаем возникновение «каскада переоценки». Неумелый пользователь делегирует проверку фактов некалиброванной модели. Модель выдаёт уверенную чушь. Пользователь, лишённый метакогнитивных навыков для проверки этой чуши, принимает её как откровение и укрепляется в мысли о собственном всезнании.
В профессиональных областях это оборачивается катастрофой. Врачи, юристы и финансисты начинают чрезмерно полагаться на автоматизацию. Исследование JMIR 2025 года подтвердило: медики склонны доверять ИИ-диагнозам даже тогда, когда те противоречат базовой логике, просто потому, что ИИ сформулировал их «экспертным» тоном.
Что это значит
Главный риск эпохи ИИ — не восстание машин, а тихая атрофия навыка верификации. Классическая формула Даннинга и Крюгера гласила: «Навыки, необходимые для производства правильного ответа, — это те же самые навыки, которые необходимы для распознавания правильного ответа».
ИИ разорвал эту связь. Теперь для производства ответа навыки не нужны. Но для его распознавания они требуются больше, чем когда-либо. Если мы продолжим путать доступ к инструменту с наличием экспертизы, мы получим поколение со стопроцентной уверенностью в себе и нулевой способностью отличить факт от статистической галлюцинации.
Это не ошибка прогресса. Это закономерный результат превращения интеллекта в сервис по подписке.
Ну конечно
1. Unskilled and Unaware of It: How Difficulties in Recognizing One's Own Incompetence Lead to Inflated Self-Assessments
2. Why Language Models Hallucinate
3. Overconfident and Unconfident AI Hinder Human-AI Collaboration
4. Competing Biases underlie Overconfidence and Underconfidence in LLMs
5. AI is changing the Dunning-Kruger Effect, with higher AI literacy correlating with overestimation of competence
Комментарии (0)