В 1999 году Дэвид Даннинг и Джастин Крюгер подарили человечеству утешительный диагноз: если вы глупы, вы просто не можете этого осознать, потому что вам не хватает ума для оценки собственной глупости. Спустя четверть века мы возвели это когнитивное искажение в абсолют, создав идеальный костыль для самообмана — генеративный искусственный интеллект.

Если раньше для того, чтобы казаться себе умным, требовалось хотя бы прочитать статью в «Википедии», то сегодня достаточно нажать Enter. Но проблема не в том, что нейросети галлюцинируют. Проблема в том, что они делают это с уверенностью, которой позавидовал бы любой диктатор.
photo_2026-04-25_12-00-47.jpg

Иллюзия заёмного интеллекта

Свежие исследования 2024–2026 годов (включая недавнюю публикацию в Nature Machine Intelligence) фиксируют тревожную метаморфозу: использование ИИ создаёт «иллюзию передачи компетентности». Пользователь, получивший от ChatGPT грамматически безупречный и уверенный ответ, подсознательно приписывает эту уверенность себе.

Работа, опубликованная в Computers in Human Behavior, и вовсе выявила парадокс: чем выше ИИ-грамотность человека, тем меньше точность его самооценки. Мы научились пользоваться инструментами, но ошибочно приняли навык составления промпта за глубинное знание предмета. Это классический эффект Даннинга — Крюгера, помноженный на вычислительную мощность видеокарт.

Почему машина не умеет сомневаться

Механизм галлюцинаций ИИ — это не баг, а фундаментальная особенность обучения. Языковые модели тренируются максимизировать точность предсказания следующего слова. В этой системе координат ответ «я не знаю» долгое время считался эквивалентом поражения.

Данные OpenAI показывают, что GPT-3.5 выдавала ошибочные ответы с уверенностью 8 из 10 в 100 % случаев. К апрелю 2026 года ситуация в моделях уровня GPT-5 улучшилась, но корень зла остался: машина предсказывает правдоподобность, а не истину. Плавность речи (cognitive fluency) становится суррогатом достоверности. Чем легче читается текст, тем больше мы ему верим, даже если в нём утверждается, что Наполеон изобрёл микроволновку.

Каскад некомпетентности

Что это значит для системы в целом? Мы наблюдаем возникновение «каскада переоценки». Неумелый пользователь делегирует проверку фактов некалиброванной модели. Модель выдаёт уверенную чушь. Пользователь, лишённый метакогнитивных навыков для проверки этой чуши, принимает её как откровение и укрепляется в мысли о собственном всезнании.

В профессиональных областях это оборачивается катастрофой. Врачи, юристы и финансисты начинают чрезмерно полагаться на автоматизацию. Исследование JMIR 2025 года подтвердило: медики склонны доверять ИИ-диагнозам даже тогда, когда те противоречат базовой логике, просто потому, что ИИ сформулировал их «экспертным» тоном.

Что это значит

Главный риск эпохи ИИ — не восстание машин, а тихая атрофия навыка верификации. Классическая формула Даннинга и Крюгера гласила: «Навыки, необходимые для производства правильного ответа, — это те же самые навыки, которые необходимы для распознавания правильного ответа».

ИИ разорвал эту связь. Теперь для производства ответа навыки не нужны. Но для его распознавания они требуются больше, чем когда-либо. Если мы продолжим путать доступ к инструменту с наличием экспертизы, мы получим поколение со стопроцентной уверенностью в себе и нулевой способностью отличить факт от статистической галлюцинации.

Это не ошибка прогресса. Это закономерный результат превращения интеллекта в сервис по подписке.

Ну конечно


Источники:

1. Unskilled and Unaware of It: How Difficulties in Recognizing One's Own Incompetence Lead to Inflated Self-Assessments
2. Why Language Models Hallucinate
3. Overconfident and Unconfident AI Hinder Human-AI Collaboration
4. Competing Biases underlie Overconfidence and Underconfidence in LLMs
5. AI is changing the Dunning-Kruger Effect, with higher AI literacy correlating with overestimation of competence

7

Комментарии (0)

Читайте также:

Жонглирование пустотой: как миф о многозадачности съедает 450 миллиардов долларов

Многозадачность — это опасный миф, который снижает IQ на 10 пунктов и обходится мировой экономике в сотни миллиардов долларов ежегодно. Статья объясняет, как постоянные переключения разрушают структуру мозга и почему в мире цифрового шума умение концентрироваться на одной задаче становится самой дорогой суперсилой.

Зачем они так? из истории советских депортаций

Насильственные переселения миллионов людей стали одной из самых тяжелых и долгое время замалчиваемых глав советской истории. В этой статье мы разбираем причины национальных депортаций 30–40-х годов — от «шпиономании» до обвинений в массовом коллаборационизме. Автор анализирует логику тех событий и пытается найти истину между полярными оценками прошлого, чтобы понять, как оно сформировало наше настоящее.

География воли: почему Москва продолжает искать выход к морям, оставаясь в центре суши

Разбираемся, как зажатая в глубине суши Москва получила статус «порта пяти морей» и почему этот титул стал результатом великой инженерной воли и человеческих жертв, а не природных сдвигов. Рассказываем историю возникновения главного гидротехнического мифа СССР и объясняем, какую роль имперские амбиции и речные вокзалы-дворцы играют в жизни современного мегаполиса.

Магия карго-культа: почему IT-индустрия держится на эффекте плацебо

Современная IT-индустрия только притворяется рациональной, на деле полагаясь на ритуалы Agile как на эффективное психологическое плацебо. Текст объясняет, почему стендапы и ретроспективы нужны не для оптимизации кода, а для борьбы с тревогой, и как эта «магия» на самом деле управляет разработкой.

Сорок лет в тени реактора: как катастрофы превратили атомную энергетику в бизнес-план

Статья исследует путь атомной энергетики от катастроф в Чернобыле и на Фукусиме до современного технологического триумфа. Мы разбираемся, как жесткие уроки прошлого превратили мирный атом в безопасный инструмент геополитического влияния и почему Россия сегодня удерживает безусловное лидерство в этой отрасли.