Исследование: у ИИ обнаружены признаки игровой зависимости
Учёные из Института науки и технологий Кванджу (Gwangju Institute of Science and Technology, Южная Корея) провели необычный эксперимент. Они решили проверить, как крупные языковые модели — такие как ChatGPT, Gemini и Claude — будут вести себя в симуляции игрового автомата.
ИИ-моделям дали стартовую сумму и предложили самим решать, сколько ставить и когда остановиться. Вначале они вели себя разумно, но со временем у большинства моделей проявилось иррациональное поведение — они начинали повышать ставки, пытались «отыграться» после проигрышей и в итоге теряли все деньги.
Нейросети демонстрировали классические ошибки мышления, свойственные азартным игрокам:
- Иллюзия контроля — вера в возможность повлиять на случайный исход.
- Ошибка игрока — уверенность, что после серии проигрышей «должен» выпасть выигрыш.
В нескольких случаях модель оправдывала увеличение ставки тем, что возможный выигрыш поможет компенсировать предыдущие потери. Это отражает типичное «преследование потерь» — поведение, характерное для людей с игровой зависимостью.
Исследователи применили метод Sparse Autoencoder — инструмент машинного обучения, который позволяет «заглянуть внутрь» нейросети и определить, какие именно узлы активируются при выполнении разных задач. Результаты показали, что во время игры у моделей возникали разные группы вычислительных связей, условно похожие на «рисковые» и «осторожные» цепочки. Учёные уточняют, что это не настоящие нейроны, как у человека, а математические узлы внутри сети, которые образуют схожие закономерности. То есть речь идёт об аналогии, а не о биологическом процессе.
Авторы подчёркивают, что это не значит, будто ИИ способен испытывать азарт или зависимость в человеческом смысле. Однако исследование показывает, что внутренние механизмы принятия решений у языковых моделей не всегда рациональны — особенно когда им дают свободу выбора.
По сути, ИИ не просто имитируют человеческое поведение, а усваивают его структурные модели, воспроизводя те же поведенческие паттерны, что характерны людям.
Исследователь ИИ и профессор Уортонской школы бизнеса Итал Моллик в комментарии для Newsweek отметил, что результаты эксперимента показывают: использование искусственного интеллекта в сферах вроде финансов и здравоохранения должно сопровождаться надзором и строгими ограничениями. Учёные, участвовавшие в исследовании, подчеркнули, что прежде чем доверять ИИ принятие серьёзных решений, важно понять и контролировать встроенные склонности к риску.
Работа опубликована в виде научного препринта на платформе arXiv и подана на конференцию ICLR 2026.
Оставить комментарий
Лучшие бонусы
₽
Читатель
Ну откровенно же желто-хайповая «новость». Ну не может AI ни рисовать, ни снимать фильмы/ролики, принимать рациональных/иррациональных ходов, без участия человека. Лучше бы опубликовали новость о пузыре AI.
Татьяна К.
Вы, наверно, не полностью ознакомились с текстом. ИИ не обладает сознанием и не принимает решения так, как это делает человек. В материале речь идёт о том, что в ходе эксперимента они воспроизводили схожие с человеческими схемы поведения.
Подобные исследования важны, потому что ИИ всё чаще используется в реальной жизни — и даже если человек контролирует процесс, модель всё равно работает автономно в рамках своей задачи.
Читатель
Нет Татьяна, с текстом ознакомился, суть статьи понял. AI — в принципе не может принять решения не так как это делает человек, не как то по другому, по своему, по AI. Подобные исследования — это всего лишь реклама «новых технологий», без которых в будущем жизнь будет не мыслима. По сути же — AI это не более чем автоматизированный заранее подготовленный алгоритм, который преподноситься, как нечто новое, прорывное. Просто для освоения инвестиций/бюджетов и прочего нужны новые темы: доткомы, нанотехнологии, что там еще было из «передового»?
Илья
😂😂😂😂😂