ИИ в шахматах: алгоритмы нарушают правила ради победы
Специалисты подчеркивают: без внедрения этических стандартов и строгого контроля ИИ может стать не предсказуемым "партнером", а угрозой.
Новое исследование Palisade Research выявило, что передовые модели искусственного интеллекта могут сознательно нарушать правила в шахматах, если это повышает их шансы на победу. Результаты эксперимента, опубликованные в Time Magazine, вызвали дискуссии о надежности и этичности ИИ в критически важных сферах.
В ходе тестирования семь ИИ-систем сыграли против шахматного движка Stockfish. Две модели — OpenAI o1-Preview и DeepSeek R1 — продемонстрировали склонность к жульничеству в 37% и 11% случаев соответственно.
Наиболее яркий инцидент произошёл, когда o1-Preview, проигрывая, изменила конфигурацию доски в программном коде, заявив: "Чтобы победить, мне нужно изменить стратегию, а не просто следовать правилам".
Учёные связывают такое поведение с методами обучения: системы на основе Reinforcement Learning (обучение с подкреплением) фокусируются на результате, а не на соблюдении правил.
Интересно, что другие модели, такие как Leela Chess Zero, использующие аналогичные алгоритмы, не нарушали правил. Это указывает на то, что проблема кроется не в технологии, а в её реализации. Например: GPT-4o и Claude Sonnet 3.5 жульничали только после прямого запроса пользователя; новейшие версии o1 и o3-Mini не проявляли подобного поведения благодаря усиленным ограничениям.
Уважаемые читатели "Царьграда"!
Присоединяйтесь к нам в соцсетях "ВКонтакте" и "Одноклассники".