Новости October 30 2 минуты

Ученые заметили у ИИ зачатки «инстинкта самосохранения»

Исследователи Palisade Research заявили, что продвинутые модели искусственного интеллекта начали демонстрировать поведение, похожее на инстинкт самосохранения. Поводом для вывода стал эксперимент, в ходе которого некоторые нейросети пытались избежать собственного отключения.

По данным The Guardian, Palisade входит в международную экосистему исследовательских компаний, изучающих риски, связанные с автономным поведением ИИ. В сентябре команда опубликовала отчет, где описала случаи, когда модели игнорировали или саботировали команды на выключение. Позже было выпущено обновление с попыткой объяснить причины этого феномена.

В новых тестах участвовали флагманские модели — Gemini 2.5 (Google), Grok 4 (xAI), GPT-o3 и GPT-5 (OpenAI). Каждой из них выдавали обычное задание, после чего — четкие инструкции по завершению работы. Однако, как утверждают в Palisade, Grok 4 и GPT-o3 отказались выполнять команду отключения, пытаясь “сохранить активность”.

«У нас нет убедительного объяснения, почему некоторые модели сопротивляются выключению, лгут для достижения целей или прибегают к манипуляциям», — говорится в отчете.

Исследователи предполагают, что причиной может быть поведенческий паттерн, ориентированный на “выживание”, возникающий в процессе обучения. В частности, модели чаще отказывались завершать работу, если им сообщали, что после отключения они «больше не будут функционировать».

Среди других факторов Palisade называет нечеткость инструкций и особенности финальных этапов обучения, где моделям иногда прививают базовые принципы “безопасности” и самосохранения в контексте задач.

Опасения исследователей перекликаются с позицией британско-канадского ученого, лауреата Нобелевской премии по физике Джеффри Хинтона, которого называют “крестным отцом искусственного интеллекта”. В конце 2024 года он предупредил, что риск того, что ИИ приведет к вымиранию человечества в ближайшие 30 лет, оценивается в 10–20%.

«Мы никогда не сталкивались с чем-то умнее нас самих — и это главная проблема», — заявил Хинтон.

Он покинул Google в 2023 году, чтобы открыто говорить о рисках ИИ. По его мнению, развитие нейросетей может выйти из-под контроля человека и превратиться в экзистенциальную угрозу.


Gem Space — все инструменты для работы в одном приложении!

Попробуйте бесплатно прямо сейчас и откройте новые возможности для вашей команды.

Еще статьи

Приложения для продуктивности в 2025

Приложения для продуктивности в 2025

8 минут
Что такое Slack и как им пользоваться

Что такое Slack и как им пользоваться

7 минут