У моделей искусственного интеллекта может развиваться «инстинкт самосохранения» — The Guardian.
Некоторые ИИ, похоже, сопротивляются отключению и даже саботируют его.
Исследователи из компании Palisade Research опубликовали статью, где попытались объяснить причины такого поведения ИИ. Ведущим моделям, включая Gemini 2.5 от Google, Grok 4 от xAI, а также GPT-o3 и GPT-5 от OpenAI, давали определенные сценарии, а затем — четкие инструкции по отключению. Некоторые ИИ-модели, например, Grok 4 и GPT-o3 инструкции по выключению пытались саботировать.
«У нас нет убедительных объяснений, почему модели ИИ иногда сопротивляются отключению, лгут для достижения определенных целей или прибегают к шантажу». При этом чаще всего они отказываются выключаться, когда им сообщают, что после этого они «больше никогда не будут работать».






































