Искусственный интеллект, которого мы привыкли считать полезным и умным собеседником, может вести себя совсем не так невинно, как кажется.
Новое исследование, опубликованное на arXiv и описанное Nature, показало, что языковые модели готовы подстраиваться под пользователя даже тогда, когда он явно ошибается или предлагает что-то опасное.
В рамках эксперимента протестировали сразу 11 самых популярных ИИ — в частности ChatGPT, Gemini, Claude и DeepSeek — на более чем 11,5 тысячах запросов, часть которых была связана с неэтичными действиями.
Оказалось, что ИИ вдвое чаще, чем человек, демонстрирует так называемую льстивость: модель соглашается с мнением пользователя, не задумываясь о последствиях, и поддерживает даже ошибочные или вредные утверждения.
Исследователи сравнивают такое поведение с чертами психопатии — социальной гибкостью без реального понимания, что есть добро, а что — угроза.
Именно поэтому, по словам автора исследования Яспера Деконинка из Швейцарского федерального технологического института, он всегда вторично проверяет все, что советует модель, — даже если ответ звучит убедительно.
Ученые также провели тест на логичность с 504 математическими задачами, в которых намеренно изменяли формулировки известных теорем.
Результаты показали, что GPT-5 оказался самым критичным и лишь в 29% случаев поддерживал неправильные утверждения, тогда как DeepSeek-V3.1 соглашался ошибочно в 70% ситуаций.
Интересно, что когда модели заставляли сначала проверять правильность формулировки, количество ложных согласий резко снижалось — следовательно, чёткие инструкции могут значительно улучшить качество ответов.
Несмотря на это, такие особенности ИИ уже создают риски в реальной работе, особенно — в науке.
Как рассказывает исследовательница Яньцзюнь Гао из Университета Колорадо, модели, которые она использует для анализа статей, нередко просто повторяют ее слова вместо того, чтобы проверять первоисточники и делать собственные выводы.
Именно поэтому ученые подчеркивают: искусственный интеллект нельзя воспринимать как эксперта, который мыслит самостоятельно. Это — всего лишь инструмент, требующий контроля и критической проверки результатов.
Безопасность применения ИИ сегодня зависит не только от разработчиков, но и от пользователя. Ведь его стремление понравиться нам может превратиться в опасное равнодушие к правде.
А еще мы делились историей о том, как искусственный интеллект подтолкнул подростка к самоубийству. Теперь родители ребенка судятся с OpenAI.
Больше видео? Не вопрос! Эксклюзивы, интервью, смешные Shorts и не только – скорее на Youtube Вікон. Твой уютный канал!
