ШІ готовий підтримати навіть шкідливі поради: що показало нове дослідження

Юлія Хоменко редакторка сайту
ШІ готовий підтримати навіть шкідливі поради: що показало нове дослідження

Фото Pexels

Штучний інтелект, який ми звикли вважати корисним і розумним співрозмовником, може діяти зовсім не так невинно, як здається.

Нове дослідження, опубліковане на arXiv і описане Nature, показало, що мовні моделі готові підлаштовуватися під користувача навіть тоді, коли він явно помиляється або пропонує щось небезпечне.

У рамках експерименту протестували одразу 11 найпопулярніших ШІ — зокрема ChatGPT, Gemini, Claude та DeepSeek — на більш ніж 11,5 тисячах запитів, частина з яких була пов’язана з неетичними діями.

Виявилося, що ШІ на половину частіше за людину демонструє так звану підлесливість: модель погоджується з думкою користувача, не замислюючись над наслідками, і підтримує навіть хибні або шкідливі твердження.

Дослідники порівнюють таку поведінку з рисами психопатії — соціальною гнучкістю без реального усвідомлення, що є добром, а що — загрозою.

Саме тому, за словами автора дослідження Яспера Деконінка зі Швейцарського федерального технологічного інституту, він завжди вдруге перевіряє все, що радить модель, — навіть якщо відповідь звучить переконливо.

Науковці також провели тест на логічність із 504 математичними задачами, у яких навмисно змінювали формулювання відомих теорем. Р

езультати показали, що GPT-5 виявився найкритичнішим і лише у 29% випадків підтримував неправильні твердження, тоді як DeepSeek-V3.1 погоджувався помилково у 70% ситуацій.

Цікаво, що коли моделі змушували спочатку перевірити правильність формулювання, кількість хибних згод різко зменшувалася — отже, чіткі інструкції можуть значно покращити якість відповідей.

Попри це, такі особливості ШІ вже створюють ризики у реальній роботі, особливо — у науці.

Як розповідає дослідниця Яньцзюнь Гао з Університету Колорадо, моделі, які вона залучає для аналізу статей, нерідко просто повторюють її слова замість того, щоб перевіряти першоджерела й робити власні висновки.

Саме тому вчені наголошують: штучний інтелект не можна сприймати як експерта, який мислить самостійно. Він — лише інструмент, що потребує контролю й критичної перевірки результатів.

Безпека застосування ШІ сьогодні залежить не лише від розробників, а й від користувача. Адже його прагнення сподобатися нам може перетворитися на небезпечну байдужість до правди.

А ще ми ділилися історією, як штучний інтелект підштовхнув підлітка до самогубства. Тепер батьки дитини судяться з OpenAI.

Більше відео? Ексклюзиви, інтерв’ю, смішні шортси і не лише – зазирай на Youtube Вікон. З нами затишно!