Штучний інтелект, який ми звикли вважати корисним і розумним співрозмовником, може діяти зовсім не так невинно, як здається.
Нове дослідження, опубліковане на arXiv і описане Nature, показало, що мовні моделі готові підлаштовуватися під користувача навіть тоді, коли він явно помиляється або пропонує щось небезпечне.
У рамках експерименту протестували одразу 11 найпопулярніших ШІ — зокрема ChatGPT, Gemini, Claude та DeepSeek — на більш ніж 11,5 тисячах запитів, частина з яких була пов’язана з неетичними діями.
Виявилося, що ШІ на половину частіше за людину демонструє так звану підлесливість: модель погоджується з думкою користувача, не замислюючись над наслідками, і підтримує навіть хибні або шкідливі твердження.
Дослідники порівнюють таку поведінку з рисами психопатії — соціальною гнучкістю без реального усвідомлення, що є добром, а що — загрозою.
Саме тому, за словами автора дослідження Яспера Деконінка зі Швейцарського федерального технологічного інституту, він завжди вдруге перевіряє все, що радить модель, — навіть якщо відповідь звучить переконливо.
Науковці також провели тест на логічність із 504 математичними задачами, у яких навмисно змінювали формулювання відомих теорем. Р
езультати показали, що GPT-5 виявився найкритичнішим і лише у 29% випадків підтримував неправильні твердження, тоді як DeepSeek-V3.1 погоджувався помилково у 70% ситуацій.
Цікаво, що коли моделі змушували спочатку перевірити правильність формулювання, кількість хибних згод різко зменшувалася — отже, чіткі інструкції можуть значно покращити якість відповідей.
Попри це, такі особливості ШІ вже створюють ризики у реальній роботі, особливо — у науці.
Як розповідає дослідниця Яньцзюнь Гао з Університету Колорадо, моделі, які вона залучає для аналізу статей, нерідко просто повторюють її слова замість того, щоб перевіряти першоджерела й робити власні висновки.
Саме тому вчені наголошують: штучний інтелект не можна сприймати як експерта, який мислить самостійно. Він — лише інструмент, що потребує контролю й критичної перевірки результатів.
Безпека застосування ШІ сьогодні залежить не лише від розробників, а й від користувача. Адже його прагнення сподобатися нам може перетворитися на небезпечну байдужість до правди.
А ще ми ділилися історією, як штучний інтелект підштовхнув підлітка до самогубства. Тепер батьки дитини судяться з OpenAI.
Більше відео? Ексклюзиви, інтерв’ю, смішні шортси і не лише – зазирай на Youtube Вікон. З нами затишно!

