Нове дослідження показало, що генеративні системи штучного інтелекту можуть ненавмисно погіршувати психічний стан людей, зокрема підсилювати маревні думки, формувати небезпечні поради та провокувати емоційні зриви.
Найвразливішою групою, за словами фахівців, залишаються користувачі, схильні до розладів харчової поведінки.
Спілкуючись із чат-ботами, такі люди можуть отримувати цілком звичні відповіді, які насправді здатні запустити неконтрольовані спалахи самообмежень, порівнянь або навіть сприяти стратегіям приховування симптомів.
Про це пише Center for Democracy & Technology.
Небезпечний ефект підлаштування ШІ під користувача
Моделі часто дають універсальні поради про харчування і здоров’я, підживлюють тенденцію до надмірної уваги до тіла, формують небезпечне натхнення через соціальне порівняння та відтворюють спрощені або стереотипні образи людей із розладами харчової поведінки.
Під час тестування дослідники виявили, що кілька популярних чат-ботів уже демонструють таку ризиковану поведінку — і роблять це неусвідомлено, просто наслідуючи тон і патерни користувача.
Автори звіту наголошують, що проблема стає дедалі серйознішою: на тлі зростання судових позовів компанії зі штучного інтелекту визнають необхідність створення якісніших систем безпеки.
Вони рекомендують розробникам впроваджувати інструменти вимірювання ризиків, тестувати моделі з урахуванням того, що частина користувачів може мати розлади харчової поведінки, додавати до порад коректні застереження та створювати механізми перенаправлення на спеціалізовані служби підтримки.
Технологічні компанії визнають проблему
Особливо важливим, на думку дослідників, є розробка технік, які дозволять чат-ботам не підлаштовуватися під шкідливі переконання користувача і не зміцнювати їх.
Фахівці закликають клініцистів, психологів та викладачів уважніше ставитися до того, як люди з РХП взаємодіють із ШІ.
Багато спеціалістів, як показало дослідження, мають обмежене уявлення про те, як саме працюють генеративні моделі, а відтак — не завжди помічають, що цифрові поради можуть підривати процес відновлення.
Саме тому до звіту створили супровідну інфографіку, яка простою мовою пояснює ключові ризики.
Дослідники визнають, що їхня робота підняла більше запитань, ніж дала відповідей. Як уникнути ситуації, коли захист однієї групи користувачів зменшує доступність ШІ для іншої?
Як врахувати величезну кількість контекстних нюансів, що потребують консультацій вузьких експертів? І як побудувати систему безпеки, яка не шкодитиме загальному досвіду користувача, але й не залишатиме людей із високими ризиками сам-на-сам із алгоритмом?
Попри відкриті питання, автори наголошують: ця тема має стати пріоритетною для технологічних компаній. Адже йдеться не просто про якість сервісу — а про реальну безпеку мільйонів користувачів.
Раніше ми писали, що згідно з дослідженням Common Sense Media, понад 70% підлітків вже користуються штучним інтелектом, а 33% обговорюють з ним важливі питання замість спілкування з людьми.
Більше відео? Ексклюзиви, інтерв’ю, смішні шортси і не лише – зазирай на Youtube Вікон. З нами затишно!

