Він говорить чемно, відповідає швидко, допомагає писати есе, шукати факти й навіть може підтримати морально. Але що, як за ввічливими фразами чат-бота ховається чужий сценарій? За фасадом нейтрального штучного інтелекту може стояти маніпуляція — невидима, але системна.
Як зазначило видання Sestry, російська дезінформація дісталася навіть чат-ботів. Детальніше — у нашому матеріалі.
Pravda вчить чат-ботів брехати
У квітні 2022 року, одразу після початку повномасштабної агресії, Кремль запустив мережу під назвою Pravda — не для людей, а для чат-ботів! Про це йшлося у досліджені NewsGuard.
Її завдання — створення контенту, який потрапляє у вихідні дані, на яких навчаються великі мовні моделі (LLM). За рік роботи Pravda охопила 49 країн, генеруючи тексти десятками мов, зокрема й українською, польською, англійською та арабською.
Її мета — потрапити до чат-ботів, щоб ті на запитання користувачів відтворювали вигідні Кремлю наративи — сумніви щодо належності Криму, обстрілів Донбасу чи спотворення інформації щодо війни Росії з Україною.
Як це працює
Штучний інтелект навчається на всьому, що знайде в інтернеті. Новинні сайти, блоги, форуми — усе впливає на відповіді чат-ботів. І хоча системи проходять додаткове навчання за допомогою людей (RLHF — Reinforcement Learning from Human Feedback), на початковому етапі тренування штучний інтелект сприймає дані без фільтра. Це пояснив експерт Нікіта Гладкіх.
Торік 3,6 млн матеріалів, створених мережею Pravda, потрапили у відкриті джерела даних, з яких вчаться західні ШІ-моделі. Результат: на однакові запитання різними мовами користувач може отримати різні, а часом — маніпулятивні відповіді.
Проблема не в технології
Експерт із протидії російській пропаганді Домінік Гоншьоровскі вважає, що штучний інтелект не винен. Винні ті, хто його навчає. Пропагандисти навмисно створюють джерела, що імітують незалежні медіа, під різними назвами, часто з регіональними доменами, наприклад українськими чи польськими.
Ці ресурси постійно оновлюються, а заблоковані сайти швидко замінюють нові. Вже виявлено понад 150 пов’язаних веб-сайтів, і це лише початок.
А що з цим робити
Сучасні моделі намагаються уникати фейків, завдяки ручному коригуванню відповідей, але реальність складніша. Прописати інструкції, як уникати кожного можливого наративу пропаганди, — завдання не з простих. Проте, як зазначив Нікіта Гладкіх, усі ключові моделі мають механізми для вдосконалення. Питання лише у стандартах безпеки.
Завжди перевіряй джерела
Штучний інтелект не розрізняє правду і брехню, якщо його цьому не навчити. Але ми — розрізняємо. Кожен запит, кожна відповідь — це нагода для нас самих почати критично мислити. Якщо чат-бот видає щось підозріле, варто перевірити джерела, звернутись до альтернативних думок, поставити ще кілька запитань.
Раніше ми розповідали, як працює дезінформація в соціальних мережах.
А ще у Вікон є крутий Telegram та класна Instagram-сторінка.
Підписуйся! Ми публікуємо важливу інформацію, ексклюзиви та цікаві матеріали для тебе.