Технології розвиваються настільки швидко, що інколи не встигаєш їх опановувати та дізнаватися, що такі існують. Однією з прогресивних та тих, які мають майбутнє, є штучний інтелект.
Його застосовують давно і в багатьох галузях. До прикладу, у медицині, військовій справі, інтернет-алгоритмах, для створення чат-ботів, пошуку інформації, в онлайн-мапах, для розв’язання побутових та глобальних проблем, у важкій промисловості, науці, творчості тощо.
Попри чималу кількість переваг, штучний інтелект має чимало недоліків, найнебезпечнішим з яких є дезінформація та пропаганда. Українці щодня бачать фото / відео чи інші повідомлення, згенеровані ШІ, але не завжди розуміють, що це.
У матеріалі Вікна-новини (vikna.tv) ми разом з експертками розбиратимемося, чому важливо вміти розрізняти справжній контент від створеного штучним інтелектом, як саме його розрізняти, як і для чого створюють такі публікації.
Найважливіша причина — уникання фейків! Адже штучний інтелект може використовувати ворог для створення та поширення ІПСО, пропаганди та інших небезпечних наративів в умовах повномасштабної війни.
Крім цього, публікації з певним змістом фото чи відео можуть викликати в людей емоції та змушувати їх до певних дій, вигідних ворогу, чи іншим зацікавленим особам. Іншими причинами є розвиток критичного мислення, дотримання авторських прав та академічної доброчесності.
Під час повномасштабної війни вміння відрізняти штучно згенерований контент можуть врятувати. Про (не) достатню обізнаність українців у цій галузі свідчили минулорічні результати опитування Центру Разумкова щодо ШІ:
Найбільше контенту, згенерованого ШІ, зараз у Facebook. Певні, тобі хоча б раз з’являлися у стрічці публікації про військових, яких нібито ніхто не привітав з весіллям чи днем народження, з проханням лайкнути та поширити тощо.
Що не дивно, такі дописи збирають сотні тисяч лайків, тисячі коментарів та поширень. Адже ми підтримуємо військо. Та насправді групи, які публікують такі дописи, збирають аудиторію, якою легко маніпулювати.
Тому вміти відрізняти ШІ-контент потрібно хоча б заради власної інформаційної та фізичної безпеки.
Особливих зусиль, аби знайти подібний контент у стрічці, докладати не потрібно. Ось кілька прикладів публікацій, створених за допомогою ШІ.
Радимо звернути увагу, що часто сторінки, які публікують такі пости, мають “релігійне” коріння. На них публікуються молитви російською, заклики до лайків, щоб “Бог любив і благословив тебе” тощо. Чим це небезпечно, розповімо далі.
Також це можуть бути відео. Наприклад, таке, створене росіянами на початку повномасштабної війни з метою дезінформації та залякування українців:
Або таке, створене вже українцями, з “профілактично-жартувальною” метою:
Крім цього, за допомогою ШІ можна “відтворити” програми новин, логотипи та навіть голоси й обличчя ведучих. Навесні такі підробки використали від імені каналу ICTV. У цих сюжетах “обіцяли” виплати українцям, які не виїздили за кордон.
Та в будь-якому разі у ці відео можуть повірити люди. І це небезпечно. Тож важливо розповісти своїм рідним про контент, згенерований штучним інтелектом, нагадати про правила інформаційної безпеки.
Медіапсихологиня та викладачка Університету Грінченка Яна Фруктова розповіла для Вікон, яку реакцію намагаються викликати подібні фейки та картинки у користувачів, які образи використовують для цього і чому люди вірять у подібне.
Наш мозок запрограмовано на те, щоб вірити візуальному образу. Давня людина жила у природі, і вона візуально сприймала небезпеку чи визначала, що вона відсутня.
— З часом людина втрутилася в природній перебіг процесів, і почала створювати додану реальність. Тому завдання візуальних образів — викликати емоцію. А вже яку, залежить від того, хто формує образ.
Фото: Unsplash
Яна Фруктова пояснює, продемонстровані вище фото працюють на приналежність цільової аудиторії до патріотів, добрих людей, тих, кого захищають і боронять, а тому люди повинні відчути вдячність, побачивши ці фото, та відреагувати. На думку медіапсихологині, такий контент орієнтований на клікабельність.
Якщо ви затрималися на цій картинці, відчули зміну стану — це означає, що мети досягнуто, ви на гачку професійного мовця, який хоче вами маніпулювати.
Це може бути небезпечно тим, що наша психіка почне сприймати подібні фото як буденність, і припинить на них реагувати. А в реальному випадку, люди можуть пройти повз. Дослідниця додає, увагу до штучно згенерованого контенту привертають за допомогою:
Такі елементи можуть викликати особисті спогади, а тому змушують користувачів привернути увагу. Яна Фруктова додає, якщо у твоїй стрічці часто трапляються подібні публікації, варто зменшити кількість джерел споживання інформації — залишити підписки лише на перевірені медіа та знайомих людей.
Аналітикиня VoxCheck Анастасія Бродовська докладно пояснила, що з початком повномасштабної війни тип контенту, створеного ШІ, змінився. До “сиріт” та “бабусь” додалися “військові”, які просять привітати їх чи помолитися.
— Також у мережі можна зустріти дописи, де нібито боєць ЗСУ скаржиться, мовляв, він зазнав поранення під час штурму посадки, у нього немає рідних, тому нині він залишився сам. Хоча насправді на фото ізраїльський поліціянт. У жовтні 2023 року він скоординував евакуацію цивільних з регіону, де відбувалось вторгнення ХАМАСу, — наводить приклад аналітикиня.
Для створення маніпулятивних дописів використовують не лише ШІ-зображення, а й фото реальних людей. Часто їхня мета — дискредитація держави, деморалізація військових чи зрив мобілізаційної кампанії. Зараз це вигідно ворогу.
Зазвичай, спільноти, які публікують такий контент, на вигляд патріотичні — пишуть українською, підтримують Сили оборони та моляться за перемогу / мир. Тож і аудиторія таких груп має проукраїнську позицію та, низький рівень медіаграмотності — це ідеальне середовище для проведення російських інформаційних кампаній, — пояснює Анастасія.
Фото: Pexels
У нібито релігійних спільнотах не позначають, яка саме церква, та поширюють потрібний їм контент. Адже ті, хто хоч і не цікавляться політикою, точно не оминуть пост із молитвою за військових?
— У таких групах з-поміж контенту, де йдеться про підтримку України, починають з’являтися дописи, де прямо чи натяками вказують, ніби партнери “зливають” Україну, українська влада навмисно здає міста тощо. Так поступово в аудиторії зароджується сумнів щодо необхідності продовження боротьби, — продовжує Анастасія Бродовська.
Основна небезпека в тому, що пізніше модератори подібних груп можуть змінити назви, публікації, і просувати небезпечні проросійські наративи. А заміну помітять не всі користувачі. Таким чином поширюватиметься дезінформація. Крім цього, такі групи та фото допомагають росіянам визначати тригерні теми для українців, та використовувати це для створення вкидів.
Щоб не допомагати ворогу в інформаційній війні, не варто взаємодіяти з таким контентом — не лайкати, не поширювати чи навіть не пояснювати в коментарях, що фото насправді зроблене ШІ. Адже це лише сприятиме його популярності, — підсумовує експертка.
Краще поскаржитися на подібні дописи та читати перевірені джерела інформації.
Генератори зображень та відео можуть створювати контент за описом на базі набору даних з мільярдів зображень у відкритій мережі Інтернет. До того ж штучний інтелект може сканувати сайти для навчання, отримання, обробки та видачі інформації.
Генеративні моделі навчаються на відкритій інформації, алгоритми “запам’ятовують” словесні конструкції, особливості мов, стилістику тощо. ШІ у відповідь на конкретний запит, наприклад, “згенерувати весільне фото військового”, генерує обличчя людей, військову форму та інші компоненти зображення з відкритих даних.
Дискримінатори оцінюють реалістичність фото чи текстів, що створює генератор. На основі аналізу дискримінатора, генератор додатково навчається і покращує вихідні дані для користувачів.
Попри постійне навчання, штучний інтелект інколи припускається помилок, які помітні нашому оку. Саме ці недоліки можуть допомогти розпізнати потенційно небезпечний контент.
Далі ділимося лайфхаками, як відрізняти фото та відео, згенеровані ШІ.
Аби відрізнити у своїй стрічці потенційно небезпечний контент, створений завдяки ШІ, звертай увагу на такі деталі:
Крім цього, для розпізнавання та пошуку оригінальних фото у мережі ти можеш використати такі застосунки: пошук за зображенням Google, Foto Forensics, TinEye, Hive AI Detector.
Раніше ми розповідали, які професії може скоро замінити ШІ.
А ще у Вікон є крутий Telegram та класна Instagram-сторінка.Підписуйся! Ми публікуємо важливу інформацію, ексклюзиви та цікаві матеріали для тебе.