Технологии развиваются настолько быстро, что иногда не успеваешь ими овладевать и узнавать, что они существуют. Одним из прогрессивных и имеющих будущее является искусственный интеллект.
Его используют давно и во многих отраслях. К примеру, в медицине, военном деле, интернет-алгоритмах, для создания чат-ботов, поиска информации, в онлайн-картах, для решения бытовых и глобальных проблем, в тяжелой промышленности, науке, творчестве и т.д.
Несмотря на большое количество преимуществ, искусственный интеллект имеет немало недостатков, наиболее опасным из которых является дезинформация и пропаганда. Украинцы каждый день видят фото / видео или другие сообщения, сгенерированные ИИ, но не всегда понимают, что это.
В материале Вікна-Новини (vikna.tv) мы будем вместе с экспертами разбираться, почему важно уметь различать настоящий контент от созданного искусственным интеллектом, как именно его различать, как и для чего создают такие публикации.
Самая важная причина — избегание фейков! Ведь искусственный интеллект может использовать враг для создания и распространения ИПСО, пропаганды и других опасных нарративов в условиях полномасштабной войны.
Помимо этого, публикации с определенным содержанием фото или видео могут вызвать у людей эмоции и принуждать их к различным действиям, выгодным врагу, или другим заинтересованным лицам. Другими причинами есть развитие критического мышления, соблюдение авторских прав и академической добродетели.
Во время полномасштабной войны умения отличать искусственно сгенерированный контент могут спасти. О (не) достаточной осведомленности украинцев в этой сфере свидетельствовали прошлогодние результаты опроса Центра Разумкова относительно ИИ:
Больше всего контента, сгенерированного ИИ, сейчас в Facebook. Наверное, тебе хотя бы раз попадались в ленте публикации о военных, которых якобы никто не поздравил со свадьбой или днем рождения, с просьбой лайкнуть и распространить.
Что не удивительно, такие публикации набирают сотни тысяч лайков, тысячи комментариев и распространений. Мы же поддерживаем войско. Но на самом деле группы, что публикуют такие сообщения, собирают аудиторию, которой легко манипулировать.
Поэтому уметь отличать ИИ-контент нужно хотя бы ради собственной информационной и физической безопасности.
Особых усилий, чтобы найти подобный контент в ленте, прилагать не нужно. Вот несколько примеров публикаций, созданных с помощью ИИ.
Советуем обратить внимание, что часто страницы, публикующие такие посты, имеют “религиозные” корни. На них публикуются молитвы на русском, призывы к лайкам, чтобы “Бог любил и благословил тебя” и т.д. Чем это опасно, расскажем дальше.
Также это может быть видео. Например, созданное россиянами в начале полномасштабной войны с целью дезинформации и запугивания украинцев:
Или такое, созданное уже украинцами, с “профилактически-шуточной” целью:
Кроме этого, с помощью ИИ можно “воссоздать” новостные программы, логотипы и даже голоса и лица ведущих. Весной подобные подделки использовали от имени канала ICTV. В этих сюжетах обещали выплаты украинцам, которые не выезжали за границу.
Но в любом случае в эти видео могут поверить люди. И это опасно. Поэтому важно рассказать своим родным о контенте, сгенерированном искусственным интеллектом, напомнить о правилах информационной безопасности.
Медиапсихолог и преподавательница Университета Гринченко Яна Фруктова рассказала для Вікон, какую реакцию пытаются вызвать подобные фейки и картинки у пользователей, какие образы используют для этого и почему люди верят в подобное.
Наш мозг запрограммирован на то, чтобы верить визуальному образу. Древний человек жил в природе, и он визуально воспринимал опасность или определял, что она отсутствует.
— Со временем человек вмешался в естественное течение процессов, и начал создавать добавленную реальность. Поэтому задача визуальных образов — вызвать эмоцию. А уж какую, зависит от того, кто формирует образ.
Фото: Unsplash
Яна Фруктова объясняет, что продемонстрированные выше фото работают на принадлежность целевой аудитории к патриотам, добрым людям, тем, кого защищают, а потому люди должны почувствовать благодарность, увидев эти фото, и отреагировать. По мнению медиапсихолога, такой контент ориентирован на кликабельность.
Если вы задержались на этой картинке, почувствовали изменение состояния — это значит, что цели достигнуты, вы на крючке профессионала, который хочет вами манипулировать.
Это может быть опасно тем, что наша психика начнет воспринимать подобные фото как обыденность, и перестанет на них реагировать. А в реальном случае люди могут пройти мимо. Исследовательница добавляет, что внимание к искусственно сгенерированному контенту привлекают с помощью:
Такие элементы могут вызвать личные воспоминания, поэтому заставляют пользователей привлечь внимание. Яна Фруктова добавляет, если в твоей ленте часто встречаются подобные публикации, следует уменьшить количество источников потребления информации — оставить подписки только на проверенные медиа и знакомых людей.
Аналитик VoxCheck Анастасия Бродовская подробно объяснила, что с началом полномасштабной войны тип контента, созданного ИИ, изменился. К “сиротам” и “бабушкам” добавились “военные”, которые просят поздравить их или помолиться.
— Также в сети можно встретить сообщения, где якобы боец ВСУ жалуется, мол, он получил ранение во время штурма посадки, у него нет родных, поэтому сейчас он остался один. Хотя в действительности на фото израильский полицейский. В октябре 2023 года он скоординировал эвакуацию гражданских из региона, где происходило вторжение ХАМАС, — приводит пример аналитик.
Для создания манипулятивных сообщений используются не только ИИ-изображения, но и фото реальных людей. Часто их цель — дискредитация государства, деморализация военных или срыв мобилизационной кампании. Сейчас это выгодно врагу.
Обычно, группы, публикующие такой контент, на вид патриотические — пишут на украинском, поддерживают Силы обороны и молятся за победу / мир. Поэтому и аудитория таких групп имеет проукраинскую позицию, но низкий уровень медиаграмотности — это идеальная среда для проведения российских информационных кампаний, — объясняет Анастасия.
Фото: Pexels
В якобы религиозных сообществах не обозначают, какая именно это церковь, и распространяют нужный им контент. Ведь те, кто хоть и не интересуется политикой, точно не пропустят пост с молитвой за военных?
— В таких группах среди контента, где речь идет о поддержке Украины, начинают появляться сообщения, где прямо или намеками указывают, будто партнеры “сливают” Украину, украинская власть намеренно сдает города и т.д. Так постепенно у аудитории зарождается сомнение в необходимости продолжения борьбы, — продолжает Анастасия Бродовская.
Основная опасность в том, что позже модераторы подобных групп могут изменить названия, публикации и продвигать опасные пророссийские нарративы. А замену заметят не все пользователи. Таким образом, будет распространяться дезинформация. Кроме того, такие группы и фото помогают россиянам определять триггерные темы для украинцев и использовать это для создания вбросов.
Чтобы не помогать врагу в информационной войне, не стоит взаимодействовать с таким контентом — не лайкать, не распространять или даже не объяснять в комментариях, что фото на самом деле сделано ИИ. Ведь это будет только способствовать его популярности, — заключает эксперт.
Лучше пожаловаться на подобные сообщения и читать проверенные источники информации.
Генераторы изображений и видео могут создавать контент по описанию на базе набора данных из миллиардов изображений в открытой сети Интернет. К тому же, искусственный интеллект может сканировать сайты для обучения, получения, обработки и выдачи информации.
Генеративные модели учатся на открытой информации, алгоритмы “запоминают” словесные конструкции, особенности языков, стилистику и т.д. ИИ в ответ на конкретный запрос, например, “сгенерировать свадебное фото военного”, генерирует лицо людей, военную форму и другие компоненты изображения из открытых данных.
Дискриминаторы оценивают реалистичность фотографий или текстов, которые создает генератор. На основе анализа дискриминатора, генератор доучивается и улучшает исходные данные для пользователей.
Несмотря на постоянное обучение, искусственный интеллект иногда допускает ошибки, которые заметны нашему глазу. Именно эти неточности могут помочь распознать потенциально опасный контент.
Далее делимся лайфхаками, как отличать фото и видео, сгенерированные ИИ.
Чтобы отличить в своей ленте потенциально опасный контент, созданный благодаря ИИ, обращай внимание на следующие детали:
Кроме того, для распознавания и поиска оригинальных фото в сети можно использовать следующие приложения: поиск по изображениям Google, Foto Forensics, TinEye, Hive AI Detector.
Раньше мы рассказывали, какие профессии может скоро заменить ИИ.
А еще у Вікон есть крутой Telegram и классная Instagram-страница.Подписывайся! Мы публикуем важную информацию, эксклюзивы и интересные материалы для тебя.