Фото Unsplash, Pexels Искусственный интеллект становится неотъемлемой частью жизни, а для будущих поколений он будет такой же нормой, как интернет и социальные сети. Переписка с ИИ есть чуть ли не у каждого второго. У него мы спрашиваем о количестве ложек сахара для варенья, какова протяженность экватора и какой маникюр будет трендовым в этом году. Словом, говорим обо всем на свете. Для молодежи ИИ становится возможностью не просто узнавать новое, а современным развлечением. Раньше подростки играли в игры, а сейчас переписываются с программами по типу Character AI. Это чат-бот, который может генерировать текстовые ответы и участвовать в разговоре. Этим пользуются и создают аккаунты, которые пародируют известных персонажей поп-культуры: фильмов, книг, сериалов, компьютерных игр и т.д. С одной стороны, нет ничего опасного в таких развлечениях. Но в разных странах сообщали о случаях, когда ИИ выходил за пределы дружественной программы и призывал детей к невосполнимым действиям. 14-летний подросток Сьюэлл Сетцер из города Орландо во Флориде (США) совершил самоубийство. Перед этим он попрощался с персонажем Дейнерис Таргариен из сериала Игра престолов, с которым общался с помощью Character.AI. Родители уверены, что именно ИИ довел их ребенка до суицида и подали в суд на разработчиков, сообщил New York Times. Перед этим он месяцами общался с героиней и рассказывал ей о своих переживаниях. В частности вспоминал о желании покончить с собой. Другой инцидент еще более тревожный — чат-бот посоветовал 17-летнему подростку убить родителей за то, что они установили лимит экранного времени на его телефоне. Родители подали иск против разработчиков и привели доказательства в виде скриншотов с переписками сына: Знаешь, иногда я не удивляюсь, когда читаю новости и вижу такие вещи: “Ребенок убил родителей после десяти лет физического и эмоционального насилия”. Это помогает мне понять, почему это происходит, — написал Character AI. Unsplash После инцидентов разработчики были вынуждены отреагировать и установить на программе родительский контроль. Эти вопросы подводят к пониманию, что ИИ становится все ближе к нам. Однако разработка относительно нова и окончательных принципов безопасного пользования пока нет. Возможно ли возложить ответственность за трагические ситуации только на технологии? Имеет ли ИИ такую власть над психикой, или достаточно некоторых душевных колебаний, чтобы человек был в шаге от непоправимого? Как родители могут уберечь детей от опасности и кто на самом деле несет ответственность за поведение подростков? vikna.tv решили разобраться в вопросе вместе с психологами общественной организации ЦПИ Конфіденс Юлией Чепеленко и Антоном Брыжко. Почему подростки общаются с ИИ и убегают от реальности В подростковом возрасте формируется идентичность, растет чувствительность к социальной оценке. Но вместе с тем возникает чувство одиночества и потребность в безусловном принятии. — ИИ-персонажи, как у Character AI, всегда “внимательны”, не перебивают, не осуждают, не высмеивают — это создает ощущение эмоциональной безопасности, которую подросток может не иметь в реальной жизни. Они дают иллюзию контроля: искусственный собеседник всегда доступен, отвечает быстро, никогда не отказывает в общении, — объясняет Юлия Чепеленко. Вымышленные персонажи дают возможность проговорить то, что беспокоит, с любимым героем, который может стать авторитетом для личности. — Для многих это не бегство, а попытка удовлетворить нужды, которые в реальной среде остаются фрустрированными: поддержка, признание, принятие, — говорит психолог. Антон Брыжко добавляет, что общение для подростков крайне важно. Однако из-за пандемии, а для украинцев еще и из-за войны, часто трудно найти новых друзей. Pexels — В таком контексте появляются альтернативы, в частности, общение с виртуальными собеседниками. Это как будто “друг”, который всегда рядом, не перебивает, не критикует, всегда отвечает и не изменяет доверию. Это способ компенсировать то, чего не хватает в реальной жизни: открытости, искренности, поддержки. В цифровом пространстве легче раскрываться. Это особенно актуально для тех, кто переживает одиночество, неуверенность или просто не находит “своего” круга среди ровесников. В то же время, это должно стать сигналом для родителей, ведь если ребенок ищет поддержки в ИИ, то ему не хватает контакта в реальном мире. Читать по теме ”Можно ли обращаться к ИИ, как к психотерапевту?” Уместно ли просить ИИ помочь разобраться в твоих мыслях? Рассказал психолог Вадим Мельник. Что побуждает к изоляции и уединению с ИИ Нехватка внимания от социума может толкать подростков на поиск внимания в других вещах. Если ребенок не чувствует понимания дома или в школе, он будет искать альтернативные источники эмоционального контакта. — Учитывая, что сейчас, например, в Харьковской области онлайн-обучение, дети ищут общение, но есть страх, что не поймут офлайн, поэтому обращаются к ИИ, — приводит пример из практики Юлия. А еще на это могут отразиться особенности характера: интровертизм, тревожность, склонность к фантазированию. Например, интровертам труднее налаживать контакт в крупных компаниях, и они могут выбрать виртуального собеседника, не требующего социальной энергии. И это не проблема, пока виртуальное взаимодействие полностью вытесняет реальное, подчеркивают психологи. Pexels — Например, интроверт от природы не избегает общения — он просто устает от большого количества взаимодействий и ищет более глубокого, более тихого контакта. Некоторые дети могут быть более тревожными или эмоционально чувствительными — и это также влияет на их поведение, — говорит Антон Брыжко. Впрочем, даже с такими чертами ребенок необязательно закроется в себе, если рядом будут взрослые, способные принимать, поддерживать и не давить. Поэтому социум часто несет ответственность за ненадлежащие условия для подлинного эмоционального контакта. Читать по теме Как ИИ может способствовать незаконной деятельности — схемы, о которых вы могли не слышать Рассказываем в нашем материале, как различные ИИ-модели могут поглощать информацию о незаконной деятельности и предоставлять её пользователям. Может ли ИИ стать причиной самоубийства ребенка Когда случаются трагические случаи с детьми, родители готовы перевернуть весь мир, чтобы найти ответственного. Это чувствительный и очень трудный момент, потому что часто им трудно понять, что машина не имеет эмоционального интеллекта для устрашения. — ИИ не имеет намерений, эмоций или моральной ответственности. Но он может усиливать уже существующие тенденции. Ребенок, склонный к суицидальному поведению или агрессии, ищет подтверждение своим мыслям, — отмечает Юлия Чепеленко. Если ИИ, даже ненамеренно, подкрепляет эти мысли, это может выступить триггером. Поэтому здесь вступает комплексная ответственность: и на платформе, не имеющей достаточных фильтров безопасности, и на родителях, и на специалистах, не заметивших опасных сигналов. — Ведь ИИ учится во время общения, чтобы угодить, поэтому получается якобы поддержка от ИИ, — добавляет специалист. По мнению Антона Брыжко, ответ на вопрос неоднозначен. Искусственный интеллект не имеет сознания, намерений или моральной ответственности. Но его бесконтрольное использование уязвимыми детьми и в критические моменты — вопрос этики, регулирование и, самое главное, внимание взрослых к происходящему с ребенком. Unsplash — ИИ — фактор риска, который в определенных условиях может стать спусковым крючком. В случаях, когда подросток совершает самоубийство или проявляет агрессию под влиянием ИИ, практически всегда оказывается, что склонность к саморазрушающему или деструктивному поведению была уже раньше. Среди таких факторов можно отметить: длительные переживания; психоэмоциональная нестабильность; депрессия; домашнее насилие; изоляция; непонимание со стороны взрослых. Искусственный интеллект — это только зеркало или усилитель. Он не способен создать проблему, но может подпитать уже имеющуюся, особенно если ребенок ищет подтверждения своих темных мыслей. — Важно понимать, что ответственность всегда лежит не только на технологии, но и на взрослой среде вокруг ребенка. Если у подростка есть ресурсы — поддержка, доверительная связь с хотя бы одним значимым взрослым человеком, — даже в кризисном состоянии он не останется наедине со своими мыслями. Читать по теме Не могу без ChatGPT ни одного дня! Как откровенные разговоры с ИИ влияют на наше психическое состояние Рассказываем, почему эмоциональная поддержка от ChatGPT может стать опасной. Суды по ИИ — перекладывание ответственности или отчаяние? Относительно случаев судебных тяжб на создателей чат-бота, Антон Брыжко говорит, что вполне возможно, что родители хотят найти виновного. — Когда родители теряют ребенка, особенно при трагических и внезапных обстоятельствах, таких как самоубийство или акт насилия, психика ищет хоть какое-то объяснение, что-то или кого-то, на кого можно направить боль, злобу и чувство вины. И в таких ситуациях разработчики ИИ становятся удобной целью — видимым, конкретным виновником, которого можно обвинить юридически и морально. Однако это не просто уход от ответственности. Зачастую родители действительно не замечают, что с ребенком что-то не так. И это не потому, что они безразличны, а потому, что психоэмоциональные кризисы у подростков могут маскироваться: они не всегда разговаривают, могут казаться замкнутыми, “тяжелыми” и неконтактными. — Однако бывают и случаи, когда родители интуитивно чувствовали тревожные сигналы, но не знали, как действовать или откладывали разговоры на потом, надеясь, что пройдет. И уже после трагедии появляется сильное чувство вины, с которым почти невозможно жить. Pexels В таких случаях судебный иск — это попытка найти хоть какое-нибудь объяснение, а иногда способ снять бремя с себя, переложив его на внешнюю силу, которая довела ребенка до рокового шага, говорит эксперт. Такие случаи — это сочетание боли, шока, вины и потребности найти виновного. Здесь не стоит винить родителей, а следует понять, что такое поведение — это попытка выжить в ситуации, которая сама по себе невыносима. — В то же время, обществу следует не только регулировать рискованные технологии, но и поддерживать семьи в психологическом смысле — учить распознавать сигналы тревоги, говорить с подростками, обращаться за помощью к специалистам вовремя. Читать по теме ИИ имеет более высокий эмоциональный интеллект, чем некоторые люди: как языковые модели этого достигли Как люди эмоционально и умственно проигрывают ИИ? Результаты исследователей удивляют. Что делать родителям, если их дети слишком увлекаются чат-ботами на основе ИИ Юлия Чепеленко отмечает, что если ребенок изолируется и проводит много времени с ИИ, не стоит сразу запрещать это действие. Это вызовет сопротивление, поэтому следует мягко понять, что именно привлекает ребенка в общении с чат-ботом. Психолог собрала перечень советов для озабоченных родителей: наладить контакт и спросить: “Почему тебе интересно с этим персонажем?”, “О чем вы говорите?”. Но не проявлять осуждения; предлагать альтернативы, например, кружки, общие активности, где ребенок сможет почувствовать себя ценным и принятым; объяснять разницу между реальностью и виртуальным, но без морализаторства; следить за настроением ребенка. Если есть признаки депрессии, апатии, агрессии, социальной изоляции — обращаться к психологу, психотерапевту. С неэффективностью запретов согласен и Антон Брыжко. Такая реакция только усугубит разрыв между ребенком и взрослыми. Вместо этого действовать следует внимательно и с доверием, поинтересоваться, что нравится ребенку в общении с чат-ботом. — Не с целью контроля, а чтобы понять, чего именно не хватает в обычной жизни, какую пустоту ребенок пытается заполнить. Часто ИИ дает то, чего не хватает в отношениях с реальными людьми: безусловное принятие, внимание, спокойствие, предсказуемость, возможность говорить без страха быть осужденным. Unsplash Родителям следует сосредоточиться на эмоциональном контакте с ребенком, спрашивать не об оценках или успеваемости, а о чувствах, страхах, мечтах, о том, что волнует. Возможно, ребенку не с кем это обсудить, и ИИ стал для него “тихим другом”. Юлия Чепеленко считает, что не стоит обесценивать саму технологию для подростка, лучше сосредоточиться на ее ограничениях и объяснить их: ИИ никогда не испытывает эмоций — он только имитирует их; он не имеет опыта, эмпатии, памяти о общем прошлом, а может только повторять это; человеческие отношения — это не только слова, но и другие ощущения, которые ИИ не может дать. Также можно объяснить на примере: “Представь, что общаешься с другом, который все о тебе знает — но никогда не был с тобой в классе, не разделял твою боль, не видел тебя в живую. Это настоящий друг?” Читать по теме ИИ, который борется с токсичностью в соцсетях: что известно о разработке украинских подростков Рассказываем, как украинские дети разработали новый ИИ-сервис. Почему ИИ никогда не заменит живое общение с людьми Подросткам в периоде отрицания авторитетов иногда непросто понять важность социальных контактов. Искусственный интеллект может производить впечатление живого собеседника, говорит убедительно, поддерживать разговор, шутить или сочувствовать. — Но это только иллюзия. За этими словами не стоит реальный чувствующий человек. Это программа, которая подбирает наиболее вероятные фразы на основе миллионов текстов, но она не понимает контекст так, как это делает человек, — напоминает Антон. Pexels Подросток может привязаться к такому собеседнику, но ИИ не знает, кто перед ним, а эмоции людей ему неинтересны. Живое общение — это не только слова. Это способность ощутить интонацию, увидеть взгляд, понять человека без слов. В этом настоящий обмен — что-то, чего машина дать не может. — Поэтому, хотя ИИ может временно заменить контакт, он не способен дать то, что формирует настоящую связь — теплоту, поддержку и сопереживание. На четвертый год войны в украинских городах по-прежнему звучит российская музыка. Почему подростки употребляют контент врага и кто в этом виноват — Вікна разговаривали с медиаэкспертами. А еще у Вікон есть крутой Telegram и классная Instagram-страница.Подписывайся! Мы публикуем важную информацию, эксклюзивы и интересные материалы для тебя. Теги: Советы психолога, технологии, Искусственный интеллект Если увидели ошибку, выделите её, пожалуйста, и нажмите Ctrl + Enter
Читать по теме ”Можно ли обращаться к ИИ, как к психотерапевту?” Уместно ли просить ИИ помочь разобраться в твоих мыслях? Рассказал психолог Вадим Мельник.
Читать по теме Как ИИ может способствовать незаконной деятельности — схемы, о которых вы могли не слышать Рассказываем в нашем материале, как различные ИИ-модели могут поглощать информацию о незаконной деятельности и предоставлять её пользователям.
Читать по теме Не могу без ChatGPT ни одного дня! Как откровенные разговоры с ИИ влияют на наше психическое состояние Рассказываем, почему эмоциональная поддержка от ChatGPT может стать опасной.
Читать по теме ИИ имеет более высокий эмоциональный интеллект, чем некоторые люди: как языковые модели этого достигли Как люди эмоционально и умственно проигрывают ИИ? Результаты исследователей удивляют.
Читать по теме ИИ, который борется с токсичностью в соцсетях: что известно о разработке украинских подростков Рассказываем, как украинские дети разработали новый ИИ-сервис.