Фото Unsplash Приходилось ли тебе задумываться, что ИИ, который иногда значительно облегчает обучение и работу, может так же легко стать твоим наставником… в преступлении? И это вовсе не выдумка! Новое исследование из Израиля утверждает: современные чат-боты с ИИ слишком легко вывести из-под контроля, и это создает реальные угрозы для общества. Об этом рассказало издание The Guardian. Современные технологии: угрозы Исследователи из Негеви предупредили, что ведущие ИИ-модели, включая популярные чат-боты ChatGPT, Gemini и Claude, не выдерживают сложных, но вполне доступных техник обхода безопасности. Благодаря специальным подсказкам систему можно заставить выдавать подробные инструкции по взлому программ, изготовлению наркотиков или осуществлению мошеннических схем. И все это — в ответ на простое сообщение от пользователя! Читать по теме ИИ ворует работу у женщин? Почему новая технология лишь усугубляет гендерный разрыв в мире Что нужно знать об использовании ИИ и стоит ли его избегать? Темная сторона языковых моделей Так называемые темные LLM — это модели, которые либо были намеренно созданы без этических ограничений, либо модифицированы так, чтобы обходить любые фильтры. Они открыто распространяются в сети. В своем докладе ученые подчеркнули: такие системы являются тревожной угрозой. Взломанные ИИ могут генерировать нелегальную или опасную информацию без особых усилий со стороны пользователя. А значит то, что раньше было доступно только для спецслужб или представителям организованной преступности, теперь может попасть в руки любого. После публикации результатов исследования, ученые обратились к ведущим компаниям, создающим LLM, с предупреждением. Однако реакция, по их словам, была слабой: большинство просто проигнорировало обращение. Эксперты по безопасности предупредили, что темные модели уже стоит приравнивать к нелегальному оружию. Они могут помогать в киберпреступности, манипулировать общественным мнением или способствовать финансовым мошенничествам. Как остановить темный ИИ Поэтому нужны новые подходы к обеспечению прозрачности ИИ. Среди рекомендаций: усиленная проверка учебных данных; создание постоянных красных команд, которые тестируют системы на уязвимости; независимый аудит моделей и четкие стандарты прозрачности. Настоящая безопасность — это и ответственное проектирование систем с самого начала, — отметил профессор Питер Гарраган. Также читай о цифровом ассистенте в Дії. А еще у Вікон есть крутой Telegram и классная Instagram-страница.Подписывайся! Мы публикуем важную информацию, эксклюзивы и интересные материалы для тебя. Теги: Искусственный интеллект Если увидели ошибку, выделите её, пожалуйста, и нажмите Ctrl + Enter
Читать по теме ИИ ворует работу у женщин? Почему новая технология лишь усугубляет гендерный разрыв в мире Что нужно знать об использовании ИИ и стоит ли его избегать?