Как ИИ может способствовать незаконной деятельности — схемы, о которых вы могли не слышать

Анастасия Жиденко редактор сайта
AI

Приходилось ли тебе задумываться, что ИИ, который иногда значительно облегчает обучение и работу, может так же легко стать твоим наставником… в преступлении?

И это вовсе не выдумка! Новое исследование из Израиля утверждает: современные чат-боты с ИИ слишком легко вывести из-под контроля, и это создает реальные угрозы для общества. Об этом рассказало издание The Guardian.

Современные технологии: угрозы

Исследователи из Негеви предупредили, что ведущие ИИ-модели, включая популярные чат-боты ChatGPT, Gemini и Claude, не выдерживают сложных, но вполне доступных техник обхода безопасности.

Благодаря специальным подсказкам систему можно заставить выдавать подробные инструкции по взлому программ, изготовлению наркотиков или осуществлению мошеннических схем.

И все это — в ответ на простое сообщение от пользователя!

Темная сторона языковых моделей

Так называемые темные LLM — это модели, которые либо были намеренно созданы без этических ограничений, либо модифицированы так, чтобы обходить любые фильтры. Они открыто распространяются в сети. В своем докладе ученые подчеркнули: такие системы являются тревожной угрозой.

Взломанные ИИ могут генерировать нелегальную или опасную информацию без особых усилий со стороны пользователя. А значит то, что раньше было доступно только для спецслужб или представителям организованной преступности, теперь может попасть в руки любого.

После публикации результатов исследования, ученые обратились к ведущим компаниям, создающим LLM, с предупреждением. Однако реакция, по их словам, была слабой: большинство просто проигнорировало обращение.

Эксперты по безопасности предупредили, что темные модели уже стоит приравнивать к нелегальному оружию. Они могут помогать в киберпреступности, манипулировать общественным мнением или способствовать финансовым мошенничествам.

Как остановить темный ИИ

Поэтому нужны новые подходы к обеспечению прозрачности ИИ. Среди рекомендаций:

  • усиленная проверка учебных данных;
  • создание постоянных красных команд, которые тестируют системы на уязвимости;
  • независимый аудит моделей и четкие стандарты прозрачности.

Настоящая безопасность — это и ответственное проектирование систем с самого начала, — отметил профессор Питер Гарраган.

Также читай о цифровом ассистенте в Дії.

А еще у Вікон есть крутой Telegram и классная Instagram-страница.
Подписывайся! Мы публикуем важную информацию, эксклюзивы и интересные материалы для тебя.