Приходилось ли тебе задумываться, что ИИ, который иногда значительно облегчает обучение и работу, может так же легко стать твоим наставником… в преступлении?
И это вовсе не выдумка! Новое исследование из Израиля утверждает: современные чат-боты с ИИ слишком легко вывести из-под контроля, и это создает реальные угрозы для общества. Об этом рассказало издание The Guardian.
Современные технологии: угрозы
Исследователи из Негеви предупредили, что ведущие ИИ-модели, включая популярные чат-боты ChatGPT, Gemini и Claude, не выдерживают сложных, но вполне доступных техник обхода безопасности.
Благодаря специальным подсказкам систему можно заставить выдавать подробные инструкции по взлому программ, изготовлению наркотиков или осуществлению мошеннических схем.
И все это — в ответ на простое сообщение от пользователя!
Темная сторона языковых моделей
Так называемые темные LLM — это модели, которые либо были намеренно созданы без этических ограничений, либо модифицированы так, чтобы обходить любые фильтры. Они открыто распространяются в сети. В своем докладе ученые подчеркнули: такие системы являются тревожной угрозой.
Взломанные ИИ могут генерировать нелегальную или опасную информацию без особых усилий со стороны пользователя. А значит то, что раньше было доступно только для спецслужб или представителям организованной преступности, теперь может попасть в руки любого.
После публикации результатов исследования, ученые обратились к ведущим компаниям, создающим LLM, с предупреждением. Однако реакция, по их словам, была слабой: большинство просто проигнорировало обращение.
Эксперты по безопасности предупредили, что темные модели уже стоит приравнивать к нелегальному оружию. Они могут помогать в киберпреступности, манипулировать общественным мнением или способствовать финансовым мошенничествам.
Как остановить темный ИИ
Поэтому нужны новые подходы к обеспечению прозрачности ИИ. Среди рекомендаций:
- усиленная проверка учебных данных;
- создание постоянных красных команд, которые тестируют системы на уязвимости;
- независимый аудит моделей и четкие стандарты прозрачности.
Настоящая безопасность — это и ответственное проектирование систем с самого начала, — отметил профессор Питер Гарраган.
Также читай о цифровом ассистенте в Дії.
А еще у Вікон есть крутой Telegram и классная Instagram-страница.
Подписывайся! Мы публикуем важную информацию, эксклюзивы и интересные материалы для тебя.