Все о Цифровых системах - новости, статьи, обзоры, аналитика. Более 1000 компаний, товаров и услуг в каталоге.
Добавить компанию

Команда Google AI Red Team формирует будущее кибербезопасности

Рубрики: «Искусственный интеллект (AI)», «Кибербезопасность»

В июне Google выпустила Secure AI Framework (SAIF), чтобы помочь компаниям защитить от взлома модели искусственного интеллекта (ИИ). Платформа нацелена на то, чтобы реализуемые модели искусственного интеллекта были защищены по умолчанию. SAIF может помочь компаниям предотвратить попытки кражи кода нейронной сети и набора обучающих данных, а также может быть полезна для блокировки других типов атак.

В новом отчете подробно рассматривается деятельность Red Team (красной команды) и ее решающая роль в подготовке организаций к потенциальным киберугрозам на основе искусственного интеллекта. Красная команда, с точки зрения безопасности, - это группа, которая выдает себя за врага и пытается осуществить цифровое вторжение в целях тестирования систем безопасности компаний.

Однако, AI Red Team от Google продвигает традиционную роль красной команды на шаг вперед. Наряду с эмуляцией угроз, начиная от национальных государств и заканчивая отдельными преступниками, команда также привносит в свою задачу специализированный опыт в области ИИ, который сегодня становится все более важным активом.

Обладая способностью имитировать реальные сценарии угроз, команда Google AI Red Team использует тактику, методы и процедуры злоумышленников для тестирования различных средств и систем защиты. Используя свой опыт в области искусственного интеллекта, команда может выявить потенциальные уязвимости, адаптировав соответствующие исследования к реальным продуктам и функциям, в которых используется технология искусственного интеллекта. Конечная цель такого тестирования — понять последствия этих имитируемых атак и определить возможности для улучшения мер защиты и безопасности предприятий.

Результаты тестов и симуляций часто выявляют проблемы, особенно учитывая быстро развивающуюся природу технологий искусственного интеллекта. Некоторые атаки невозможно устранить простыми способами, что усиливает необходимость включения информации, полученной в результате работы красной команды, в рабочий процесс организации. Интеграция может помочь в проведении исследований и разработке продуктов, а также повысить общую безопасность систем искусственного интеллекта.

В отчете также подчеркивается ценность традиционных средств контроля безопасности. Несмотря на уникальную природу систем искусственного интеллекта, правильная блокировка систем и моделей может смягчить многие потенциальные уязвимости. Отмечается, что некоторые атаки на системы искусственного интеллекта могут быть обнаружены аналогично обычным атакам, что подчеркивает актуальность стандартных протоколов безопасности.

«Мы надеемся, что этот отчет поможет другим организациям понять, как мы используем эту критически важную команду для защиты систем искусственного интеллекта. Мы также надеемся, что отчет послужит для всех призывом к действию по продвижению SAIF и повышению стандартов безопасности», — говорится в отчете Google. «Мы рекомендуем каждой организации проводить регулярные учения красной команды, чтобы обеспечить безопасность критически важных внедрений искусственного интеллекта в крупных общедоступных системах».

Источник: