Все о Цифровых системах - новости, статьи, обзоры, аналитика. Более 1000 компаний, товаров и услуг в каталоге.
Добавить компанию

Исследователи выявили уязвимость безопасности роботов с искусственным интеллектом

Рубрики: «Искусственный интеллект (AI)», «Робототехника», «Кибербезопасность»

Исследователи выявили уязвимость безопасности роботов с искусственным интеллектом

Исследование, финансируемое Национальным научным фондом, было сосредоточено на интеграции в робототехнику больших языковых моделей (LLM). Результаты показывают, что большое количество роботов с искусственным интеллектом могут быть взломаны или подвержены манипуляциям, что может привести к опасным последствиям.

Джордж Паппас, профессор UPS Foundation в Пенсильванском университете, сказал: «Наша работа показывает, что на данный момент большие языковые модели просто недостаточно безопасны при интеграции с физическим миром».

Исследовательская группа разработала алгоритм под названием RoboPAIR, который позволил добиться 100%-ного «джейлбрейка» систем всего за несколько дней. Джейлбрейк –это программный взлом, который позволяет получить неограниченный доступ к устройству за счет использования уязвимостей операционной системы.

Алгоритм RoboPAIR успешно обошел защиту в трех различных роботизированных системах: четвероногом роботе Unitree Go2, колесном транспортном средстве Clearpath Robotics Jackal и симуляторе самостоятельного вождения Dolphin LLM от NVIDIA.

Особенно исследователей беспокоила уязвимость ChatGPT от OpenAI, которая управляет первыми двумя системами. Исследователи продемонстрировали, что, обходя протоколы безопасности, можно, манипулировать системой беспилотного вождения – например, чтобы она проезжала пешеходные переходы на большой скорости.

Александр Роби, выпускник инженерного факультета Пенсильванского университета, подчеркивает важность выявления этих слабых мест: «Здесь важно подчеркнуть, что, когда вы находите слабые места систем, они становятся безопаснее. Это справедливо как для систем кибербезопасности, так и для безопасности ИИ».

Исследователи утверждают, что для решения этой проблемы требуется нечто большее, чем простое исправление программного обеспечения. Они призывают к комплексной переоценке того, как регулируется интеграция ИИ в робототехнику и в другие физические системы.

Виджай Кумар, декан факультета инженерии Пенсильванского университета и соавтор исследования, прокомментировал: «Мы должны устранить внутренние уязвимости, прежде чем внедрять роботов с поддержкой ИИ в реальный мир. Действительно, наше исследование разрабатывает структуру для проверки и подтверждения, которая гарантирует, что только действия, соответствующие социальным нормам, могут — и должны — выполняться роботизированными системами».

«Чат-боты, такие как ChatGPT, могут быть взломаны для вывода вредоносного текста. Но что насчет роботов? Можно ли взломать роботов, управляемых ИИ, для выполнения вредоносных действий в реальном мире? Наша новая статья показывает, что взломать роботов, управляемых ИИ, не просто возможно - это пугающе легко.», - добавил Александр Роби.

До публикации исследования Пенсильванский университет проинформировал затронутые компании об уязвимостях их систем. Теперь исследователи сотрудничают с производителями роботов, чтобы использовать свои выводы в качестве основы для продвижения тестирования и проверки протоколов безопасности искусственного интеллекта.

Источник: