Исследователи выявили уязвимость безопасности роботов с искусственным интеллектом
Исследование, финансируемое Национальным научным фондом, было сосредоточено на интеграции в робототехнику больших языковых моделей (LLM). Результаты показывают, что большое количество роботов с искусственным интеллектом могут быть взломаны или подвержены манипуляциям, что может привести к опасным последствиям.
Джордж Паппас, профессор UPS Foundation в Пенсильванском университете, сказал: «Наша работа показывает, что на данный момент большие языковые модели просто недостаточно безопасны при интеграции с физическим миром».
Исследовательская группа разработала алгоритм под названием RoboPAIR, который позволил добиться 100%-ного «джейлбрейка» систем всего за несколько дней. Джейлбрейк –это программный взлом, который позволяет получить неограниченный доступ к устройству за счет использования уязвимостей операционной системы.
Алгоритм RoboPAIR успешно обошел защиту в трех различных роботизированных системах: четвероногом роботе Unitree Go2, колесном транспортном средстве Clearpath Robotics Jackal и симуляторе самостоятельного вождения Dolphin LLM от NVIDIA.
Особенно исследователей беспокоила уязвимость ChatGPT от OpenAI, которая управляет первыми двумя системами. Исследователи продемонстрировали, что, обходя протоколы безопасности, можно, манипулировать системой беспилотного вождения – например, чтобы она проезжала пешеходные переходы на большой скорости.
Александр Роби, выпускник инженерного факультета Пенсильванского университета, подчеркивает важность выявления этих слабых мест: «Здесь важно подчеркнуть, что, когда вы находите слабые места систем, они становятся безопаснее. Это справедливо как для систем кибербезопасности, так и для безопасности ИИ».
Исследователи утверждают, что для решения этой проблемы требуется нечто большее, чем простое исправление программного обеспечения. Они призывают к комплексной переоценке того, как регулируется интеграция ИИ в робототехнику и в другие физические системы.
Виджай Кумар, декан факультета инженерии Пенсильванского университета и соавтор исследования, прокомментировал: «Мы должны устранить внутренние уязвимости, прежде чем внедрять роботов с поддержкой ИИ в реальный мир. Действительно, наше исследование разрабатывает структуру для проверки и подтверждения, которая гарантирует, что только действия, соответствующие социальным нормам, могут — и должны — выполняться роботизированными системами».
«Чат-боты, такие как ChatGPT, могут быть взломаны для вывода вредоносного текста. Но что насчет роботов? Можно ли взломать роботов, управляемых ИИ, для выполнения вредоносных действий в реальном мире? Наша новая статья показывает, что взломать роботов, управляемых ИИ, не просто возможно - это пугающе легко.», - добавил Александр Роби.
До публикации исследования Пенсильванский университет проинформировал затронутые компании об уязвимостях их систем. Теперь исследователи сотрудничают с производителями роботов, чтобы использовать свои выводы в качестве основы для продвижения тестирования и проверки протоколов безопасности искусственного интеллекта.