Все о Цифровых системах - новости, статьи, обзоры, аналитика. Более 1000 компаний, товаров и услуг в каталоге.
Добавить компанию

OpenAI усиливает внутреннюю безопасность на фоне опасений кражи интеллектуальной собственности

Рубрики: «Информационная безопасность», «Кибербезопасность», «Генеративный AI (Gen AI)»

По данным Financial Times, недавние изменения в работе OpenAI включают более строгий контроль за конфиденциальной информацией и усиленную проверку персонала. Решение об усилении безопасности было принято после того, как китайский стартап DeepSeek в январе выпустил конкурирующую модель искусственного интеллекта R1. Как утверждается, эта модель использовала для обучения данные ChatGPT в рамках процесса, известного как «дистилляция» модели» (техника обучения одной модели непосредственно от другой). Этот шаг вызвал иронию в адрес OpenAI, учитывая, что компания обучает свои модели на обширных массивах общедоступных интернет-данных, многие из которых используются без прямого разрешения.

Компания OpenAI приняла меры предосторожности, чтобы не допустить повторения ситуации с Deepseek, а также внедрила физические меры контроля на местах для защиты своей интеллектуальной собственности. Внутренние проекты компании теперь разрабатываются по системе «тентинга», которая подразумевает предоставление доступа к информации только тем членам команды, которые участвуют в конкретных проектах. Ключевые инициативы, такие как модель искусственного интеллекта o1, разработанная в прошлом году, подверглись этой экстремальной практике контроля, фактически изолируя код, данные и даже общение между командами.

Другие новые меры безопасности включают внедрение биометрической аутентификации, например, сканирования отпечатков пальцев для доступа в конфиденциальные лаборатории, а также усиленный подход «запрета по умолчанию» к интернет-подключению во внутренних системах. Часть инфраструктуры компании была изолирована от внешних сетей, чтобы обеспечить физическую изоляцию критически важных данных.

Компания также усилила свою команду по кибербезопасности и управлению, наняв на должность главного сотрудника по информационной безопасности бывшего главу службы безопасности корпорации Palantir Technologes Дейна Стаки, а также назначив в совет директоров отставного генерала армии США Пола Накасоне.

Эти изменения являются частью более широкой отраслевой тенденции: по мере того как генеративный искусственный интеллект становится все более стратегически и коммерчески ценным, защита моделей, на которых он основан, становится столь же важной, как и их создание.

Источник: