OpenAI усиливает внутреннюю безопасность на фоне опасений кражи интеллектуальной собственности
По данным Financial Times, недавние изменения в работе OpenAI включают более строгий контроль за конфиденциальной информацией и усиленную проверку персонала. Решение об усилении безопасности было принято после того, как китайский стартап DeepSeek в январе выпустил конкурирующую модель искусственного интеллекта R1. Как утверждается, эта модель использовала для обучения данные ChatGPT в рамках процесса, известного как «дистилляция» модели» (техника обучения одной модели непосредственно от другой). Этот шаг вызвал иронию в адрес OpenAI, учитывая, что компания обучает свои модели на обширных массивах общедоступных интернет-данных, многие из которых используются без прямого разрешения.
Компания OpenAI приняла меры предосторожности, чтобы не допустить повторения ситуации с Deepseek, а также внедрила физические меры контроля на местах для защиты своей интеллектуальной собственности. Внутренние проекты компании теперь разрабатываются по системе «тентинга», которая подразумевает предоставление доступа к информации только тем членам команды, которые участвуют в конкретных проектах. Ключевые инициативы, такие как модель искусственного интеллекта o1, разработанная в прошлом году, подверглись этой экстремальной практике контроля, фактически изолируя код, данные и даже общение между командами.
Другие новые меры безопасности включают внедрение биометрической аутентификации, например, сканирования отпечатков пальцев для доступа в конфиденциальные лаборатории, а также усиленный подход «запрета по умолчанию» к интернет-подключению во внутренних системах. Часть инфраструктуры компании была изолирована от внешних сетей, чтобы обеспечить физическую изоляцию критически важных данных.
Компания также усилила свою команду по кибербезопасности и управлению, наняв на должность главного сотрудника по информационной безопасности бывшего главу службы безопасности корпорации Palantir Technologes Дейна Стаки, а также назначив в совет директоров отставного генерала армии США Пола Накасоне.
Эти изменения являются частью более широкой отраслевой тенденции: по мере того как генеративный искусственный интеллект становится все более стратегически и коммерчески ценным, защита моделей, на которых он основан, становится столь же важной, как и их создание.


