Все о Цифровых системах - новости, статьи, обзоры, аналитика. Более 1000 компаний, товаров и услуг в каталоге.
Добавить компанию

OpenAI обнаружила, что стартап DeepSeek использовал её данные для обучения модели рассуждений R1

Рубрики: «Искусственный интеллект (AI)», «Генеративный искусственный интеллект»

OpenAI обнаружила, что стартап DeepSeek использовал её данные для обучения модели рассуждений R1

DeepSeek — китайский поставщик искусственного интеллекта, который разрабатывает LLM с открытым исходным кодом. Большая языковая модель R1, которая была представлена на прошлой неделе, является последним дополнением к модельному ряду компании.

Большие языковые модели, такие как R1, разрабатываются с использованием больших объемов обучающих данных. Компания OpenAI сообщила Financial Times, что, по ее мнению, некоторые из этих данных были сгенерированы ее LLM. Это нарушило бы условия обслуживания OpenAI, которые запрещают клиентам использовать ее LLM для обучения конкурирующих моделей.

По данным агентства Bloomberg, потенциальное нецелевое использование данных было впервые обнаружено осенью корпорацией Microsoft. Исследователи кибербезопасности компании определили, что «лица, которые, по их мнению, могут быть связаны с DeepSeek», загружали большие объемы данных через интерфейс прикладного программирования OpenAI. Microsoft уведомила разработчика ChatGPT, который впоследствии заблокировал доступ к API для указанных пользователей.

В заявлении OpenAI говорится, что, по мнению компании, модель R1 могла быть обучена с использованием метода, известного как дистилляция. С помощью дистилляции разработчики вводят в LLM подсказки и используют логический вывод для обучения новой модели. Этот процесс передает знания от одной LLM к другой. Обучение моделей таким образом может значительно сократить расходы, связанные с проектами ИИ.

В своей работе исследователи DeepSeek заявили, что для обучения R1 потребовалась работа графической системы стоимостью 5,6 миллионов долларов. Считается, что эта сумма не включает в себя цену покупки графических процессоров и определенные расходы на разработку модели. Тем не менее, на этом фоне акции Nvidia упали на 17% из-за опасений, что для работы модели R1 и других LLM теперь может не потребоваться столько видеокарт.

Модель R1 использует подход к обработке запросов, называемый «смесью экспертов», или MoE. Стандартные LLM при обработке запроса активируют все свои параметры. Модели MoE, такие как R1, активируют только небольшую часть своих параметров, что значительно снижает использование оборудования и, таким образом, снижает затраты на вывод.

Обучение R1 проводилось с использованием иного подхода, чем во многих более ранних программах LLM на основе трансформаторов. Обычно большие языковые модели обучаются с помощью двух методов, называемых «обучением с подкреплением» и «контролируемой тонкой настройкой». При разработке R1 компания DeepSeek сократила использование последнего метода и в основном использовала обучение с подкреплением.

В проектах обучения с подкреплением разработчики дают языковой модели набор учебных задач. Когда модель успешно выполняет учебную задачу, она получает баллы. Неправильные ответы приводят к потере баллов. Эта обратная связь позволяет модели постепенно изучать правильный способ выполнения полученных ею задач.

Стартап DeepSeek оптимизировал модель R1 для задач рассуждения, таких как генерация программного кода и решение математических задач. Компания OpenAI предлагает собственную оптимизированную для рассуждений серию LLM, во главе с недавно представленной моделью o3. Во внутренних тестах o3 установила рекорды в нескольких самых сложных в мире тестах ИИ.

«Как ведущий разработчик ИИ, мы принимаем контрмеры для защиты нашей интеллектуальной собственности, включая тщательный отбор передовых возможностей для выпускаемыех моделей», — говорится в заявлении OpenAI. «Мы считаем, что по мере продвижения вперед критически важно тесно сотрудничать с правительством США, чтобы наилучшим образом защитить самые эффективные модели от попыток противников и конкурентов завладеть американскими технологиями».

Источник: