OpenAI запускает для разработчиков новую серию языковых моделей GPT-4.1
Флагманский алгоритм этой серии, GPT-4.1, описывается как «значительно улучшающий» генерацию кода по сравнению со своим предшественником. Две другие модели, GPT-4.1 mini и GPT-4.1 nano, имеют более низкую цену и обеспечивают более высокое качество вывода. Все три модели могут обрабатывать запросы с использованием до 1 миллиона токенов, что позволяет им анализировать большие загрузки, такие как репозитории GitHub.
Когда разработчики просят языковую модель помочь с задачей кодирования, они часто отправляют не один запрос, а несколько. Кроме того, запросы часто ссылаются на ранее введенные данные. OpenAI утверждает, что GPT-4.1 может «извлекать информацию из прошлых сообщений в разговоре» на 10,5% лучше, чем его предшественник, что делает его более полезным для сложных задач программирования.
Программные запросы обычно содержат файл кода и инструкцию по изменению определенных его частей. В ответ на такие запросы ранние модели OpenAI часто выводили не только запрошенные изменения, но и части исходного файла кода, которые не были изменены. Это увеличивало расходы, поскольку компания взимала плату с клиентов на основе объема выходных данных модели.
Новая модель GPT-4.1 настроена на вывод только измененных строк кода вместо целых файлов. Чтобы еще больше сократить расходы, пользователи могут кэшировать ответы на часто вводимые запросы. В рамках обновления продукта OpenAI увеличила скидку на кэширование с 50% до 75%.
Компания утверждает, что GPT-4.1 также лучше генерирует пользовательские интерфейсы и с меньшей вероятностью создает ненужный код, что сокращает время, которое команды разработчиков программного обеспечения должны тратить на фильтрацию выходных данных модели.
Вторая новая модель, GPT-4.1 mini, представляет собой более эффективный с точки зрения оборудования алгоритм с менее продвинутыми возможностями. Тем не менее, он обладает производительностью способной конкурировать с предшественником GPT-4.1.
«Он соответствует или превосходит GPT-4o в оценках интеллекта, одновременно сокращая задержку почти вдвое и снижая стоимость на 83%», — написали сотрудники OpenAI в своем блоге.
Третье дополнение к линейке языковых моделей компании — GPT‑4.1 nano. Эта модель предназначена для относительно простых задач, таких как сортировка документов по темам или поддержка функций автозаполнения кода в инструменте программирования. Помимо меньшей стоимости, она также обеспечивает значительно меньшую задержку вывода, по сравнению с двумя другими новыми моделями OpenAI.
«Мы улучшили наш стек вывода, чтобы сократить время до первого токена, а с помощью оперативного кэширования вы можете еще больше сократить задержку, сэкономив на расходах», — написали сотрудники OpenAI. «В нашем первоначальном тестировании задержка p95 до первого токена для GPT‑4.1 составляет приблизительно 15 секунд при 128’000 токенов контекста и до полуминуты для миллиона токенов контекста».
OpenAI не планирует делать модель GPT-4.1 доступной в чат-боте ChatGPT. Вместо этого компания решила усовершенствовать возможности написания программного кода и следования инструкциям более ранней модели GPT‑4o, которая поддерживает службу чат-бота.