Все о Цифровых системах - новости, статьи, обзоры, аналитика. Более 1000 компаний, товаров и услуг в каталоге.
Добавить компанию

Браузер Opera реализует поддержку 150 локальных моделей искусственного интеллекта

Рубрика: «Искусственный интеллект (AI)»

Локальные LLM Opera

Новая функция будет доступна пользователям браузера Opera One, который получит экспериментальную поддержку 150 вариантов локальных больших языковых моделей из примерно 50 семейств.

Локальные языковые модели позволяют пользователям получать доступ к искусственному интеллекту непосредственно со своего компьютера. При этом уменьшается время задержки, поскольку вся обработка ведется на локальном компьютере, а используемые данные не передаются через Интернет. Однако это также означает, что компьютер нельзя использовать для обучения другой модели. Пользователи, которым нужна повышенная конфиденциальность, позволяющая обрабатывать запросы локально, смогут протестировать новые языковые модели, даже не подключаясь к сети

Новая функция является частью программы Opera AI Feature Drops и доступна для разработчиков браузера Opera. Заинтересованным пользователям необходимо будет перейти на новейшую версию Opera Developer, чтобы получить доступ к локальным LLM.

«Подобное внедрение локальных программ LLM позволяет Opera изучать способы создания опыта и ноу-хау в быстро развивающемся местном пространстве искусственного интеллекта», — сказал Кристиан Колондра, исполнительный вице-президент по браузерам и играм в Opera.

К локальным моделям, поддерживаемым Opera One, относятся Llama, Gemma, Mistral и Vicuna. Большинству локальных языковых моделей требуется от 2 до 10 гигабайт локального дискового пространства для хранения каждого варианта, и они заменяют собственный искусственный интеллект браузера Opera под названием Aria.

Загрузка моделей LLM

Чтобы загрузить и активировать один из новых вариантов, пользователям необходимо открыть Aria Chat, выбрать из раскрывающегося списка «локальный режим», а затем выбрать в настройках модель для загрузки. Оттуда можно будет скачать, а затем активировать различные модели.

Для запуска этих моделей в браузере на компьютере пользователя компания использует платформу с открытым исходным кодом под названием Ollama. В настоящее время все доступные модели являются частью библиотеки Ollama, но в будущем компания планирует добавить модели из разных источников.

«Opera впервые предоставила в браузере доступ к большому количеству сторонних языковых моделей. Ожидается, что со временем модели уменьшатся в размерах , так как они будт становиться всё более специализированными для выполнения конкретных поставленных задач», — сказал Ян Стендал, вице-президент Opera.

Новая функция будет полезна, если пользователь планирует протестировать различные модели LLM локально. Но если необходимо сэкономить дисковое пространство, то для изучения различных моделей существует множество онлайн-инструментов, таких как Poe ​​Quora и HuggingChat.

Источник: