Все о Цифровых системах - новости, статьи, обзоры, аналитика. Более 1000 компаний, товаров и услуг в каталоге.
Добавить компанию

Сооснователь OpenAI Илья Суцкевер запускает стартап по разработке «безопасного сверхинтеллекта»

Рубрики: «Искусственный интеллект (AI)», «Информационная безопасность»

Сооснователь OpenAI Илья Суцкевер запускает стартап по разработке «безопасного сверхинтеллекта»

Разработка началась через несколько месяцев после того, как Суцкевер покинул пост главного научного сотрудника OpenAI. Ранее он вышел из совета разработчиков ChatGPT. Считается, что уход Суцкевера связан с его ролью в кратковременном отстранении от должности генерального директора OpenAI Сэма Альтмана в ноябре прошлого года.

Офисы SSI расположены в Пало-Альто и Тель-Авиве. Компания зарегистрирована как Safe Superintelligence Inc., что подтверждает ее стремление уделять приоритетное внимание в своих разработках безопасности искусственного интеллекта.

«Мы рассматриваем вопросы безопасности и возможностей как единое целое», - говорится в кратком объявлении на одностраничном веб-сайте SSI. «Мы планируем как можно быстрее расширять возможности, обеспечивая при этом, чтобы наша безопасность всегда оставалась на высоте».

Суцкевер стал соучредителем Open в 2015 году после того, как помог разработать инновационную модель компьютерного зрения под названием AlexNet в Университете Торонто. AlexNet продемонстрировала, что модели искусственного интеллекта, работающие на графических процессорах, могут использоваться для решения практических задач. Считается, что этот алгоритм вдохновил значительное количество последующих исследований в области глубокого обучения.

Также Илья Суцкевер провел три года, предшествовавшие запуску OpenAI, в компании Google, где внес вклад в создание открытой программной библиотеки для машинного обучения TensorFlow. Он также работал над языковой моделью Seq2seq, которая предшествовала архитектуре Transformer и имела некоторые общие черты с последней технологией.

Суцкевер основал SSI вместе с бывшим исследователем OpenAI Дэниелом Леви, а также с Дэниелом Гроссом, который в какой-то момент возглавлял усилия Apple в области искусственного интеллекта. В объявлении, опубликованном на веб-сайте SSI, трое основателей написали, что «команда, инвесторы и бизнес-модель компании ориентированы на достижение SSI». Это намекает на то, что компания заручилась венчурным финансированием.

«SSI не будет делать ничего другого, кроме усилий по разработке безопасного сверхинтеллекта», - сообщил Суцкевер агентству Bloomberg.

Компания, скорее всего, не будет стремиться коммерциализировать свои исследования в ближайшем будущем. Трое основателей SSI не уточнили, какие подходы они будут использовать для обеспечения безопасности своих моделей искусственного интеллекта. Прежде чем покинуть OpenAI, Суцкевер возглавлял группу, известную как команда Superalignment, которая изучала способы снижения рисков, связанных с передовыми нейронными сетями. Исследования расформированной группы могут дать представление о том, как SSI планирует обеспечить безопасность искусственного интеллекта.

В статье, опубликованной в ноябре прошлого года, команда Superalignment подробно описала подход к безопасности ИИ, известный как «обобщение от слабого к сильному». Он включает в себя регулирование выходных данных продвинутой нейронной сети с использованием второй, менее развитой нейронной сети. В ходе испытаний, проведенных в рамках проекта, исследователи продемонстрировали, как ранний алгоритм OpenAI GPT-2 можно использовать для контроля за более новым, значительно более функциональным алгоритмом GPT-4.

Источник: