Все о Цифровых системах - новости, статьи, обзоры, аналитика. Более 1000 компаний, товаров и услуг в каталоге.
Добавить компанию

OpenAI создает комитет по безопасности и начинает обучение новой модели ИИ

Рубрики: «Искусственный интеллект (AI)», «Информационная безопасность»

Необходимость создания комитета возникла в связи с тем, что чат-боты с возможностями генеративного искусственного интеллекта, способные подобно человеку участвовать в диалогах, создавать изображения на основе текстовых подсказок и т.п., становятся все более мощными. Это вызывает резонную обеспокоенность по поводу их безопасности.

Новый комитет будет отвечать за выработку рекомендаций совету директоров по обеспечению безопасности проектов и операций OpenAI.

«Новый комитет по безопасности означает, что OpenAI завершает процесс превращения из неопределенной некоммерческой организации в коммерческую структуру», - сказал управляющий директор D.A. Davidson Гил Лурия. «Это должно помочь упростить разработку продукта при сохранении подотчетности».

В начале этого месяца фирму покинули бывший главный научный сотрудник Илья Суцкевер, а также Ян Лейке, которые были в OpenAI руководителями команды Superalignment, обеспечивающей соответствие искусственного интеллекта поставленным целям. Через несколько дней после этого громкого ухода OpenAI распустила команду Superalignment (менее чем через год после ее создания), а некоторые члены команды были переведены в другие отделы.

Первой задачей комитета будет оценка и дальнейшее развитие процессов и мер безопасности OpenAI, а также представление рекомендаций совету директоров в течение 90 дней. По сообщению компании, после проверки советом директоров OpenAI публично поделится обновленной информацией о принятых рекомендациях.

В состав комитета также входят недавно назначенный главный научный сотрудник Якуб Пахоцкий и глава службы безопасности Мэтт Найт. Компания также будет консультироваться с другими экспертами, в том числе с Робом Джойсом, бывшим директором по кибербезопасности Агентства национальной безопасности, и Джоном Карлином, бывшим сотрудником Министерства юстиции.

OpenAI также заявила, что «недавно начала подготовку своей следующей передовой модели искусственного интеллекта», и что ее модели ИИ лидируют в отрасли по возможностям и безопасности.

«Мы приветствуем активную дискуссию в этот важный момент», — заявили в компании.

Ранее в мае OpenAI анонсировала новую модель искусственного интеллекта, способную вести реалистичный голосовой разговор и взаимодействовать через текст и изображения.

Источник: