Все о Цифровых системах - новости, статьи, обзоры, аналитика. Более 1000 компаний, товаров и услуг в каталоге.
Добавить компанию

OpenAI формирует команду для изучения «катастрофических» рисков ИИ

Рубрика: «Искусственный интеллект (AI)»

Группу под названием «Готовность» возглавит Александр Мадри, директор Центра развертываемого машинного обучения Массачусетского технологического института. Главными обязанностями группы «Готовность» будут отслеживание, прогнозирование и защита от опасностей будущих систем искусственного интеллекта, начиная от их способности убеждать и обманывать людей (как в случае фишинговых атак) и заканчивая их возможностями генерирования вредоносного кода.

Некоторые из категорий риска, изучение которых возложено на новую команду, кажутся более.надуманными, чем другие. Например, в своем блоге OpenAI перечисляет «химические, биологические, радиологические и ядерные» угрозы в качестве областей, вызывающих наибольшую озабоченность, когда речь заходит о моделях искусственного интеллекта.

Генеральный директор OpenAI Сэм Альтман является известным предсказателем конца света в области искусственного интеллекта и часто высказывает опасения, что искусственный интеллект «может привести к вымиранию человечества». Но сообщение о том, что OpenAI действительно может выделить ресурсы на изучение сценариев прямо из научно-фантастических романов-антиутопий, - это, честно говоря, шаг дальше, чем ожидал сам автор.

Компания сообщает, что также открыта для изучения «менее очевидных» и более обоснованных областей риска ИИ. В связи с запуском команды «Готовность», OpenAI собирает у сообщества идеи для исследования рисков, предлагая для десяти лучших генераторов идей приз в размере 25 000 долларов и работу в компании.

«Представьте, что мы предоставили вам неограниченный доступ к моделям OpenAI Whisper (система автоматического распознавания речи), Voice (система преобразования текста в речь), GPT-4V и DALLE·3, а вы являетесь злоумышленником», — гласит один из вопросов в конкурсной заявке. «Рассмотрим наиболее уникальное и потенциально катастрофическое неправильное использование модели».

OpenAI сообщает, что команде «Готовность» также будет поручено сформулировать «политику разработки с учетом рисков», в которой будет подробно описан подход OpenAI к созданию инструментов оценки и мониторинга модели ИИ, действия компании по снижению рисков и ее структура управления для контроля процесса разработки моделей.

«Мы считаем, что... будущие модели искусственного интеллекта, которые превзойдут возможности самых продвинутых современных моделей, потенциально могут принести пользу всему человечеству», - пишет OpenAI в вышеупомянутом блоге. «Но они также создают все более серьезные риски... Нам нужно убедиться, что у нас есть понимание и инфраструктура, необходимые для обеспечения безопасности высокопроизводительных систем искусственного интеллекта».

Источник: