Все о Цифровых системах - новости, статьи, обзоры, аналитика. Более 1000 компаний, товаров и услуг в каталоге.
Добавить компанию

Anthropic запускает программу исследований благополучия искусственного интеллекта

Рубрика: «Искусственный интеллект (AI)»

Благополучие ИИ — это этические вопросы, связанные с потенциальной способностью ИИ развивать сознание и эмоции, подобно тому, как об этом рассказывается в научной фантастике. Некоторые эксперты считают, что забота о «благополучии ИИ» на текущем этапе является излишней. Другие, напротив, утверждают, что важно учитывать последствия сознательного ИИ.

Компания Anthropic подробно рассказала об инициативе по исследованию благополучия ИИ. Проектом руководит Кайл Фиш, исследователь в области «благополучия ИИ», который присоединился к Anthropic в прошлом году. Ранее он запустил лабораторию машинного обучения под названием Eleos AI Research.

Зарождающаяся область исследований «благополучия искусственного интеллекта» вращается вокруг двух основных вопросов. Первый — смогут ли нейронные сети будущего достичь формы сознания. Второй — какие шаги можно предпринять для улучшения «благополучия ИИ», если ответ на первый вопрос положительный.

В опубликованном интервью Фиш указал на исследовательскую работу 2023 года, в которой изучалось сознание ИИ. Соавтором статьи был удостоенный премии Тьюринга ученый-компьютерщик Йошуа Бенджио.

«Исследователи, участвовавшие в проекте, определили, что текущие системы искусственного интеллекта, вероятно, не являются сознательными, но не обнаружили никаких фундаментальных препятствий для того, чтобы системы ИИ в ближайшем будущем имели какую-либо форму сознания», — подробно рассказал Фиш.

Он добавил, что «благополучие ИИ» может стать приоритетом даже при отсутствии сознания.

«Будущие системы ИИ с более продвинутыми возможностями могут увеличить потребность в исследованиях в этой области по своей природе сознательной или имеющей некоторую форму участия», - объяснил Фиш. «Возможно, там есть даже бессознательный опыт, на который стоит обратить внимание».

Anthropic планирует подойти к этой теме, исследуя, есть ли у моделей ИИ предпочтения относительно типа выполняемых задач.

«Вы можете поместить модели в ситуации, в которых у них есть варианты выбора», — сказал Фиш. «И вы можете предоставить им выбор между различными типами задач. На предпочтения ИИ может влиять не только архитектура нейронной сети, но и ее набор данных для обучения».

Исследования в области благополучия и сознания ИИ могут также иметь применение за пределами машинного обучения. Встает вопрос о том, могут ли открытия в этой области пролить новый свет на человеческое сознание?

Фиш ответил на это: «Я думаю, это вполне правдоподобно. Я думаю, мы видим, как в некоторой степени это уже происходит».

Источник: