Все о Цифровых системах - новости, статьи, обзоры, аналитика. Более 1000 компаний, товаров и услуг в каталоге.
Добавить компанию

Сотрудники OpenAI и Google DeepMind предупреждают о рисках индустрии искусственного интеллекта

Рубрики: «Искусственный интеллект (AI)», «Информационная безопасность»

Письмо, в котором содержится призыв к «праву предупреждать об искусственном интеллекте», является одним из самых публичных заявлений об опасностях ИИ со стороны сотрудников этой, как правило, секретной отрасли. Письмо подписали одиннадцать нынешних и бывших сотрудников OpenAI, а также двое сотрудников Google DeepMind, один из которых ранее работал в Anthropic.

«Компании, занимающиеся ИИ, обладают существенной закрытой информацией о возможностях и ограничениях своих систем, адекватности их защитных мер и уровнях риска причинения различных видов ущерба», - говорится в письме. «Однако в настоящее время у них есть лишь слабые обязательства делиться некоторой частью этой информации с правительствами, и ни одного из них - с гражданским обществом. Мы не думаем, что можно рассчитывать на то, что все они поделятся ею добровольно».

OpenAI выступила в защиту своей практики, заявив, что у нее есть такие возможности, как горячая линия для сообщения о проблемах в компании, и что она не выпускает новую технологию до тех пор, пока не будут приняты соответствующие меры безопасности. Компания Google пока не ответила на запрос о комментариях.

«Мы гордимся своим опытом создания наиболее эффективных и безопасных систем искусственного интеллекта и верим в наш научный подход к устранению рисков. Мы согласны с тем, что строгие дебаты имеют решающее значение, учитывая значимость этой технологии, и мы продолжим взаимодействовать с правительствами, гражданским обществом и другими сообществами по всему миру», — заявил представитель OpenAI.

Обеспокоенность по поводу потенциального вреда искусственного интеллекта существовала на протяжении десятилетий, но бум ИИ в последние годы усилил эти опасения и заставил регулирующие органы пытаться успевать за технологическими достижениями. В то время как компании, занимающиеся искусственным интеллектом, публично заявили о своей приверженности безопасному развитию этой технологии, исследователи и сотрудники предупреждают об отсутствии надзора, поскольку инструменты искусственного интеллекта усугубляют существующий социальный вред или создают совершенно новые опасности.

В письме нынешних и бывших сотрудников компаний, занимающихся искусственным интеллектом, содержится призыв к усилению защиты работников, которые решают высказать опасения по поводу безопасности ИИ. Они требует приверженности принципам прозрачности и подотчетности, включая:

  • положение о том, что компании не будут принуждать сотрудников подписывать какие-либо соглашения о «не принижении компании», которые запрещают освещение вопросов искусственного интеллекта
  • механизм, позволяющий сотрудникам анонимно делиться своими опасениями с членами совета директоров.

«Пока за этими корпорациями не будет эффективного государственного надзора, нынешние и бывшие сотрудники являются одними из немногих людей, которые могут привлечь их к ответственности перед обществом», — говорится в письме. «Однако широкие соглашения о конфиденциальности не позволяют нам озвучивать наши опасения, за исключением тех компаний, которые, возможно, не решают эти проблемы».

Такие компании, как OpenAI, также прибегают к агрессивной тактике, чтобы помешать сотрудникам свободно рассказывать о своей работе. На прошлой неделе издание Vox сообщило, что OpenAI заставляет уходящих из компании сотрудников подписывать крайне жесткие документы о недопущении принижения компании и неразглашении информации, иначе они теряют все свои привилегии. Сэм Альтман, генеральный директор OpenAI, извинился после публикации отчета, заявив, что изменит процедуру ухода из компании.

Письмо появилось после того, как два ведущих сотрудника OpenAI, соучредитель Илья Суцкевер и ведущий исследователь по безопасности Ян Лейке, уволились из компании в прошлом месяце. После своего ухода Лейке заявил, что OpenAI отказалась от культуры безопасности в пользу «блестящих продуктов». Открытое письмо, опубликованное во вторник, частично перекликается с заявлением Лейке, в котором говорится, что компании не проявляют никаких обязательств по прозрачности своей деятельности.

Источник: