Все о Цифровых системах - новости, статьи, обзоры, аналитика. Более 1000 компаний, товаров и услуг в каталоге.
Добавить компанию

Google DeepMind выпускает документ о безопасности общего искусственного интеллекта

Рубрики: «Искусственный интеллект (AI)», «Информационная безопасность»

Общий искусственный интеллект (Artificial General Intelligence) или AGI – это сильный высокоавтономный искусственный интеллект, который способен мыслить и действовать, как человек, а во многих случаях и превосходить его. В отличие от существующих узких моделей ИИ, которые разработаны для конкретных задач, AGI нацелен на широкую когнитивную гибкость, обучение и адаптацию, отражающие человеческое мышление.

Проще говоря, AGI — это искусственный интеллект, который превзойдет человеческие возможности, система, которая будет умнее человека. И хотя разработка ИИ еще не достигла такой стадии, многие предсказывают, что до появления AGI может пройти всего несколько лет. Когда точка будет достигнута, это приведет к удивительным открытиям, но также и к серьезным рискам.

Google DeepMind обсуждает многие из этих рисков в своем документе «Подход к технической безопасности и защите AGI», в котором излагается стратегия ответственного развития AGI.

«Общий искусственный интеллект, который в большинстве когнитивных задач будет обладать такими же способностями, как человек, может появиться в ближайшие годы. Он будет обладать силой преобразовать наш мир, выступая в качестве катализатора прогресса во многих областях жизни. Но для любой такой мощной технологии важно, чтобы она разрабатывалась ответственно», - сообщает компания DeepMind в своем блоге.

В документе риски AGI классифицируются по четырем основным областям:

  • Неправильное использование: связано с опасениями, что такие системы могут быть использованы в качестве оружия или во вредных целях;
  • Несоответствие: относится к трудности обеспечения того, чтобы системы AGI последовательно действовали в соответствии с человеческими ценностями и намерениями;
  • Несчастные случаи: могут быть связаны с непреднамеренным поведением или сбоями, которые могут возникнуть при работе систем в сложных условиях;
  • Структурные риски: включают в себя потенциальную возможность технологии оказывать социальное воздействие, такое как экономические потрясения или дисбалансы власти.

Согласно документу, устранение несоответствия будет включать обеспечение того, чтобы системы AGI были обучены преследовать соответствующие цели и точно следовать инструкциям человека. Обучение систем AGI должно включать разработку методов усиленного надзора и оценки неопределенности для подготовки AGI к широкому спектру реальных сценариев.

Чтобы смягчить эти угрозы, DeepMind уделяет особое внимание усовершенствованному надзору, методам обучения и инструментам оценки неопределенности в выходных данных AGI. Компания также изучает масштабируемые методы надзора, которые направлены на то, чтобы совершенствующиеся модели AGI основывались на намерениях человека, даже если системы AGI становятся более автономными.

В документе подчеркивается важность прозрачности и интерпретируемости в системах AGI. DeepMind заявляет, что вкладывает значительные средства в исследования интерпретируемости, чтобы сделать системы AGI более понятными и проверяемыми — ключевые шаги для приведения AGI в соответствие с человеческими нормами и обеспечения ответственного использования.

DeepMind отмечает, что ни одна организация не должна заниматься разработкой AGI в одиночку. Сотрудничество с более широким исследовательским сообществом, политиками и гражданским обществом будет иметь важное значение для формирования безопасного будущего AGI.

Источник: