Google DeepMind выпускает документ о безопасности общего искусственного интеллекта
Общий искусственный интеллект (Artificial General Intelligence) или AGI – это сильный высокоавтономный искусственный интеллект, который способен мыслить и действовать, как человек, а во многих случаях и превосходить его. В отличие от существующих узких моделей ИИ, которые разработаны для конкретных задач, AGI нацелен на широкую когнитивную гибкость, обучение и адаптацию, отражающие человеческое мышление.
Проще говоря, AGI — это искусственный интеллект, который превзойдет человеческие возможности, система, которая будет умнее человека. И хотя разработка ИИ еще не достигла такой стадии, многие предсказывают, что до появления AGI может пройти всего несколько лет. Когда точка будет достигнута, это приведет к удивительным открытиям, но также и к серьезным рискам.
Google DeepMind обсуждает многие из этих рисков в своем документе «Подход к технической безопасности и защите AGI», в котором излагается стратегия ответственного развития AGI.
«Общий искусственный интеллект, который в большинстве когнитивных задач будет обладать такими же способностями, как человек, может появиться в ближайшие годы. Он будет обладать силой преобразовать наш мир, выступая в качестве катализатора прогресса во многих областях жизни. Но для любой такой мощной технологии важно, чтобы она разрабатывалась ответственно», - сообщает компания DeepMind в своем блоге.
В документе риски AGI классифицируются по четырем основным областям:
- Неправильное использование: связано с опасениями, что такие системы могут быть использованы в качестве оружия или во вредных целях;
- Несоответствие: относится к трудности обеспечения того, чтобы системы AGI последовательно действовали в соответствии с человеческими ценностями и намерениями;
- Несчастные случаи: могут быть связаны с непреднамеренным поведением или сбоями, которые могут возникнуть при работе систем в сложных условиях;
- Структурные риски: включают в себя потенциальную возможность технологии оказывать социальное воздействие, такое как экономические потрясения или дисбалансы власти.
Согласно документу, устранение несоответствия будет включать обеспечение того, чтобы системы AGI были обучены преследовать соответствующие цели и точно следовать инструкциям человека. Обучение систем AGI должно включать разработку методов усиленного надзора и оценки неопределенности для подготовки AGI к широкому спектру реальных сценариев.
Чтобы смягчить эти угрозы, DeepMind уделяет особое внимание усовершенствованному надзору, методам обучения и инструментам оценки неопределенности в выходных данных AGI. Компания также изучает масштабируемые методы надзора, которые направлены на то, чтобы совершенствующиеся модели AGI основывались на намерениях человека, даже если системы AGI становятся более автономными.
В документе подчеркивается важность прозрачности и интерпретируемости в системах AGI. DeepMind заявляет, что вкладывает значительные средства в исследования интерпретируемости, чтобы сделать системы AGI более понятными и проверяемыми — ключевые шаги для приведения AGI в соответствие с человеческими нормами и обеспечения ответственного использования.
DeepMind отмечает, что ни одна организация не должна заниматься разработкой AGI в одиночку. Сотрудничество с более широким исследовательским сообществом, политиками и гражданским обществом будет иметь важное значение для формирования безопасного будущего AGI.