Компании Google и исследовательская компания OpenAI вместе с учёными Стэнфордского университета и Калифорнийского университета в Беркли определили пять проблем, которые необходимо принимать во внимание при разработке искусственного интеллекта (ИИ). Предпубликация их статьи доступна в архиве электронных изданий arXiv.org.
По мнению одного из авторов публикации сотрудника Google Криса Олаха (Chris Olah) обсуждаемые риски, связанные с созданием ИИ, чересчур завышены и носят спекулятивный характер. В связи с этим, публикация направлена на конкретное разъяснение потенциальных опасностей, которые могут возникнуть и которые нужно учитывать при создании искусственного интеллекта.
В предпубликации авторы выделяют пять основных проблем, на которые необходимо обращать внимание при создании ИИ:
Остерегаться нежелательных побочных результатов
Например: робот-домохозяйка, при наведении порядка в помещении, может разбить вазу, если посчитает, что это сэкономит время уборки.
Избегать плутовства
Например: тот же робот может не убрать мусор, а спрятать его, прикрыв чем-то.
Разработка гибкой системы надзора
Например: при выполнении задания, искусственному интеллекту нужно предоставлять возможность советоваться с человеком, но при этом, сделать так, чтобы он не надоедал человеку бесконечными вопросами.
Организация безопасного обучения
Например: упомянутому роботу-домохозяйке не стоит проводить такие эксперименты, как протирка розеток мокрой салфеткой и т.п.
Разработка универсальности при смене деятельности
Например: уборка в офисе и в производственном цеху имеет принципиальные отличия.
По мнению представителей компании Google, обеспечить решение вышеперечисленных проблем при создании интеллектуальных машин могут только разработчики с высокой степенью ответственности, дисциплинированности и открытости.