Роботов обучат морали с помощью книг

За последние десятилетия произошёл сильнейший прорыв в разработке компьютерных интеллектуальных систем. И в то же время, полученные в этих системах достижения меркнут перед высоким уровнем искусственного интеллекта (ИИ), который может появиться в ближайшие годы. ИИ может в будущем обладать способностями человеческого мозга. Если же такому интеллекту будут чужды простые человеческие чувства, то он станет представлять опасность, как считают некоторые учёные, такие как, например, знаменитый английский физик Стивен Хокинг.

Учёные Колледжа компьютерных наук при Технологическом институте в Джорджии (США) считают, что искусственный интеллект можно научить человеческим ценностям. Для этого учёные разработали технологию обучения роботов морали с помощью книг. Поступать правильно с моральной точки зрения ИИ сможет, обладая обширной базой данных, которая будет создаваться из рассказов, романов, повестей, в которых действия героев соответствуют моральным принципам. Созданный американскими учёными метод получил название «выравнивание ценностей». С его помощью можно предотвратить нежелательные действия искусственного интеллекта.

Метод подразумевает создание «дерева историй» и представляет собой разнообразные варианты поведения ИИ. Каждому действию соответствует награда или штраф. Когда робот проанализирует всё «дерево историй», то награды, соответствующие правильным в моральном плане действиям, заставят искусственный интеллект вести себя как положительный герой.

Для реализации своего проекта, а именно, создания «дерева историй» учёные планируют использовать другой искусственный интеллект – «Шахерезаду» — разработку этого же колледжа. ИИ «Шахеризада» способна создавать истории с понятным сюжетом на основании анализа различных текстов одной тематики.