Русская Церковь и российская наука разрабатывают этический кодекс для искусственного интеллекта
В рамках сразу нескольких мероприятий в России начали активно обсуждать проблему этики искусственного интеллекта. Например, на площадке Аналитического центра при правительстве РФ эксперты 25 августа завили, что первый более-менее комплексный этический кодекс для ИИ может появиться уже осенью этого года. Характерно, что правительство России анонсировало субсидии для разработчиков проектов, связанных с искусственным интеллектом, которые рассчитаны на срок до шести лет. В год такие предприятия могут получать до пятисот миллионов рублей.
Параллельно в Петропавловске-Камчатском с 24 по 26 августа прошел круглый стол «Искусственный интеллект и христианская этика», организаторами которого стали Синодальный отдел РПЦ по взаимодействию с обществом и СМИ, Фонд Конрада Аденауэра и АНО «Национальная технологическая инициатива». Данное мероприятие интересно тем, что в него активно включилась Германия. Так, представители Фонда Аденауэра в рамках круглого стола заявили, что «Церковь в России и Германии не может отойти в сторону, возникает много этических вопросов: где границы применения искусственного интеллекта, как его использовать на благо людей и избегать злоупотреблений. Мы выступаем за тесное сотрудничество с Россией по таким темам».
При этом представители Русской Церкви отметили, что в этические принципы ИИ необходимо заложить категории любви и «общего блага», на которых, собственно, и зиждется христианская цивилизация.
Вообще, вопреки расхожему стереотипу, никто из участников со стороны Церкви на этом круглом столе не протестовал против самого факта внедрения и использования в будущем высоких технологий и искусственного интеллекта. По словам зампредседателя Синодального отдела по взаимоотношениям Церкви с обществом и СМИ Вахтанга Кипшидзе, «то, что Церковь якобы против технического прогресса и не разбирается в достижениях науки, – это миф. Одна из задач сегодня – опровержение этого мифа и поиск согласия между христианской традицией и научно-техническим прогрессом».
В целом же инициатива по поиску универсальных этических норм в цифровой сфере вообще и для ИИ в частности была озвучена уже довольно давно президентом РФ Владимиром Путиным. В начале декабря 2020 года глава России заявил, что «кроме различных административных, законодательных ограничений, нужно подумать о том, чтобы выработать внутренний для среды морально-нравственный кодекс работы искусственного интеллекта. Во многих средах он применяется».
Вообще, как бы удивительно, а для кого-то комично ни выглядели эти слова и состав участников подобных круглых столов, проблема этики ИИ – в перспективе может быть весьма серьезной. И касаться жизни общества в целом, да и международной политики.
Сейчас человечество живет в эпоху BigData, технологий сбора и обработки «больших данных». И на выходе эта «обработка» данных реализуется, например, в адресных рекламных предложениях пользователям, в сортировке нейросетями контента социальных сетей и ответов на поисковые запросы. В глобальном смысле – это такой «выбор без выбора». И уже на этой стадии можно задать вопрос – насколько этичны такие методы и как далеко они могут завести?
Схожие опасения, только уже в сугубо политической плоскости, высказал участник круглого стола по проблемам ИИ и христианской этике епископ Переславский и Угличский Феоктист, отметив, что «тотальное принуждение к добру со стороны государства очень быстро приводит к кошмарам». А ИИ в перспективе может стать инструментом такого принуждения.
Более того, искусственный интеллект в перспективе – это рычаг колоссального влияния в сфере политики и экономики на межгосударственном уровне. Это, по сути, то, что может начать полноценную «цифровую мировую войну». Именно поэтому уже сейчас необходимость в универсальных этических нормах для работы искусственного интеллекта – вполне назревшая необходимость в рамках укрепления глобальной безопасности. И именно тот, кто первым создаст и внедрит этические правила, фактически установит законы новой «большой цифровой игры».
Здесь, конечно, можно сказать, что «всё придумано до нас» и вспомнить «три закона робототехники» Айзека Азимова (кстати, автора не только фантастики, но и работ по истории Ветхого и Нового Заветов). Правила эти, если кто не помнит, очень просты:
-
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
-
Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
-
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Но, право слово, как-то с трудом верится, что в нынешних реалиях государства или корпорации при создании ИИ будут руководствоваться этими очень наивными и идеалистическими «законами». Хотя как одна из основ полноценного этического кодекса – они вполне неплохи.