Этические проблемы, порождённые ИИ – попытки анализа
В связи с распространяющимся практическим применением технологий, получивших обобщённое название «искусственный интеллект» (ИИ, AI – англ., чаще всего термин означает использование т.н. нейросетей – специализированных IT-систем, способных к самообучению для всё более качественного решения определённых задач, ранее недоступных машинам; типичный пример – беспилотное вождение автомобиля – ред.), приобретают актуальность гуманитарные аспекты ИИ. Число публикаций об этом возрастает. Предлагаем вашему вниманию изложение некоторых свежих публикаций по теме.
Проблема глазами бизнесмена рассмотрена колумнистом Washington Post Стивеном Шварцманом (Stephen A. Schwarzman), главой и сооснователем инвестиционной компании Blackstone – в октябре 2018 он вложил 350 миллионов долларов в MIT ради исследований в области ИИ и, как сообщает сайт MIT, «этичной эволюции технологий».
[su_pullquote]«Сосредоточившись на технологиях, мы забудем, что значит быть человеком»[/su_pullquote]
Шварцман видит, что «большинство компаний и индустрий должны трансформироваться (если уже не сделали этого) с помощью ИИ», и после ритуального пассажа об «уникальных лидерских способностях США» обращается к теме этики в связи с ИИ по существу: цель создать как можно более мощный ИИ – ложна. Важнее всего убедиться, что применение ИИ приведёт к «правильным» последствиям.
«Если мы желаем реализовать потенциал ИИ, мы также должны продвигать ИИ так, чтобы поддержать уверенность граждан в полезности ИИ для общества. Мы должны создать структуру для рассмотрения последствий и этических вопросов», - утверждает Шварцман.
[su_pullquote align="right"]В России знают и любят ИИ, но сталкиваются с ним редко – опрос[/su_pullquote]
Паспорта федеральных проектов национальной программы «Цифровая экономика Российской Федерации», заметим, не содержат упоминания об этических проблемах, нуждающихся в решении в связи с ИИ.
Этически обусловленный подход к ИИ означает, в частности, постановку вопроса «следует ли использовать ИИ» в конкретных обстоятельствах».
[su_pullquote]Консультативный комитет Совета Европы декларировал обязательность защиты персональных данных от посягательств ИИ[/su_pullquote]
Постановкой ключевых этических вопросов, связанных с ИИ, должны заняться в первую очередь компании, полагает американский автор. Сюда входят исследования, как избежать ошибок в ИИ-алгоритмах, вредящих процессам обучения устройств и платформ и их функционированию; когда следует раскрывать пользователям факт использования ИИ; как реагировать на опасения людей по поводу влияния ИИ на конфиденциальность; что сказать работникам, боящимся потерять своё место из-за ИИ.
[su_box title="ИИ и компании – этика во-вторых" box_color="#4778a1"]
Действительно, это работает, правда, результата не гарантирует. Сотрудники Google, напомним, возмутились, узнав, что компания намерена работать над ИИ-системами по заказу Пентагона. Однако первоначальный отказ Google от военных заказов сменился фактическим согласием.
[/su_box]
[su_pullquote align="right"]План правительства США в отношении искусственного интеллекта: пусть всё сделают в Google[/su_pullquote]
«Этический подход к ИИ требует глубокого понимания ценностей, отражение которых мы хотим увидеть в применении технологий, – и разработки правил, которые сделают такое отражение возможным. Эти ценности и правила будут найдены на пересечении этики, закона и международных связей; они не будут «спущены» из Кремниевой долины», признаёт Шварцман.
А вот университеты – полные критических умов, не находящихся под давлением рынка и сфокусированные на крупномасштабных идеях, - это подходящее место для изучения последствий применения ИИ. Федеральному правительству потребуется значительно увеличить финансирование ИИ-разработок, чтобы помочь США удерживать технологическое превосходство; и выступить «координатором на этической арене» применительно к трудовым ресурсам, формулирует благое пожелание автор (речь, конечно, об американцах).
[su_pullquote]Роботы и юриспруденция – что России взять из международного опыта[/su_pullquote]
«Гонка ИИ-вооружений означает, что мы нуждаемся в этике», озаглавил Forbes материал, посвящённый той же теме.
«Антиутопические сценарии, проистекающие из-за отсутствия ясных этических принципов и регулирования ИИ, могут включать раскол в обществе, всемогущие монополии, безответственное правительство и злоупотребление властью», - пишет Кася Боровска (Kasia Borowska), доктор медицины и соосновательница Brainpool.ai, международной сети, объединяющей более 300 экспертов по ИИ и машинному обучению.
[su_pullquote align="right"]В России началась разработка стандартов в области квантовых коммуникаций, искусственного интеллекта и умного города[/su_pullquote]
Крупнейшие международные компании и правительства охотятся за разработчиками ИИ-технологий. Лидируют в этой гонке Китай, США и Великобритания; страна, в которой будет расположена «столица искусственного интеллекта», станет сильнее прочих, констатирует автор и переходит к вопросу о данных, которыми питаются ИИ-системы. Facebook, Google, Amazon, Netflix уже демонстрируют, что даёт обладание большими данными о большом числе людей, пользующихся этими онлайн-сервисами: «…Всё, что мы видим, читаем, к чему имеем доступ, контролируется небольшой группой мировой элиты. …Маленькие компании или развивающиеся рынки не способны конкурировать с монополистами, не подпускающими новичков к источникам информации. …Без действий, возглавляемых индустрией, не будет международных этических правил, чтобы регулировать ИИ-рынок».
[su_pullquote]Тест Тьюринга наоборот[/su_pullquote]
Это не единственная этическая проблема, которая отчётлива видна всякому, кто размышляет об ИИ, есть и другие. Непредсказуемы, например, последствия неизбежных ошибок вроде решения доверить ИИ определение расы человека, попавшего в объектив камеры уличного наблюдения.
Сообщение Этические проблемы, порождённые ИИ – попытки анализа появились сначала на Экспертный центр электронного государства.