Законодательное регулирование искусственного интеллекта
0
36
В Совете Федерации России готовится законодательная инициатива, направленная на этическое регулирование технологий искусственного интеллекта (ИИ) в России. В верхней палате парламента, сенаторы планируют выступить с предложением о нормативном закреплении этических принципов разработки и применения ИИ. Ключевым элементом инициативы станет интеграция специального Кодекса этики в сфере искусственного интеллекта непосредственно в правовое поле страны. Это призвано создать устойчивые юридические ориентиры для всех участников рынка – от разработчиков до конечных пользователей. Кроме того, в рамках предлагаемых мер рассматривается установление прямого запрета на создание и использование алгоритмов ИИ, содержащих дискриминирующие параметры. Речь идет о недопустимости построения систем, которые могли бы ущемлять права граждан по любым признакам, будь то пол, возраст, раса, убеждения или социальное положение. Искусственный интеллект может ущемлять права граждан, часто непреднамеренно, из-за «зашитых» в него данных, алгоритмов или способов применения. Это происходит несколькими ключевыми путями: 1. ИИ обучается на исторических данных, которые часто отражают существующие в обществе предрассудки (например, в сфере найма, кредитования, правосудия). Например, система отбора резюме может «научиться» отдавать предпочтение мужским кандидатурам на технические должности, если исторически эти позиции занимали в основном мужчины. 2. Алгоритм оценки кредитоспособности может необоснованно занижать баллы жителям определенных районов (этнических или бедных кварталов), дискриминируя их по косвенному признаку. 3. Технологии показывают значительно более высокую точность для лиц белых мужчин и гораздо чаще ошибаются при идентификации женщин и людей с темным цветом кожи, что может привести к ложным обвинениям. 4. Системы распознавания лиц в публичных пространствах могут использоваться для тотального наблюдения за гражданами, подавляя свободу собраний и выражения мнений. 5. Анализ больших данных (данных о покупках, перемещениях, соцсетях) позволяет предсказывать личные склонности, состояние здоровья или политические взгляды, что является грубым вторжением в частную жизнь. 6. Централизованные базы данных для обучения ИИ становятся лакомыми целями для хакеров, что ставит под угрозу личную информацию миллионов людей. 7. Отсутствие прозрачности и «права на объяснение», т.е. проблема «черного ящика» – многие сложные модели ИИ (особенно глубокое обучение) не позволяют понять, как именно они пришли к конкретному решению, например, человеку отказали в кредите, страховке или ему вынесли более строгий приговор на основе рекомендации ИИ. Почему? Дать внятное, конкретное объяснение часто невозможно. Это нарушает право человека на справедливое разбирательство и возможность оспорить решение. 8. Социальная сортировка и автоматизация бедности, государственные и социальные службы начинают использовать ИИ для распределения ресурсов, выявления мошенничества, оценки нуждаемости. В итоге, ошибки алгоритмов или неверные критерии могут автоматически лишать наиболее уязвимых граждан (например, людей с низким доходом, инвалидов) необходимой помощи, усугубляя социальное неравенство. Система «наказывает» тех, кто и так в тяжелом положении. 9. Персонализированная реклама и пропаганда: Алгоритмы соцсетей и поисковиков, оптимизирующие вовлеченность, могут создавать «информационные пузыри» и целенаправленно манипулировать мнением людей, влияя на их политический выбор. Динамическое ценообразование на основе ИИ может приводить к несправедливой дискриминации – разным ценам для разных пользователей на одни и те же товары или услуги (например, билеты, такси, отели). 10. Автоматизация рабочих мест угрожает целым профессиям, особенно в сферах рутинного труда, без создания адекватных программ переподготовки, что нарушает право на труд. Неравный доступ, или «цифровой разрыв» – когда передовые технологии ИИ (в медицине, образовании, сервисах) доступны лишь обеспеченным слоям или развитым регионам, усугубляет социальное неравенство. Следовательно, главная опасность заключается не в «злом» ИИ, а в человеческих ошибках и системных перекосах, которые он тиражирует в гигантских масштабах с кажущейся объективностью. Именно поэтому инициатива по законодательному закреплению этики ИИ, включая прямой запрет дискриминационных алгоритмов, является критически важным шагом для защиты прав граждан в цифровую эпоху. Таким образом, законодатели намерены превентивно исключить возможность внесения предвзятости и социальной несправедливости в автоматизированные решения», – отмечает доцент Ставропольского филиала Президентской академии Лилия Рябова.