Этика для роботов
Фото: кадр из фильма «Терминатор 2: Судный день»
Компании, использующие в своей работе искусственный интеллект, должны будут сверяться с кодексом этики. Законодательной ответственности за его несоблюдение пока нет, а вот репутационные риски для «отступников» вполне реальны, верят игроки рынка.
Российские правила для ИИ
Альянс технологических компаний разработал кодекс этики в сфере искусственного интеллекта (ИИ). Документ устанавливает общие этические принципы и стандарты поведения, которыми следует руководствоваться участникам отношений в сфере искусственного интеллекта. Речь идет о соблюдении общечеловеческих норм при создании, проектировании, конструировании, пилотировании, внедрении и использовании технологий ИИ на всех этапах жизненного цикла.
Первым принципом является человеко-ориентированный и гуманистический подход. «При развитии технологий ИИ человек, его права и свободы должны рассматриваться как наивысшая ценность», — говорится в кодексе. Например, технологии не должны мешать сохранению и развитию когнитивных способностей человека и его творческого потенциала, не должны попирать нравственные, духовные и культурные ценности.
Нельзя допускать вред жизни и здоровью, а также имуществу людей и окружающей среде. Искусственный интеллект в идеале не должен подавлять автономию и свободу воли человека в принятии им решений, а его разработчики не должны допускать выпуск продуктов, которые «целенаправленно вызывают такие последствия». Впрочем, ученый в «Терминаторе», разработавший искусственный интеллект, поработивший впоследствии людей, тоже не хотел ничего плохого.
Отдельным пунктом в документе говорится, что присоединение к кодексу является добровольным.
«Кодекс этики ИИ не запрещает прямо или косвенно каких-либо действий, так как в его основе лежит осознаваемая подписантами ответственность за свои действия, а не правовое принуждение», — поясняет ректор «Университета Иннополис» Александр Тормасов. Хотя некоторые сферы, за которые должно отвечать только и исключительно государство, в кодексе обозначены (например, так называемый саморазвивающийся, или сильный, ИИ). Однако, поясняет Александр Тормасов, документ предполагает, что его подписанты будут стараться избегать ситуаций, связанных с непрозрачностью или предвзятостью своих разработок.
«Многие годы единственным фактором развития технологий являлась прибыль бизнеса. Вопросы безопасности данных, этичности, дискриминации отходили на второй план, — говорит директор Центра технологий искусственного интеллекта Сколтеха, доктор физико-математических наук Иван Оселедец. — Есть много примеров, когда неправильно собранная обучающая выборка впитывала в себя человеческие предрассудки, что отражалось на созданном ИИ».
Правда, в новом документе есть и еще один немаловажный пункт: он не распространяется на военные разработки.
Сколько интеллекта, столько и кодексов
«Сейчас в разных странах мира принято более 100 самостоятельных этических документов на всех уровнях, — рассказал управляющий директор Центра регулирования искусственного интеллекта «Сбера» Андрей Незнамов. — А общее количество документов, так или иначе связанных с этикой ИИ, уже несколько лет назад перевалило за тысячу».
На государственном уровне меж тем таких документов пока не так и много. Это Code of AI Ethics (Великобритания, 2019), AI Ethics Principles (Австралия, 2019). В начале октября 2021 года о создании свода этических принципов в этой области объявил Китай. «С некоторой оговоркой можно отнести сюда Model AI Governance Framework (Сингапур, 2019 и 2020), но здесь этические принципы не выделены в отдельный документ, а являются частью общего описания, — отмечает Александр Тормасов. — Можно также упомянуть The Algorithm charter for Aotearoa (Новая Зеландия, 2020), но там принципы, хотя и утвержденные правительством, очень общие и краткие».
В Канаде и Индии документы, касающиеся этических принципов применения алгоритмов искусственного интеллекта, публикуются от имени соответствующих организаций или объединений, играющих наиболее существенную роль в этой области. «В США общенационального документа нет, но есть отдельный, принятый Пентагоном», — добавляет руководитель лаборатории «Машинное обучение» Университета ИТМО Андрей Фильченков.
«В России кодекс разработан и внедрен в таких компаниях, как Сбербанк, «Яндекс» и ABBY, — перечисляет генеральный директор компании «Сател-СПб» Павел Гольдинштейн. — Разные страны использовали разные стратегии при формировании документа, который будет регулировать контроль применения ИИ без вреда человеку, имуществу или окружающей среде. Например, властям государств Европы важны не только технические задачи, которые выполняет ИИ, но и использование его в рамках закона: например, привлечение к ответственности собственника беспилотного автомобиля в случае возникновения аварии».
Все существующие нормы сводятся к пяти основным принципам, по оценке исследования журнала The Nature. Это справедливость, включая недискриминацию, непредвзятость, инклюзивность, равенство, минимизацию негативных последствий на рынке труда. Кроме того, большую роль играет прозрачность взаимодействия человека с ИИ, принятия решений ИИ, прозрачность использования данных и дата-сетов. Важна и ответственность, которая подразумевает возможность контролировать ИИ, возмещение вреда, причиненного им. Также в топ-5 входят безопасность, включая невозможность причинения ИИ умышленного вреда, и конфиденциальность, включая неприкосновенность частной жизни, гарантии соблюдения прав человека и его законных интересов.
Кодекс и закон
В России на сегодняшний день существует несколько документов, так или иначе связанных со сферой ИИ. Это общий Указ президента РФ от 10 октября 2019 г. №490 «О развитии искусственного интеллекта в Российской Федерации» и Распоряжение правительства РФ от 19 августа 2020 г. №2129-р. В него входит Национальная стратегия развития искусственного интеллекта на период до 2030 года. В Распоряжении №2129-р, в частности, говорится о том, что развитие технологий ИИ и РТ должно основываться на базовых этических нормах. По мнению Александра Тормасова, кодекс этим документам не противоречит, а наоборот детализирует то, что в этих нормативно-правовых актах указано тезисно.
«Все нормы носят рекомендательный характер, — напоминает Андрей Фильченков. — Более того, один из принципов кодекса — как раз-таки соответствие ИИ закону».
«Этот документ — соглашение о намерениях, — поясняет Иван Оселедец. — Внедрение таких подходов в законодательство еще предстоит, и это будет большая и сложная работа, которая связана со многими факторами. В их числе недостаточная информированность о том, что такое ИИ и как он работает; большое количество «страшилок», не соответствующих реальным проблемам; конфликт интересов между государствами и большими корпорациями. Однако рано или поздно разработка ИИ будет подвергнута регулированию, и тут важно найти баланс».
Вредный ИИ
Не беря в расчет апокалиптические сценарии с войной роботов, можно привести несколько примеров «неэтичного ИИ», например технологии DeepFake и Zao. Нейросети изучают реальные фото и видео объекта, а потом создают «двойника», который может и сказать что угодно, и сделать то, что его прототип не сделал бы никогда.
Анализ BigData позволяет, с одной стороны, получать персональную информацию о человеке из анонимизированных данных, но сам факт такого получения явно нарушает принципы этики. Таргетированная реклама, которая использует рекомендации ИИ, также является, по сути, крайней ленточкой, после которой стартует возможность точной идентификации и определения геолокации любого пользователя.
Существует также опасность ошибок в системах распознавания лиц, которые также активно используют ИИ. Еще в 2018 году Массачусетский технологический институт провел исследование, которое показало серьезные ошибки при определении пола у темнокожих женщин. Системы распознавания лиц ошибались в их случае в 20-34%. А, например, частота ошибок для светлокожих мужчин составляла 0,8%. Amazon ещё раньше перестал разрабатывать свою технологию найма персонала с помощью ИИ, как раз из-за отсутствия гендерной нейтральности.
Также разработчикам придётся с куда большей тщательностью подходить к разработке и внедрению различных систем безопасности, помня о том, что алгоритмы ИИ, применяемые в этом процессе, должны быть максимально свободны от предвзятости. «Алгоритм систем ИИ для предотвращения правонарушений должен безусловно базироваться на максимально нейтральном отношении к гендерным, национальным и расовым различиям, — уверен Александр Тормасов. — Российский кодекс создаёт дополнительные препятствия разработчику, прячущемуся за алгоритм и экстраполирующему через него собственные убеждения, пристрастия и стереотипы».
Александр Тормасов считает, что российский кодекс, например, защитит права клиентов, которым отказали в банковском кредите, страховании жизни, приёме на работу и так далее на основании анализа его профайла технологиями ИИ. «Он не даст отмахнуться от требования клиента предоставить ему возможность ознакомиться с описанием хода принятия такого решения соответствующим алгоритмом на понятном для него языке, — пояснил Александр Тормасов. — Естественно, о раскрытии каких-либо ноу-хау разработчика речи идти не может, однако сам ход решения должен быть прозрачен для соответствующих целевых аудиторий».
Игра без правил
Добровольное подписание и доброе намерение следовать положениям кодекса делают его не обязательным для исполнения с юридической точки зрения. По мнению Александра Тормасова, это основная проблема аналогичных кодексов этики, созданных в других странах.
«С другой стороны, кодекс подписан большинством ведущих акторов в исследовании и разработке систем искусственного интеллекта, в интересах которых с этого момента находится и мониторинг поведения подобных «флибустьеров», — рассуждает Александр Тормасов. — Из истории мы хорошо знаем, что подобный контроль, основанный на саморегулировании, может оказываться в разы эффективнее любого принуждения по закону».
«Цель создания подобного рода альянсов — появление института репутации, и пользователи и бизнесы будут обращаться к тем, кто соблюдает довольно простые и понятные базовые принципы», — уверен Иван Оселедец.
«Нарушая рекомендации, компании рискуют столкнуться с репутационными потерями», — согласен Андрей Фильченков.
Кроме того, большинство игроков в этой области высказывают мнение, что лучше самим выработать самоограничения и им следовать, чем ждать появления предписаний от лица государства. При этом они вспоминают истории с регулированием интернета, СОРМ, «законом Яровой» и т. д.
На сегодняшний день к кодексу этики ИИ присоединились ООО «Яндекс», Университет Иннополис, МГИМО, НИУ ВШЭ, МФТИ, ООО «Мэйл.Ру», ПАО «Газпром нефть», ПАО «МТС», ПАО «Ростелеком», ПАО «Сбербанк», ИСП РАН, «Росатом», АО «УК РФПИ», Фонд «Сколково», «СколТех», Университет ИТМО, ЦИАН, ГК InfoWatch.