Новый проспект
Статьи

Этика для роботов

Прочитано: 1347

Фото: кадр из фильма «Терминатор 2: Судный день»

Компании, использующие в своей работе искусственный интеллект, должны будут сверяться с кодексом этики. Законодательной ответственности за его несоблюдение пока нет, а вот репутационные риски для «отступников» вполне реальны, верят игроки рынка.

Российские правила для ИИ

Альянс технологических компаний разработал кодекс этики в сфере искусственного интеллекта (ИИ). Документ устанавливает общие этические принципы и стандарты поведения, которыми следует руководствоваться участникам отношений в сфере искусственного интеллекта. Речь идет о соблюдении общечеловеческих норм при создании, проектировании, конструировании, пилотировании, внедрении и использовании технологий ИИ на всех этапах жизненного цикла.

Первым принципом является человеко-ориентированный и гуманистический подход. «При развитии технологий ИИ человек, его права и свободы должны рассматриваться как наивысшая ценность», — говорится в кодексе. Например, технологии не должны мешать сохранению и развитию когнитивных способностей человека и его творческого потенциала, не должны попирать нравственные, духовные и культурные ценности.

Нельзя допускать вред жизни и здоровью, а также имуществу людей и окружающей среде. Искусственный интеллект в идеале не должен подавлять автономию и свободу воли человека в принятии им решений, а его разработчики не должны допускать выпуск продуктов, которые «целенаправленно вызывают такие последствия». Впрочем, ученый в «Терминаторе», разработавший искусственный интеллект, поработивший впоследствии людей, тоже не хотел ничего плохого.

Отдельным пунктом в документе говорится, что присоединение к кодексу является добровольным.

«Кодекс этики ИИ не запрещает прямо или косвенно каких-либо действий, так как в его основе лежит осознаваемая подписантами ответственность за свои действия, а не правовое принуждение», — поясняет ректор «Университета Иннополис» Александр Тормасов. Хотя некоторые сферы, за которые должно отвечать только и исключительно государство, в кодексе обозначены (например, так называемый саморазвивающийся, или сильный, ИИ). Однако, поясняет Александр Тормасов, документ предполагает, что его подписанты будут стараться избегать ситуаций, связанных с непрозрачностью или предвзятостью своих разработок.

«Многие годы единственным фактором развития технологий являлась прибыль бизнеса. Вопросы безопасности данных, этичности, дискриминации отходили на второй план, — говорит директор Центра технологий искусственного интеллекта Сколтеха, доктор физико-математических наук Иван Оселедец. — Есть много примеров, когда неправильно собранная обучающая выборка впитывала в себя человеческие предрассудки, что отражалось на созданном ИИ».

Правда, в новом документе есть и еще один немаловажный пункт: он не распространяется на военные разработки.

Сколько интеллекта, столько и кодексов

«Сейчас в разных странах мира принято более 100 самостоятельных этических документов на всех уровнях, — рассказал управляющий директор Центра регулирования искусственного интеллекта «Сбера» Андрей Незнамов. — А общее количество документов, так или иначе связанных с этикой ИИ, уже несколько лет назад перевалило за тысячу».

На государственном уровне меж тем таких документов пока не так и много. Это Code of AI Ethics (Великобритания, 2019), AI Ethics Principles (Австралия, 2019). В начале октября 2021 года о создании свода этических принципов в этой области объявил Китай. «С некоторой оговоркой можно отнести сюда Model AI Governance Framework (Сингапур, 2019 и 2020), но здесь этические принципы не выделены в отдельный документ, а являются частью общего описания, — отмечает Александр Тормасов. — Можно также упомянуть The Algorithm charter for Aotearoa (Новая Зеландия, 2020), но там принципы, хотя и утвержденные правительством, очень общие и краткие».

В Канаде и Индии документы, касающиеся этических принципов применения алгоритмов искусственного интеллекта, публикуются от имени соответствующих организаций или объединений, играющих наиболее существенную роль в этой области. «В США общенационального документа нет, но есть отдельный, принятый Пентагоном», — добавляет руководитель лаборатории «Машинное обучение» Университета ИТМО Андрей Фильченков.

«В России кодекс разработан и внедрен в таких компаниях, как Сбербанк, «Яндекс» и ABBY, — перечисляет генеральный директор компании «Сател-СПб» Павел Гольдинштейн. — Разные страны использовали разные стратегии при формировании документа, который будет регулировать контроль применения ИИ без вреда человеку, имуществу или окружающей среде. Например, властям государств Европы важны не только технические задачи, которые выполняет ИИ, но и использование его в рамках закона: например, привлечение к ответственности собственника беспилотного автомобиля в случае возникновения аварии».

Все существующие нормы сводятся к пяти основным принципам, по оценке исследования журнала The Nature. Это справедливость, включая недискриминацию, непредвзятость, инклюзивность, равенство, минимизацию негативных последствий на рынке труда. Кроме того, большую роль играет прозрачность взаимодействия человека с ИИ, принятия решений ИИ, прозрачность использования данных и дата-сетов. Важна и ответственность, которая подразумевает возможность контролировать ИИ, возмещение вреда, причиненного им. Также в топ-5 входят безопасность, включая невозможность причинения ИИ умышленного вреда, и конфиденциальность, включая неприкосновенность частной жизни, гарантии соблюдения прав человека и его законных интересов.

Кодекс и закон

В России на сегодняшний день существует несколько документов, так или иначе связанных со сферой ИИ. Это общий Указ президента РФ от 10 октября 2019 г. №490 «О развитии искусственного интеллекта в Российской Федерации» и Распоряжение правительства РФ от 19 августа 2020 г. №2129-р. В него входит Национальная стратегия развития искусственного интеллекта на период до 2030 года. В Распоряжении №2129-р, в частности, говорится о том, что развитие технологий ИИ и РТ должно основываться на базовых этических нормах. По мнению Александра Тормасова, кодекс этим документам не противоречит, а наоборот детализирует то, что в этих нормативно-правовых актах указано тезисно.

«Все нормы носят рекомендательный характер, — напоминает Андрей Фильченков. — Более того, один из принципов кодекса — как раз-таки соответствие ИИ закону».

«Этот документ — соглашение о намерениях, — поясняет Иван Оселедец. — Внедрение таких подходов в законодательство еще предстоит, и это будет большая и сложная работа, которая связана со многими факторами. В их числе недостаточная информированность о том, что такое ИИ и как он работает; большое количество «страшилок», не соответствующих реальным проблемам; конфликт интересов между государствами и большими корпорациями. Однако рано или поздно разработка ИИ будет подвергнута регулированию, и тут важно найти баланс».

Вредный ИИ

Не беря в расчет апокалиптические сценарии с войной роботов, можно привести несколько примеров «неэтичного ИИ», например технологии DeepFake и Zao. Нейросети изучают реальные фото и видео объекта, а потом создают «двойника», который может и сказать что угодно, и сделать то, что его прототип не сделал бы никогда.

Анализ BigData позволяет, с одной стороны, получать персональную информацию о человеке из анонимизированных данных, но сам факт такого получения явно нарушает принципы этики. Таргетированная реклама, которая использует рекомендации ИИ, также является, по сути, крайней ленточкой, после которой стартует возможность точной идентификации и определения геолокации любого пользователя.

Существует также опасность ошибок в системах распознавания лиц, которые также активно используют ИИ. Еще в 2018 году Массачусетский технологический институт провел исследование, которое показало серьезные ошибки при определении пола у темнокожих женщин. Системы распознавания лиц ошибались в их случае в 20-34%. А, например, частота ошибок для светлокожих мужчин составляла 0,8%. Amazon ещё раньше перестал разрабатывать свою технологию найма персонала с помощью ИИ, как раз из-за отсутствия гендерной нейтральности.

Также разработчикам придётся с куда большей тщательностью подходить к разработке и внедрению различных систем безопасности, помня о том, что алгоритмы ИИ, применяемые в этом процессе, должны быть максимально свободны от предвзятости. «Алгоритм систем ИИ для предотвращения правонарушений должен безусловно базироваться на максимально нейтральном отношении к гендерным, национальным и расовым различиям, — уверен Александр Тормасов. — Российский кодекс создаёт дополнительные препятствия разработчику, прячущемуся за алгоритм и экстраполирующему через него собственные убеждения, пристрастия и стереотипы».

Александр Тормасов считает, что российский кодекс, например, защитит права клиентов, которым отказали в банковском кредите, страховании жизни, приёме на работу и так далее на основании анализа его профайла технологиями ИИ. «Он не даст отмахнуться от требования клиента предоставить ему возможность ознакомиться с описанием хода принятия такого решения соответствующим алгоритмом на понятном для него языке, — пояснил Александр Тормасов. — Естественно, о раскрытии каких-либо ноу-хау разработчика речи идти не может, однако сам ход решения должен быть прозрачен для соответствующих целевых аудиторий».

Игра без правил

Добровольное подписание и доброе намерение следовать положениям кодекса делают его не обязательным для исполнения с юридической точки зрения. По мнению Александра Тормасова, это основная проблема аналогичных кодексов этики, созданных в других странах.

«С другой стороны, кодекс подписан большинством ведущих акторов в исследовании и разработке систем искусственного интеллекта, в интересах которых с этого момента находится и мониторинг поведения подобных «флибустьеров», — рассуждает Александр Тормасов. — Из истории мы хорошо знаем, что подобный контроль, основанный на саморегулировании, может оказываться в разы эффективнее любого принуждения по закону».

«Цель создания подобного рода альянсов — появление института репутации, и пользователи и бизнесы будут обращаться к тем, кто соблюдает довольно простые и понятные базовые принципы», — уверен Иван Оселедец.

«Нарушая рекомендации, компании рискуют столкнуться с репутационными потерями», — согласен Андрей Фильченков.

Кроме того, большинство игроков в этой области высказывают мнение, что лучше самим выработать самоограничения и им следовать, чем ждать появления предписаний от лица государства. При этом они вспоминают истории с регулированием интернета, СОРМ, «законом Яровой» и т. д.

На сегодняшний день к кодексу этики ИИ присоединились ООО «Яндекс», Университет Иннополис, МГИМО, НИУ ВШЭ, МФТИ, ООО «Мэйл.Ру», ПАО «Газпром нефть», ПАО «МТС», ПАО «Ростелеком», ПАО «Сбербанк», ИСП РАН, «Росатом», АО «УК РФПИ», Фонд «Сколково», «СколТех», Университет ИТМО, ЦИАН, ГК InfoWatch.


IT искусственный интеллект робототехника
Другие статьи автора Читайте также по теме
EdTech-рынок в России вырос на треть в 2023 году. Однако уже в IV квартале стало ясно, что темпы роста значительно снижаются. Аналитики считают, что в 2024 году выручка проектов в области образовательных технологий упадет на 10–15%. Вся надежда остается на детский сегмент этого рынка.
Умные датчики и бортовые устройства помогли снизить расход топлива на 20%1, контролировать местонахождение и техническое состояние автомобилей2 в реальном времени и автоматизировать бизнес-процессы.
06.02.2024
Рост популярности ChatGPT и других генеративных языковых моделей вызвал дискуссию о необходимости регулировать сферу искусственного интеллекта (ИИ). Институт статистических исследований и экономики знаний НИУ ВШЭ проанализировал первые законодательные инициативы в этой сфере, принятые или обсуждаемые в Евросоюзе, Китае, России и США.

ТГК-1 по итогам 2023 года получила убыток в 800 млн рублей
29.02.2024
Самой богатой бизнес-леди России третий год подряд стала владелица Wildberries Татьяна Бакальчук
29.02.2024
Число жертв войны в секторе Газа превысило 30 тыс. человек
29.02.2024
Еще два российских бизнесмена из списка Forbes отказались от российского гражданства
29.02.2024
Сразу два инвестора планируют начать в Петербурге выпуск туристических автобусов
29.02.2024
В Москве сегодня задержали главреда "Новой газеты" Сергея Соколова
29.02.2024
Экспорт бензина запретили до 31 августа
29.02.2024
Тихвинский ферросплавный завод в Ленобласти уходит в простой до 1 апреля
29.02.2024
На юго-западе Петербурга открылся коворкинг PARK-PAGE
29.02.2024
Петербургский жилой комплекс стал серебряным призером премии "Топ ЖК-2024"
29.02.2024
Доля апарт-отелей в Петербурге стремительно догоняет "классические" гостиницы
29.02.2024
Льготные программы лизинга не привлекают бизнес, сетуют в ФРП Петербурга
29.02.2024
Путин анонсировал переход к дифференциальной шкале налогообложения
29.02.2024
Владимир Путин предложил списать российским регионам две трети долгов
29.02.2024
В России программу льготной семейной ипотеки продлят до 2030 года
29.02.2024
Росгидромет откажется от данных с зарубежных метеоспутников
29.02.2024
Два десятка социальных объектов строит крупнейший петербургский застройщик
29.02.2024
В Петербурге и Ленобласти за год выросли объемы промышленного производства
29.02.2024
Ученые ВШЭ выяснили, почему большинство детей в стране рождается летом
29.02.2024
Водэн
VEREN
RBI
Строительный трест
InveStoreClub
РосСтройИнвест
РКС
Решение
Прайм Эдвайс
Питер
Петрополь
Петромир
Pen&Paper
Neva Coffee
Первая мебельная
Пепелаев
RRT
Colliers
Ильюшихин
Илоранта
Календарь событий

Метки