Искусственный интеллект не создан, но уже требует особой этики
Аналитический центр при правительстве Российской Федерации обещает создать проект кодекса этики искусственного интеллекта (ИИ). К тому же у ИИ, определение которому до сих пор не дано ни в России, ни в других странах, будет свой омбудсмен.
Документ, по которому будет создаваться и развиваться ИИ, назовут «Национальный кодекс в сфере этики искусственного интеллекта».
Стоит пояснить, что в настоящее время ИИ представляет собой набор алгоритмов, которые можно описать с помощью сложных математических формул. Получается, что некий абстрактный инструмент для ускорения вычислений и передачи информации наделяется этикой и правами.
В разработке этики ИИ, помимо аналитического центра участвуют также Альянс в сфере ИИ и Минэкономразвития. Таким образом, есть все основания полагать, что документ не будет иметь никакого научного обоснования. Чтобы обоснование появилось, разработкой должны заниматься ученые, например, из научного совета при президиуме РАН по методологии искусственного интеллекта и когнитивных исследований. Этика остается философским понятием, и то, что кодексом ИИ занимается некая общественная организация вместе с Минэкономразвития ставит под вопрос адекватности и обоснованности такого свода правил.
Сами авторы проекта говорят, что кодекс — это своего рода рекомендации для разработчиков систем с ИИ и компаний, которые используют технологии ИИ. Тогда сразу возникает первый вопрос — зачем его писать, если, в отличие от налогового или семейного кодекса, он не будет иметь юридической силы. И второй вопрос — зачем аналитический центр, самооценка которого раздулась до «мозга мирового масштаба», тратит на написание этого документа выделенные ему в том числе и бюджетные средства?
Первые попытки урегулировать взаимоотношения человека с ИИ в России были предприняты еще в 2018 году в документе «Модельная конвенция робототехники и искусственного интеллекта».
Затем 12 декабря 2019 года несколько крупных госкорпораций и предприятий частного бизнеса подписали «Кодекс этики использования данных». По кодексу стали работать «Билайн», «Газпром-медиа холдинг», Газпромбанк, группа ВТБ, «Мегафон», МТС, «Ростелеком», Сбербанк, Тинькофф Банк, Фонд «Cколково», «Яндекс», Mail.ru Group, OneFactor, Qiwi, а также аналитический центр при правительстве РФ. Кодекс состоит из отраслевых стандартов профессионального и этического поведения, которые его участники (бизнес и государство) признают и обязуются соблюдать. Но соблюдают ли?
Хотелось бы напомнить, что ещё раньше, 6 декабря 2019 года, вице-премьер Максим Акимов на брифинге во время форума «Глобальное технологическое лидерство» в Сочи заявил о том, что этические аспекты взаимодействия ИИ и человека будут сформулированы в России в 2020 году. Разработкой этических норм должен был заняться консорциум во главе со Сбербанком. Но этических аспектов от Сбербанка общество так и не дождалось.
В апреле 2020 года рабочей группой «Нормативное регулирование цифровой среды» организации «Цифровая экономика» была разработана Концепция правового регулирования искусственного интеллекта и робототехники (ИИ и РТ) с целью стать основой для правовой базы в области ИИ, которая должна защищать права и свободы человека и при этом стимулировать развитие высоких технологий в области ИИ.
Итак, в России мы имеем три действующих и два обещанных документа, регулирующих взаимоотношение человека с алгоритмами и компьютерной техникой.
При этом наша страна хоть и обгоняет другие государства по количеству регламентирующих документов в этой области, но идея загнать ИИ в этические рамки принадлежит не только нам.
На данный момент порядка 20 стран занимаются вопросами этики ИИ. Всемирный экономический форум под председательством Клауса Шваба разрабатывает кодекс инклюзивного ИИ, который будет обслуживать инклюзивный капитализм Ватикана.
По состоянию на конец 2019 года по всему миру принято не менее сотни различных актов, руководств, принципов и кодексов, посвященных этике ИИ: «Азиломарские принципы ИИ» (2017), Монреальская декларация об ответственном развитии искусственного интеллекта (2017), Руководство по этике для надежного ИИ специальной группы экспертов высокого уровня Совета Европы (2018) и многие другие.
Все эти документы содержат примерно одинаковый набор принципов и правил для создания ИИ. Технология не должна нарушать неприкосновенность частной жизни, не допускать дискриминации по любому признаку, не причинять вреда её создателю — человеку, полностью контролироваться им, не нарушать прочих прав человека.
Но если созданные людьми нейронные сети так опасны для нашей цивилизации, что им требуется специальный кодекс с омбудсменом в нагрузку, то, может, пора прекратить развивать ИИ в этом направлении, вернуться в исходную точку и принять правильное решение?