В июле 2018 года в Институте «Будущее жизни» (FLI), организации, которая стремится смягчить экзистенциальные риски от передового искусственного интеллекта (ИИ), опубликовали публичное обещание запретить разработку автономных систем летального вооружения (lethal autonomous weapons systems — LAWS). FLI является одним из самых уважаемых учреждений в области исследования рисков, связанных с использованием технологии искусственного интеллекта (ИИ). Однако взятое FLI на себя обязательство «не участвовать, не поддерживать разработку, производство, торговлю или использование автономных систем летального вооружения» не оказало значительного международного воздействия. Некоторые из ведущих исследователей в области ИИ, включая Йошуа Бенжио и Юргена Шмидхубера, такие компании, как Google DeepMind и Element AI, а также академические институты США взяли на себя обязательство, озвученное FLI. С другой стороны, 26 стран мира, включая Китай, Кубу, Венесуэлу и Зимбабве, призвали к запрету LAWS, пишет Райан Курана в статье для The National Interest.

Цитата из к/ф «Робокоп-2». Реж. Ирвин Кершнер. 1986. США
Робот

Читайте также: Project Syndicate: НАФТА 2.0 — это успех или полный провал?

Учитывая то, что существуют обоснованные этические и прагматические соображения относительно LAWS, не следует полностью отказываться от проектов в данной области, скорее всего, нужно обеспечить необходимое регулирование, чтобы данные технологии использовались в целях утверждения мира.

Автономные системы летального вооружения — это военные системы, оснащенные искусственным интеллектом, которые способны самостоятельно принимать решение о ликвидации противника без участия человека. Подобные системы пока еще не разработаны, однако на поле битвы уже используют технологии искусственного интеллекта и передовые разработки в области робототехники. Наиболее сильный импульс к использованию беспилотных технологий на поле боя придали российские военные, которые доставили в Сирию робототехнический комплекс разминирования «Уран-6». Ранее в 2018 году подтвердилось сообщение о том, что Россия доставила в зону сирийского конфликта боевой многофункциональный робототехнический комплекс на гусеничном ходу «Уран-9», оснащенный противотанковыми ракетами, автоматической пушкой и пулеметом. Управление «Уран-9» осуществляется дистанционно, данный комплекс не может самостоятельно принимать решение о ликвидации цели. Однако российский производитель оружия AO Концерн «Калашников» заявил, что готов предоставить автономным системам возможность самостоятельно принимать решение об уничтожении цели без участия человека. По мере того, как данные технологии продолжают развиваться, приверженность других стран к отказу от развития LAWS можно рассматривать как отказ от ответственности. Это позволяет более агрессивным странам устанавливать стандарты в области развития и развертывания автономных систем летального вооружения.

U.S. Army
Робот

Западные исследователи в области ИИ обязаны приложить свои усилия и предоставить гарантии того, что LAWS будут спроектированы надлежащим образом. Если страны, приверженные более высоким этическим стандартам, откажутся внести свой вклад в развитие автономных систем летального вооружения, это будет сделано менее скрупулезными членами исследовательского сообщества. Важно определить, каким именно образом будут использоваться технологии LAWS, чтобы сделать войну более гуманной. Важно сосредоточиться на регулировании использования LAWS, а не на слепом запрете.

Никто не сделал большего вклада в разработку автономного оружия, чем робототехник Рональд Аркин. С 2006 года Аркин работает с министерством обороны США, стремясь разработать военную робототехнику, в основе которой лежали бы этические принципы. Ключевая часть его аргумента основана на простом факте: люди не являются хорошими исполнителями правил, чего нельзя сказать о роботах. Во время боя люди склонны совершать множество ошибок из-за чрезмерного беспокойства или гнева. Причем круговая порука среди военных приводит к сокрытию незаконной деятельности. LAWS не обладают всеми этими недостатками. Те, кто выступает против использования на войне роботов, руководствующихся этическими принципами, указывают на то, что машина не может сопереживать, поэтому может совершать аморальные поступки. Однако эти критики забывают, что именно человеческие эмоции увеличивают вероятность аморального поведения на поле боя.

U.S. Navy
Робот

Читайте также: Foreign Policy: Хакеры могут с легкостью получить контроль над оружием США?

Достижения в области искусственного интеллекта позволили улучшить точность обнаружения объектов и навигацию. Например, роботов можно запрограммировать, чтобы они убедились в том, что в районе операции нет женщин и детей, прежде чем приступить к зачистке. Роботы также могли бы отменить свое решение о проведении военной операции в случае появления вероятности того, что операция может привести к жертвам среди гражданского населения. LAWS проще обучить правилам войны, роботы могут проводить операции плечом к плечу с солдатами, это могло бы снизить вероятность аморального поведения среди людей либо позволить получить подробный отчет о преступлении.

Никто не говорит о том, что вовсе нет никаких веских опасений относительно использования и развития технологии LAWS, однако акцент на регулировании использования автономных систем летального вооружения предпочтительнее, чем полный запрет. Исследователям следует придерживаться высоких этических стандартов при разработке LAWS. Необходимы широкие дискуссии о том, где и при каких обстоятельствах могут быть использованы автономные роботизированные системы.