Foreign Policy: Технологии ИИ могут подорвать ядерное сдерживание?
В прошлом месяце президент России Владимир Путин объявил, что его страна разрабатывает автономную торпеду с ядерной энергетической установкой. Данное заявление стало важной вехой в процессе синтеза ядерных технологий и искусственного интеллекта (ИИ), пишет Илайес Гролл (Elias Groll) в статье для The Foreign Policy.
Читайте также: American Conservative: вмешательства США всегда оправдываются ложью
Торпеда, вооруженная ядерной боеголовкой, может быть запущена из Северного Ледовитого океана. Как утверждается, она сможет развивать высокую скорость и проходить огромные расстояния, пока не достигнет своей цели — предположительно, американской гавани. На всем протяжении своего маршрута торпеда будет способна выполнять маневры в автономном режиме для обхода подводной обороны любого противника. В случае принятия на вооружение, торпеда будет сочетать в себе разрушительную мощь ядерного оружия и технологии искусственного интеллекта.
На фоне недавних событий появился новый отчет американского стратегического исследовательского центра RAND, в котором исследователи задались вопросом: как между собой соотносятся технологии ИИ и риск начала ядерной войны? На данный момент ИИ, вероятно, не снижает риски, а, наоборот, может дестабилизировать хрупкий миропорядок, установившийся после окончания холодной войны.
Использование ИИ в сценариях ядерной войны не рассматривается. Все это является плодом воображения фантастов, например, когда компьютер принимает решение о запуске межконтинентальных баллистических ракет (МБР). Интеграция ИИ и систем ядерных вооружений может произойти в разведывательной сфере. Например, разведывательные системы, оснащенные ИИ, могут использоваться для обработки огромных массивов данных. Автономные дроны могли бы проводить сканирование обширных участков местности. И эти технологии, как сообщается в отчете, «могут спровоцировать напряженность и увеличить риски непреднамеренной эскалации».
Разведывательные средства, оснащенные ИИ — автономные беспилотники или системы отслеживания подводных лодок, — угрожают нарушить хрупкий стратегический баланс между крупнейшими ядерными державами мира. Такие технологии могут быть использованы для поиска и наведения на средства ответного ядерного удара. Это может подорвать принцип «взаимного ядерного уничтожения», согласно которому любой ядерный удар приведет к ответному ядерному удару и взаимному уничтожению обоих противников. Однако, если одна из стран сможет использовать разведывательные технологии, опирающиеся на ИИ, для поиска и наведения на ракеты противника, расположенные в подводных лодках или на подвижных ракетных комплексах, угроза ответного удара может быть устранена. Такая расстановка сил будет провоцировать на нанесение первого удара.
В отчете RAND ясно сказано, что ИИ не должен превратиться в дестабилизирующую технологию. Улучшенный сбор разведывательных данных поможет убедиться крупным ядерным державам, что у противника не будет шансов нанести неожиданный удар. Но в данном случае у ядерных держав должен быть равный доступ к передовым технологиям.
«Искусственный интеллект — это будущее не только для России, но и для всего человечества», — заявил Путин в прошлом году. «Кто станет лидером в этой сфере, станет править миром».
Между тем китайские власти разработали детальный план, чтобы стать мировым лидером в этой области. В феврале газета South China Morning Post сообщила, что китайские военные официальные лица планируют «обновить старые компьютерные системы на атомных подводных лодках за счет внедрения технологий ИИ». Также сообщалось, что компьютерные системы, оснащенные ИИ, должны повысить эффективность действий командиров подводных лодок. Получается, что технологии ИИ все же смещаются в направлении влияния на процесс принятия решения о нанесении ядерного удара.
Читайте также: National Interest: Успех США в Сирии зависит от одного — устранения Асада
«Если человек принимает решения на основе данных, которые были собраны, агрегированы и проанализированы машиной, тогда машина может влиять на процесс принятия решения с помощью таких способов, о которых вы, возможно, ранее не догадывались», — считает эксперт аналитического центра RAND Эндрю Лон.
И по мере того, как ИИ улучшает свою способность распознавать узоры и играть в симуляторы, данная технология может быть включена в процесс принятия решения, советуя военным, как лучше вести боевые действия, которые в конечном итоге могут перерасти в обмен ядерными ударами. Такой технологии пока не существует, но, по словам Лона, «если ИИ сможет выигрывать в военных симуляторах, будет очень сложно проигнорировать эти результаты».
- Народный артист России Марк Розовский поддержал жертв террористов. Израильских
- Кнайсль назвала страны, которые могут быть причастны к подрыву «СП»
- Эксперт по этике рассказала, как не попасть впросак с новогодним подарком
- Статус нежелательно пребывающих в РФ детей-иностранцев получат их родители
- Пенсионер кинул коктейль Молотова под машину полиции в центре Москвы