Неверная оценка искусственным интеллектом уровня опасности и применение ядерного оружия в отсутствии реальной угрозы — возможный сценарий, но только в том случае, если искусственный интеллект получит слишком большую самостоятельность в принятии решений, отметил военный обозреватель ИА REGNUMЛеонид Нерсисян в понедельник, комментируя высказывания бывшего заместителя министра обороны США Роберта Уорка.

geralt
Искусственный интеллект

Как сообщалось ранее, Уорк заявил о существенной опасности искусственного интеллекта в случае использования его военными. Если допустить искусственный интеллект к принятию решений, то риски могут быть оценены им неверно, и ядерное оружие будет применено в ситуации отсутствия реальной угрозы, полагает Уорк. В частности, он допустил, что российская система «Периметр» может запустить межконтинентальные ракеты в сторону США, приняв сейсмическую активность за ядерный взрыв.

«Такая опасность действительно может возникнуть, но только в случае получения искусственным интеллектом очень большой самостоятельности принятия решений. Я не думаю, что сегодняшний уровень развития искусственного интеллекта в принципе позволяет возложить на него полное управление стратегическими ядерными силами.
Что касается «Периметра», то достоверно его характеристики неизвестны, поэтому судить об этой системе сложно. Известно лишь то, что система анализирует данные множества сейсмодатчиков и уровень радиационного фона, делая выводы на основе этих данных о ядерном ударе по стране.
Однако включается в работу «Периметр» только в том случае, если помимо показаний датчиков отключаются штатные линии связи с высшим руководством страны и вооруженных сил. Так что реальную опасность «Периметр» вряд ли представляет», — отметил Леонид Нерсисян.