О существенной опасности искусственного интеллекта в случае использования его военными заявил бывший заместитель министра обороны США Роберт Уорк, передает Breaking Defense.

Цитата из к/ф «Космическая одиссея 2001 года». Реж. Стэнли Кубрик. 1968. США — Великобритания
Искусственный интеллект

По мнению бывшего сотрудника Пентагона, если допустить искусственный интеллект (ИИ) к принятию решений, то существует вероятность, что имеющиеся риски будут оценены им неверно, и ядерное оружие будет применено в ситуации, когда реальной угрозы не будет существовать.

«Представьте, что в системе управления ядерным оружием есть прогностическая система ИИ, которая запускается по определенным параметрам, — сказал он. — Это гораздо, гораздо, гораздо более тревожная перспектива, чем все опасности, что вы можете представить в связи с применением индивидуального оружия».

Похожим образом, считает Уорк, спроектирована российская система «Периметр». По предположениям бывшего замминистра обороны, система способна запустить межконтинентальные ракеты в сторону США, просто приняв за ядерный взрыв сейсмическую активность.

Для того, чтобы развитие не пошло по катастрофическому сценарию, искусственный интеллект должен применяться в оборонных целях очень умеренно, подытожил Уорк.