Пентагон хочет защитить свой искусственный интеллект от вражеских атак
Вашингтон, 2 сентября, 2020, 23:45 — ИА Регнум. Министерство обороны США обеспокоено тем, что программы искусственного интеллекта (ИИ) могут иметь серьезные и неизвестные уязвимости, которыми могут воспользоваться злоумышленники.
Об этом сегодня пишет Гаррет Рейм в статье «ВВС США решают проблему спуфинга при использовании ИИ» на портале flightglobal.com
* * *
Пентагон обеспокоен тем, что технология искусственного интеллекта может быть не только взломана, но и «подделана». То есть ИИ можно намеренно обмануть, заставив думать, что он видит объекты или военные цели, которых не существует. Верно и обратное: объекты или цели могут ошибочно игнорироваться.
Ученые МIT уже нашли способы обмануть некоторые из лучших в мире программ, содержащие технологии ИИ.
Программы машинного обучения — это разновидность ИИ, которая исследует массивы данных, выявляет закономерности и делает выводы. Программы предназначены для имитации способа распознавания закономерностей человеческим мозгом.
Возможность обмана программ машинного обучения вызывает беспокойство у ВВС США, поскольку они планируют переложить работу с пилотов боевых истребителей на роботов беспилотных летательных аппаратов (БЛА), которые будут управляться программами ИИ.
В июле 2020 года ВВС США заключили четыре бессрочных контракта на сумму до $400 млн каждый на разработку программы ИИ, которую они называют Skyborg. Контракты получили компаниям Boeing, General Atomics Aeronautical Systems, Kratos Unmanned Aerial Systems и Northrop Grumman.
Skyborg должен стать мозгом и позвоночником БЛА ВВС США — автономных летательных аппаратов, которые служба надеется производить в количестве достаточном для уничтожения врагов. Службе нужен ИИ вместо дистанционных пилотов, управляющих такими системами.
В августе 2020 года в своих планах по созданию автономных боевых самолетов Пентагон сделал большой шаг вперед: программа с ИИ победила пилота Lockheed Martin F-16 ВВС США в пяти имитированных воздушных боях.
Поверхностный искусственный интеллект
Говоря простым языком, ИИ — это широкий класс компьютерных программ, обученных распознавать закономерности. Часто эти закономерности наблюдаются в данных изображения или видео. Например, программа с ИИ могла бы многократно загружать изображения определенного типа самолета и сообщать его название до тех пор, пока она не научится идентифицировать этот самолет самостоятельно.
ВВС США уже используют ИИ для облегчения и сокращения по времени утомительной работы по маркировке фотографий наблюдения и разведки, которые поступают с самолетов Lockheed U-2 и Northrop Grumman RQ-4 Global Hawk.
Теоретически аналогичная технология на борту БЛА также может быть использована для определения тепловых или радиолокационных признаков вражеских самолетов. К сожалению, ИИ часто делает поспешные выводы.
Обмануть программу ИИ очень легко. Одним из часто цитируемых примеров манипуляций с ИИ является эксперимент, в котором программу беспилотных автомобилей обманули, заставив думать, что знак остановки на самом деле является знаком ограничения скорости на 45 миль в час. Для обмана потребовалось лишь несколько удачно размещенных наклеек. Разумеется, проезд через знак остановки на скорости 45 миль в час может привести к катастрофе.
Есть два способа воспользоваться уязвимостью в программе с ИИ: атака «белого ящика» и атака «черного ящика». В случае атаки методом «белого ящика» злоумышленник имеет некоторый доступ к программе ИИ и понимает, как она работает. Эти знания используются для управления программой. При атаке с помощью «черного ящика» агрессор не имеет никаких инсайдерских знаний, но вместо этого должен исследовать программу ИИ извне, снабжая её информацией до тех пор, пока она не выйдет из строя.
В апреле этого года Управление перспективными исследовательскими проектами Министерства обороны США (DARPA) начало поиск идей для «методов нарушения машинного зрения», имитирующих попытки «черного ящика» обмануть идентификацию изображений ИИ в ситуациях, когда не доступны ни исходный обучающий набор, ни конкретная архитектура зрения.
По словам Брюса Дрейпера, менеджера программы Управления информационными инновациями, во многих отношениях подделка ИИ похожа на военный обман и радиоэлектронную атаку, использовавшуюся в прошлом. Дрейпер возглавляет ещё одно подразделение DARPA — программу обеспечения устойчивости ИИ против обмана — инициативу по созданию теоретических основ для выявления уязвимостей системы и характеристики определенных свойств, которые сделают программы ИИ более надежными.
Например, программы ИИ, просматривающие изображения или видео, как правило, фокусируются на высокочастотных визуальных шаблонах.
Меры безопасности
Построение защиты от таких ошибок может быть трудным делом, потому что нелегко понять, как программы ИИ приходят к выводам. Подобно тому, как работает человеческий мозг, программное обеспечение на базе ИИ дает результаты не за счёт того, что оно запрограммировано на выполнение определенных задач, а путем наблюдения за информацией и последующего обобщения взаимосвязей между множеством различных точек данных.
Попытка разгадать способ мышления программы с ИИ может оказаться непосильной задачей.
Однако есть ряд идей о том, как сделать ИИ более надежным.
По словам Дрейпера, один простой для понимания метод называется «ансамблями классификаторов». Этот метод направлен на предотвращение ошибок ИИ путем подачи в программы различных типов данных. Например, программа может научиться классифицировать объекты не только по изображениям, поступающим с камеры, но и по данным, поступающим с лазерного локатора и радара. Дополнительные данные предоставили бы компьютерной программе более точную информацию о том, как выглядит объект.
Другой метод называется «состязательное обучение».
Тем не менее иногда сложно понять, что программой ИИ манипулируют, потому что определённые программы предназначены для поиска необычных, неожиданных или упускаемых из виду решений.
В конечном счете, для того чтобы программы ИИ были выпущены на свободу и действовали самостоятельно, они должны оказаться устойчивыми к манипуляциям и достаточно предсказуемыми, чтобы люди могли с ними сотрудничать.
В ближайшем будущем это означает, что беспилотные самолеты будут находиться под пристальным наблюдением бортовых командиров, управляющих самолетами.
В более долгосрочной перспективе необходимо проделать большую работу, чтобы понять слабые стороны и ограничения ИИ.
- В Москве водитель грузовика расстрелял двух рабочих-мигрантов
- МИД Армении вызвал посла РФ из-за недовольства высказываниями в СМИ
- Армия России заняла второе место в рейтинге военной мощи Global Firepower
- Кремль прокомментировал санкции против российского нефтяного сектора
- Как принимали гостей катки «Зимы в Москве» в новогодние каникулы