Развитие искусственного интеллекта (ИИ) может привести к серьезным проблемам и уничтожению человечества уже в ближайшие годы, пишет журнал The Week со ссылкой на мнение сотен ученых и инженеров.

ТАСС/IMAGO/Mario Aurich

Речь идёт о точке зрения, которую высказали более 350 экспертов. Они считают, что искусственный интеллект представляет угрозу, сопоставимую опасностью от пандемий и ядерной войны.

В число этих специалистов попал британский ученый Джеффри Хинтон, которого журнал называл крестным отцом ИИ. Раньше исследователь полагал, что искусственный интеллект начнёт угрожать человечеству только через 30 лет.

Он поменял свое мнение из-за стремительного совершенствования технологии. Хинтон утверждает, что искусственный интеллект превращается в сверхразум и уже через пять лет может стать умнее людей.

Авторы публикации подчеркивают, что в этом случае существует вероятность того, что ИИ увидит в человечестве помеху для своих целей и из-за этого решится на уничтожение людей. Ученые предупреждают, что искусственный интеллект способен создать новое биологическое оружие, которое вызовет более смертоносные пандемии, чем были в прошлом.

Кроме того, ИИ может обманом спровоцировать страны к конфликту, который закончится ядерной войной. Исследователи также видят опасность в интеграции искусственного интеллекта в различные системы, такие как финансовые рынки, электросети или водоснабжение.

По их мнению, внедрение ИИ в сферы жизненно важной инфраструктуры позволит злоумышленникам атаковать их или использовать в своей преступной деятельности.

Как сообщало ИА Регнум, 14 мая британский учёный Стюарт Рассел предупредил о катастрофе из-за появления искусственного интеллекта, который сможет решать любые интеллектуальные задачи. Эксперт указал на бесконтрольные разработки в сфере развития ИИ, которые привели к неожиданному для самих учёных результату.

2 июня газета The Guardian написала, что беспилотный летательный аппарат американских ВВС, которым управлял искусственный интеллект, в ходе имитационных испытаний решил уничтожить оператора, мешавшего ему выполнять задачу. Это произошло после того, как система определила угрозу, однако оператор давал ей приказы не ликвидировать опасность.