Одна из ключевых опасностей применения технологий искусственного интеллекта заключается в непрозрачности алгоритмов, используемых им для принятия решений. Об этом корреспонденту ИА REGNUM 12 ноября заявил заведующий лабораторией искусственного интеллекта, нейротехнологий и бизнес-аналитики РЭУ им. Г.В. Плеханова Тимур Садыков. Так он прокомментировал высказывание главы Сбербанка Германа Грефа о том, что необходимо сбалансированное регулирование в развитии искусственного интеллекта.

Искусственный интеллект

«Вопрос регулирования в сфере искусственного интеллекта всерьез волнует людей со времен появления в научной фантастике знаменитых «трех законов робототехники» и остается более чем актуальным, — сказал Садыков. — В России регулированием и стандартизацией в области искусственного интеллекта занимается в числе других организаций технический комитет № 164 по стандартизации «Искусственный интеллект», созданный в соответствии с приказом Росстандарта № 1732 от 25 июля 2019 года. Основной задачей технического комитета является создание нормативно-технической базы и продвижение российских стандартов на международный уровень».

При этом Садыков подчеркнул, что одна из ключевых опасностей применения технологий искусственного интеллекта заключается в непрозрачности алгоритмов, используемых им для принятия решений.

«Нейросетевой подход, основанный на машинном обучении, способен давать результаты, непонятные даже разработчикам, — сказал Садыков. — Такие алгоритмы могут дать неожиданный и опасный сбой при поступлении нетипичных входных данных. В связи с этим большое значение приобретает создание систем объяснимого искусственного интеллекта».

Напомним, как сообщало ИА REGNUM, ранее Греф сказал, что перерегулирование приведёт к стагнации в развитии технологий и отставании страны.