Один из рисков, с которыми связано внедрение искусственного интеллекта, — это нарушения использования персональных данных. Об этом корреспонденту ИА REGNUM 15 ноября рассказала руководитель Российского центра компетенций и анализа стандартов ОЭСР РАНХиГС Антонина Левашенко.

(сс) CWitte
Искусственный интелект

«Уже известны риски нарушений в сфере использования систем персональных данных, например когда ИИ может обрабатывать данные пользователя без его ведома, — сказала Левашенко. — Или риски дискриминации, когда система ИИ при отборе кандидатов на вакансии из-за ошибок в обучении может игнорировать кандидатов определенного пола. Широко известен случай в США, когда полиция Детройта арестовала человека по обвинению в краже на основании того, что система ИИ неправильно опознала личность преступника по изображению с камер видеонаблюдения».

Важным вопросом, по ее словам, может стать так называемый эффект «черного ящика», когда пользователь или оператор системы ИИ не имеет возможности определить, почему система принимает то или иное решение.

«Это особенно актуально для беспилотных автомобилей и систем управления трафиком. К числу маловероятных относится риск возникновения вопросов правосубъектности ИИ, например в случае с принадлежностью результатов интеллектуальной деятельности», — сказала Левашенко.

Напомним, как сообщало ИА REGNUM, ранее Левашенко рассказала, как в РФ можно избежать излишней зарегулированности использования систем ИИ.