Искусственный интеллект в медицине — зеркало социального неравенства
Чем больше масштаб внедрения технологий искусственного интеллекта (ИИ), тем чаще люди задумываются о таких ценностях, как справедливость, равенство, гуманность. Особенно остро вопрос о несправедливости распределения благ и медицинской помощи, реализующегося системами управления с ИИ, стоит в Индии, сохраняющей устои традиционного кастового общества. Об этом пишет Соумья Рамасубраманян в своей статье «Мнение экспертов: использование ИИ для борьбы с COVID-19 может нанести вред малоимущим группам населения», опубликованной индийским информационным агентством The Hindu 19 марта 2021 года.
В 2020 году IT-компании в разных странах мира разработали методы, позволяющие использовать возможности больших данных и машинного обучения в медицине. Модель, разработанная Массачусетским технологическим институтом, использует искусственный интеллект (ИИ) для выявления бессимптомных пациентов с вирусом COVID-19 посредством записи кашля на их смартфоны. В Южной Корее компания использовала облачные вычисления для сканирования рентгеновских снимков грудной клетки для наблюдения за инфицированными пациентами.
ИИ и машинное обучение широко применялись во время пандемии, а их использование варьировалось от обработки данных до распространения вакцины. Но эксперты из Кембриджского университета поднимают вопросы об этической стороне использования ИИ, поскольку считают, что технология имеет тенденцию наносить вред национальным и прочим меньшинствам и лицам с более низким социально-экономическим статусом.
Например, прогнозирование с помощью ИИ ухудшения состояния пациентов, которое требует вентиляции лёгких, может быть ошибочным, поскольку модель ИИ использует предвзятые данные. Наборы данных, использованные для машинного обучения алгоритмов, не соответствуют группам людей, которые редко пользуются услугами здравоохранения, таким как представители этнических меньшинств и групп с низким социальным статусом.
Другая проблема заключается в том, как используются алгоритмы для распределения вакцин на местном, национальном и глобальном уровнях.
Исследователи также отмечают, что дискриминация национальных меньшинств закладывается в технологии ИИ при выборе симптомов из медицинских записей пациентов.
Использование мобильных приложений для отслеживания контактов во время пандемии также подверглось критике со стороны нескольких авторитетных экспертов по всему миру. Они заявили, что такие приложения не могут помочь тем, у кого нет доступа к интернету, и тем, кто не обладает цифровыми навыками. К недостаткам приложений можно отнести и проблемы с конфиденциальностью персональных данных пользователей.
В Индии программы биометрической идентификации связаны с программой вакцинации, что вызывает опасения по поводу конфиденциальности и безопасности данных. Алгоритмы распределения вакцин, в том числе те, которые используются международным проектом COVAX, управляются ИИ, разработанным частной компанией. Хагерти отметила, что эти алгоритмы частных компаний больше напоминают «черный ящик».