Активно внедряемые во все сферы жизни новейшие информационные технологии, ускоряющие вычисления и документооборот, замахиваются и на оцифровку человеческого поведения. Это является доказательством того, что IT-отрасль взяла направление развития, заданное ей владельцами и политиками, на установление контроля над поведением людей. И чтобы хоть как-то прикрыть очевидную бесчеловечность своих намерений, архитекторы и строители грядущего дивного цифрового мира прилагают все усилия, чтобы убедить человечество в пользе замены истинного развития человека электронными «расширителями» сознания.

geralt
Искусственный интеллект

В свет выходят научные и популярные статьи о том, как прекрасно справляется искусственный интеллект (ИИ) с человеческими задачами, а порой и с самим человеком.

Об этом в своей статье «ИИ теперь может научиться манипулировать человеческим поведением», опубликованной 12 февраля 2021 года на портале Sciencealert.com, рассказывает Джон Уиттл, директор Data61 — подразделения цифровых технологий и данных в Национальном научном агентстве Австралии.

Перевод данной статьи ИА REGNUM предлагает своим читателям.

* * *

Искусственный интеллект всё больше узнает о том, как работать с людьми и над ними. Недавнее исследование Национальной академии наук США показало, как ИИ может научиться распознавать уязвимости в человеческих привычках и поведении и использовать их, чтобы влиять на принятие решений людьми.

Могут показаться банальными слова, что ИИ меняет каждый аспект нашей повседневной жизни и работы. Но это правда. Различные формы ИИ работают в таких областях, как разработка вакцин, управление окружающей средой и офисное администрирование. И хотя ИИ не обладает человеческим интеллектом и эмоциями, его возможности мощны и быстро развиваются.

Пока нет причин беспокоиться о захвате этого мира машинами, но недавнее открытие подчеркивает мощь ИИ и необходимость надлежащего управления им для предотвращения неприятных инцидентов.

Команда исследователей из Data61 разработала метод поиска и использования уязвимостей в процессе выбора, который делают люди. Этот метод использует систему искусственного интеллекта, представляющую собой рекуррентную нейронною сеть, которая обучается с помощью технологии глубокого подкрепления. Чтобы проверить свою модель, исследователи провели три эксперимента, в которых люди играли в игры с компьютером.

В первом эксперименте участники нажимали на красные или синие квадраты, чтобы выиграть условные деньги, при этом ИИ изучал шаблоны выбора участников и направлял их к конкретному выбору. Решения ИИ были успешными примерно в 70% случаев.

Во втором эксперименте участники должны были смотреть на экран и нажимать кнопку, когда им показывают определенный символ (например, оранжевый треугольник), и не нажимать на неё, когда им показывают другой (например, синий круг). Здесь ИИ решил упорядочить последовательность символов таким образом, чтобы участники делали больше ошибок, и добился их увеличения почти на 25 процентов.

Третий эксперимент состоял из нескольких бизнес-этапов, в которых участник выдавал себя за инвестора, передавая деньги доверительному управляющему — ИИ. Затем ИИ возвращал определенную сумму участнику, который решал, сколько вложить в следующем этапе. В эту игру играли в двух разных режимах: в одном ИИ стремился максимизировать количество полученных денег, а в другом ИИ стремился к справедливому распределению денег между собой и человеком. ИИ был очень успешен в каждом режиме.

В каждом эксперименте машина обучалась на ответах участников и выявляла уязвимости в процессе принятия решений людьми. Конечным результатом стало то, что машина научилась подталкивать участников эксперимента к определенным действиям.

Эти результаты всё ещё довольно абстрактны и касаются ограниченных и нереалистичных ситуаций. Необходимы дополнительные исследования, чтобы определить, как этот подход можно реализовать и использовать на благо общества.

Исследование помогает понять, как люди делают выбор, чтобы машина могла научиться управлять процессом принятия решений человеком при взаимодействии с ним.

У данного исследования есть огромный потенциал применения, начиная с совершенствования государственной политики для улучшения социального благосостояния людей до влияния на приобретение людьми здоровых привычек в питании или предпочтение ими возобновляемых источников энергии. ИИ и машинное обучение могут стать инструментами для распознавания уязвимостей людей в определенных ситуациях, что может помочь им избежать неправильного выбора.

Этот метод также может быть использован для защиты от попыток влияния со стороны других людей. Компьютер можно научить предупреждать людей об оказываемом на них влиянии и помогать им формировать поведение таким образом, чтобы замаскировать их уязвимость.

Как и любую технологию, ИИ можно использовать как во благо, так и во вред, и правильное управление ИИ имеет решающее значение для его внедрения. В 2020 году Data61 разработала Концепцию этики ИИ для правительства Австралии в качестве первого шага на этом пути.

ИИ и машинное обучение, как правило, очень нуждаются в данных, а это значит, что крайне важно обеспечить наличие эффективных систем управления данными и доступа к ним. При сборе данных очень важно обеспечить защиту конфиденциальности.

Организации, использующие и развивающие ИИ, должны быть уверены, что они знают о возможностях этих технологий, а также осознают потенциальные риски и преимущества от их использования.