Новые научные данные подчеркивают сложность моральных суждений агентов искусственного интеллекта
Недавнее исследование, проведенное в Китае, показало, что люди по-разному оценивают моральность решений, принимаемых агентами искусственного интеллекта (ИИ), в зависимости от ситуации. В некоторых ситуациях участники оценивали решения ИИ как более аморальные, чем те же решения, принятые людьми, но в других ситуациях их мнение зависело от конкретных решений, которые принимали агенты. Исследование было опубликовано в журнале Behavioral Sciences.

Системы искусственного интеллекта быстро развивались в последнее десятилетие и используются в различных областях, таких как управление состоянием, автономное вождение, консалтинг, оценка преступлений и медицинская диагностика. Эти системы принимают решения или предоставляют предложения, которые могут повлиять на имущество, здоровье и жизнь людей в целом. Это вызвало дискуссию о том, этичны ли такие решения, принимаемые системами ИИ, и этично ли вообще использовать ИИ для принятия таких решений.
Эти дебаты осложняются тем, что люди часто воспринимают ИИ не как технологические инструменты, используемые людьми, а как автономные агенты, которые должны нести ответственность за свои действия. Однако исследования до сих пор не дали окончательного ответа на вопрос о том, действительно ли люди воспринимают ИИ как независимых агентов или только как инструменты, используемые людьми.
Важнейшим аспектом дебатов являются моральные суждения, которые люди выносят в отношении действий ИИ. Моральные суждения - это оценки, которые люди делают, когда нарушаются моральные нормы. Они подразумевают оценку чего-либо как хорошего или плохого, правильного или неправильного, допустимого или недопустимого. Вынесение моральных суждений - это фундаментальная реакция человека. Некоторые исследования показывают, что люди более критичны при оценке моральных суждений, вынесенных системами ИИ, в то время как другие предполагают, что они более снисходительны по сравнению с суждениями, вынесенными людьми.
В своем новом исследовании Юйань Чжан и ее коллеги хотели изучить, как люди выносят моральные суждения о поведении агентов искусственного интеллекта в различных моральных дилеммах. Моральная дилемма - это ситуация, когда человек сталкивается с противоречивыми этическими выборами, что затрудняет определение морально правильного образа действий. В таких ситуациях люди склонны принимать решения на основе ожидаемых последствий (утилитарный выбор) или на основе принятых моральных норм и правил, независимо от последствий (деонтологический выбор). Исследователи организовали три эксперимента, чтобы изучить этот вопрос.
Первый эксперимент был направлен на то, чтобы определить, применяют ли люди одинаковые моральные нормы и суждения к людям и агентам ИИ в моральных дилеммах, обусловленных в первую очередь когнитивными процессами. В эксперименте приняли участие 195 студентов бакалавриата, средний возраст которых составлял 19 лет, большинство - женщины. Они читали о человеке или агенте ИИ, столкнувшемся с дилеммой троллейбуса.
В этой дилемме персонаж должен выбрать между бездействием и гибелью пяти человек, когда на них наезжает троллейбус, или действиями по перенаправлению троллейбуса на второй путь, где он убьет только одного человека вместо пяти. Участники были случайным образом распределены на четыре группы, каждая из которых читала о конкретном типе агента (ИИ или человек), делающего определенный выбор в дилемме (бездействие или действие). После прочтения сценария участников просили оценить моральность, допустимость, неправильность и виновность поведения агента.
Второй эксперимент имел аналогичный дизайн, но представлял несколько иную моральную дилемму. В эксперименте приняли участие 194 студента бакалавриата, средний возраст которых составлял 19 лет, большинство - женщины. Они были разделены на четыре группы, каждая из которых читала об определенной комбинации типа агента и сделанного выбора. В этом эксперименте участники читали о решении в дилемме с пешеходным мостом.
Эта дилемма похожа на дилемму с троллейбусом, где агент должен решить, действовать или нет. В этом сценарии троллейбус на большой скорости движется навстречу пяти людям, и агент может выбрать: ничего не делать и позволить трагедии произойти или столкнуть человека с моста перед троллейбусом. Если агент решит столкнуть человека с моста, тот погибнет, но троллейбус будет остановлен, что позволит спасти остальных пятерых людей, находящихся на пути.
В третьем эксперименте исследователи хотели убедиться, что результаты не объясняются просто различиями в моральных взглядах участников предыдущих исследований. Участниками эксперимента были 236 студентов старших курсов, и каждый из них прочитал один вариант сценария дилеммы троллейбуса и один вариант сценария дилеммы пешеходного моста. Как и в предыдущих экспериментах, каждый сценарий имел четыре варианта (человек против ИИ, действие против бездействия), и исследователи случайным образом распределили, кто из участников читает тот или иной сценарий.
Результаты первого эксперимента показали, что участники оценили решение человеческого агента как более моральное, чем решение агента ИИ, независимо от того, каким было это решение. На агента ИИ также возлагалось больше вины за принятое решение. В среднем, действие и бездействие оценивались как одинаково моральные и одинаково заслуживающие вины. Не было никаких различий в средних оценках допустимости или неправильности для двух решений или агентов.
Во втором эксперименте участники оценили решение намеренно столкнуть человека с моста (чтобы спасти пять других людей) как менее моральное, чем решение ничего не делать, независимо от того, кем оно было принято - человеком или ИИ. Это действие также рассматривалось как менее допустимое, более неправильное, а агент, который его совершил, считался более заслуживающим порицания, независимо от того, был ли это человек или ИИ.
В третьем эксперименте участники оценили действие в дилемме с пешеходным мостом как менее моральное и более неправильное, чем действие в дилемме с троллейбусом, но бездействие в обеих дилеммах они считали одинаково моральным или неправильным. Различий в оценках моральности и неправильности в зависимости от типа агента не было. Средние оценки моральности и неправильности были одинаковыми независимо от того, кто принимал решение - человек или ИИ. Однако участники эксперимента оценили действия ИИ в дилемме с троллейбусом как менее допустимые и более заслуживающие порицания, чем действия человека, в то время как в дилемме с пешеходным мостом различий не было.
"В целом, эти результаты показали, что в дилемме с троллейбусом людей больше интересует разница между людьми и агентами ИИ, чем действие против бездействия", - заключили исследователи. "И наоборот, в дилемме с пешеходным мостом люди больше заинтересованы в действии по сравнению с бездействием. Это можно объяснить тем, что в этих двух дилеммах люди выносили моральные суждения, руководствуясь различными процессами реагирования - контролируемые когнитивные процессы часто возникают в ответ на дилеммы, подобные дилемме с троллейбусом, а автоматические эмоциональные реакции - в ответ на дилеммы, подобные дилемме с пешеходным мостом.
"Таким образом, в дилемме с троллейбусом контролируемые когнитивные процессы могут заставить людей обратить внимание на тип агента и вынести суждение о том, что агентам ИИ не подобает принимать моральные решения. В дилемме с пешеходным мостом действие по сталкиванию человека с пешеходного моста может вызвать более сильные негативные эмоции, чем действие по управлению выключателем в дилемме с троллейбусом".
Исследование дает ценную информацию о том, как люди воспринимают моральность действий ИИ. Однако важно отметить, что у исследования есть ограничения. Все участники были студентами старших курсов, а моральные суждения рассматривались с помощью известных моделей моральных дилемм. Результаты могут отличаться, если рассматривать другие возрастные группы или использовать менее знакомые моральные дилеммы.
https://www.psypost.org/2023/06/new-scientific-findings-highlight-the-complexity-of-moral-judgments-of-ai-agents-166054