Полинкевич Владимир Алексеевич
Полинкевич В.А. Подписчиков: 226
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 2178

Новые научные данные подчеркивают сложность моральных суждений агентов искусственного интеллекта

2 дочитывания
0 комментариев
Эта публикация уже заработала 0,10 рублей за дочитывания
Зарабатывать

Недавнее исследование, проведенное в Китае, показало, что люди по-разному оценивают моральность решений, принимаемых агентами искусственного интеллекта (ИИ), в зависимости от ситуации. В некоторых ситуациях участники оценивали решения ИИ как более аморальные, чем те же решения, принятые людьми, но в других ситуациях их мнение зависело от конкретных решений, которые принимали агенты. Исследование было опубликовано в журнале Behavioral Sciences.

Новые научные данные подчеркивают сложность моральных суждений агентов искусственного интеллекта

Системы искусственного интеллекта быстро развивались в последнее десятилетие и используются в различных областях, таких как управление состоянием, автономное вождение, консалтинг, оценка преступлений и медицинская диагностика. Эти системы принимают решения или предоставляют предложения, которые могут повлиять на имущество, здоровье и жизнь людей в целом. Это вызвало дискуссию о том, этичны ли такие решения, принимаемые системами ИИ, и этично ли вообще использовать ИИ для принятия таких решений.

Эти дебаты осложняются тем, что люди часто воспринимают ИИ не как технологические инструменты, используемые людьми, а как автономные агенты, которые должны нести ответственность за свои действия. Однако исследования до сих пор не дали окончательного ответа на вопрос о том, действительно ли люди воспринимают ИИ как независимых агентов или только как инструменты, используемые людьми.

Важнейшим аспектом дебатов являются моральные суждения, которые люди выносят в отношении действий ИИ. Моральные суждения - это оценки, которые люди делают, когда нарушаются моральные нормы. Они подразумевают оценку чего-либо как хорошего или плохого, правильного или неправильного, допустимого или недопустимого. Вынесение моральных суждений - это фундаментальная реакция человека. Некоторые исследования показывают, что люди более критичны при оценке моральных суждений, вынесенных системами ИИ, в то время как другие предполагают, что они более снисходительны по сравнению с суждениями, вынесенными людьми.

В своем новом исследовании Юйань Чжан и ее коллеги хотели изучить, как люди выносят моральные суждения о поведении агентов искусственного интеллекта в различных моральных дилеммах. Моральная дилемма - это ситуация, когда человек сталкивается с противоречивыми этическими выборами, что затрудняет определение морально правильного образа действий. В таких ситуациях люди склонны принимать решения на основе ожидаемых последствий (утилитарный выбор) или на основе принятых моральных норм и правил, независимо от последствий (деонтологический выбор). Исследователи организовали три эксперимента, чтобы изучить этот вопрос.

Первый эксперимент был направлен на то, чтобы определить, применяют ли люди одинаковые моральные нормы и суждения к людям и агентам ИИ в моральных дилеммах, обусловленных в первую очередь когнитивными процессами. В эксперименте приняли участие 195 студентов бакалавриата, средний возраст которых составлял 19 лет, большинство - женщины. Они читали о человеке или агенте ИИ, столкнувшемся с дилеммой троллейбуса.

В этой дилемме персонаж должен выбрать между бездействием и гибелью пяти человек, когда на них наезжает троллейбус, или действиями по перенаправлению троллейбуса на второй путь, где он убьет только одного человека вместо пяти. Участники были случайным образом распределены на четыре группы, каждая из которых читала о конкретном типе агента (ИИ или человек), делающего определенный выбор в дилемме (бездействие или действие). После прочтения сценария участников просили оценить моральность, допустимость, неправильность и виновность поведения агента.

Второй эксперимент имел аналогичный дизайн, но представлял несколько иную моральную дилемму. В эксперименте приняли участие 194 студента бакалавриата, средний возраст которых составлял 19 лет, большинство - женщины. Они были разделены на четыре группы, каждая из которых читала об определенной комбинации типа агента и сделанного выбора. В этом эксперименте участники читали о решении в дилемме с пешеходным мостом.

Эта дилемма похожа на дилемму с троллейбусом, где агент должен решить, действовать или нет. В этом сценарии троллейбус на большой скорости движется навстречу пяти людям, и агент может выбрать: ничего не делать и позволить трагедии произойти или столкнуть человека с моста перед троллейбусом. Если агент решит столкнуть человека с моста, тот погибнет, но троллейбус будет остановлен, что позволит спасти остальных пятерых людей, находящихся на пути.

В третьем эксперименте исследователи хотели убедиться, что результаты не объясняются просто различиями в моральных взглядах участников предыдущих исследований. Участниками эксперимента были 236 студентов старших курсов, и каждый из них прочитал один вариант сценария дилеммы троллейбуса и один вариант сценария дилеммы пешеходного моста. Как и в предыдущих экспериментах, каждый сценарий имел четыре варианта (человек против ИИ, действие против бездействия), и исследователи случайным образом распределили, кто из участников читает тот или иной сценарий.

Результаты первого эксперимента показали, что участники оценили решение человеческого агента как более моральное, чем решение агента ИИ, независимо от того, каким было это решение. На агента ИИ также возлагалось больше вины за принятое решение. В среднем, действие и бездействие оценивались как одинаково моральные и одинаково заслуживающие вины. Не было никаких различий в средних оценках допустимости или неправильности для двух решений или агентов.

Во втором эксперименте участники оценили решение намеренно столкнуть человека с моста (чтобы спасти пять других людей) как менее моральное, чем решение ничего не делать, независимо от того, кем оно было принято - человеком или ИИ. Это действие также рассматривалось как менее допустимое, более неправильное, а агент, который его совершил, считался более заслуживающим порицания, независимо от того, был ли это человек или ИИ.

В третьем эксперименте участники оценили действие в дилемме с пешеходным мостом как менее моральное и более неправильное, чем действие в дилемме с троллейбусом, но бездействие в обеих дилеммах они считали одинаково моральным или неправильным. Различий в оценках моральности и неправильности в зависимости от типа агента не было. Средние оценки моральности и неправильности были одинаковыми независимо от того, кто принимал решение - человек или ИИ. Однако участники эксперимента оценили действия ИИ в дилемме с троллейбусом как менее допустимые и более заслуживающие порицания, чем действия человека, в то время как в дилемме с пешеходным мостом различий не было.

"В целом, эти результаты показали, что в дилемме с троллейбусом людей больше интересует разница между людьми и агентами ИИ, чем действие против бездействия", - заключили исследователи. "И наоборот, в дилемме с пешеходным мостом люди больше заинтересованы в действии по сравнению с бездействием. Это можно объяснить тем, что в этих двух дилеммах люди выносили моральные суждения, руководствуясь различными процессами реагирования - контролируемые когнитивные процессы часто возникают в ответ на дилеммы, подобные дилемме с троллейбусом, а автоматические эмоциональные реакции - в ответ на дилеммы, подобные дилемме с пешеходным мостом.

"Таким образом, в дилемме с троллейбусом контролируемые когнитивные процессы могут заставить людей обратить внимание на тип агента и вынести суждение о том, что агентам ИИ не подобает принимать моральные решения. В дилемме с пешеходным мостом действие по сталкиванию человека с пешеходного моста может вызвать более сильные негативные эмоции, чем действие по управлению выключателем в дилемме с троллейбусом".

Исследование дает ценную информацию о том, как люди воспринимают моральность действий ИИ. Однако важно отметить, что у исследования есть ограничения. Все участники были студентами старших курсов, а моральные суждения рассматривались с помощью известных моделей моральных дилемм. Результаты могут отличаться, если рассматривать другие возрастные группы или использовать менее знакомые моральные дилеммы.

https://www.psypost.org/2023/06/new-scientific-findings-highlight-the-complexity-of-moral-judgments-of-ai-agents-166054

Понравилась публикация?
9 / 0
нет
0 / 0
Подписаться
Донаты ₽

Обратная сторона любви

Жизнь Аллы с бабушкой Галей напоминала службу в армии с очень любящим, но слегка параноидальным командиром. У бабушки в голове хранилась идеальная карта мира Аллиного детства. У неё внутри, видимо,...

Частое развитие рака при определенной группе крови. Ученые провели исследование по выявлению склонности к онкологии молочной железы

После всех результатов, специалисты особо отметили факт того, что при наличии группы крови (рисковой) появление рака не обязательное. В ходе своих наблюдений, ученые назвали самую уязвимую группу крови - А(ll).

А, чего, собственно, многие боятся Макса?

Недавно в интернете появился мессенджер МАКС — и вокруг него сразу поднялась небывалая шумиха. Я, не раздумывая, зарегистрировался в нём с первых дней запуска. Вскоре от знакомых я услышал тревожные слухи:

Почему мы любим не человека, а образ в голове

Любовь и привязанность — это не только романтика и страсть. Это ещё и наши ожидания, привычки и страхи. Идеализация партнёра. Мы видим его через «розовые очки» и ждём, что он оправдает все наши фантазии.

Почему мы продолжаем дружить, даже когда сложно

Дружба редко возникает «просто так». За каждым тёплым разговором, спонтанными встречами и многолетними переписками стоят целые психологические механизмы, которые делают нас ближе — и удерживают рядом. 1.

Как перестать откладывать жизнь на потом

Мечта — это то, что заставляет нас чувствовать вдохновение, предвкушение и внутренний подъём. Но парадокс в том, что именно мечты мы чаще всего отправляем в долгий ящик. Мы откладываем их на потом,...

Как избавиться от тяжёлого прошлого без боли

Обида — это чувство, которое знакомое каждому из нас. Мы злимся, расстраиваемся и чувствуем несправедливость, когда кто-то нас задел. Но держать обиду внутри — всё равно что носить тяжёлый рюкзак с камнями:...

Чужая зависть как зеркало: что она отражает

Зависть — чувство, которое все мы встречаем в жизни. Но как мы на неё реагируем? Игнорируем. Иногда проще просто не обращать внимания на зависть, чем объяснять свои достижения. Сочувствуем. Мы понимаем,...

Почему мы не можем простить самых близких людей

Прощение — не про то, чтобы сказать «всё хорошо» и забыть обиду. Оно про нас самих. Ожидания сильнее реальности. Мы хотим, чтобы дорогие нам люди действовали «правильно», а когда они ошибаются,...