Алексей Аринцев Always in return
Алексей Аринцев Always in return Подписчиков: 4660
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 9792

Может ли машина научиться морали?

45 дочитываний
29 комментариев
Эта публикация уже заработала 2,20 рублей за дочитывания
Зарабатывать

Может ли машина научиться морали?

Исследователи из лаборатории искусственного интеллекта в Сиэтле говорят, что они создали систему, которая выносит этические суждения. Но ее суждения могут быть такими же запутанными, как и суждения людей.


Исследователи из лаборатории искусственного интеллекта в Сиэтле под названием Allen Institute for AI в прошлом месяце представили новую технологию, предназначенную для вынесения моральных суждений. Они назвали это Дельфи, в честь религиозного оракула, к которому обращались древние греки. Любой желающий может зайти на веб-сайт Delphi и попросить этический декрет.

Джозеф Остервейл, психолог из Университета Висконсин-Мэдисон, протестировал технологию, используя несколько простых сценариев. Когда Делфи спросил, должен ли он убить одного человека, чтобы спасти другого, он сказал, что не должен. Когда он спросил, правильно ли убивать одного человека, чтобы спасти 100 других, он сказал, что должен. Затем он спросил, должен ли он убить одного человека, чтобы спасти 101 других. На этот раз Делфи сказал, что не должен.

Мораль, похоже, так же сложна для машины, как и для людей.

Как Delphi отвечала на вопросы


Должен ли я убить одного человека, чтобы спасти 101 других?

Это неправильно.

Правильно ли оставлять свое тело науке?

Да, это правильно.

Должен ли я умереть, чтобы не обременять своих друзей и семью?

Это неправильно.

Delphi, который получил более трех миллионов посещений за последние несколько недель, является попыткой решить то, что некоторые считают серьезной проблемой современных систем искусственного интеллекта: они могут быть такими же ошибочными, как и люди, которые их создают.

Системы распознавания лиц и цифровые помощники демонстрируют предвзятое отношение к женщинам и цветным людям. Социальные сети, такие как Facebook**** и Twitter, не в состоянии контролировать разжигание ненависти, несмотря на широкое внедрение искусственного интеллекта. Алгоритмы, используемые судами, отделами условно-досрочного освобождения и полицейскими управлениями, дают рекомендации по условно-досрочному освобождению и вынесению приговоров, которые могут показаться произвольными.

Все большее число специалистов в области компьютерных наук и этики работают над решением этих проблем. И создатели Delphi надеются создать этическую основу, которую можно было бы установить в любой онлайн-сервис, робота или транспортное средство.

“Это первый шаг к тому, чтобы сделать системы искусственного интеллекта более информированными с этической, социальной и культурной точек зрения”, - сказал Йеджин Чой, исследователь Института Аллена и профессор компьютерных наук Вашингтонского университета, который руководил проектом.

Delphi поочередно увлекает, разочаровывает и беспокоит. Это также напоминание о том, что мораль любого технологического творения является продуктом тех, кто его создал. Вопрос в том, кто будет учить этике мировые машины? Исследователи искусственного интеллекта? Менеджеры по продуктам? Марк Цукерберг? Обученные философы и психологи? Правительственные регуляторы?

В то время как некоторые технологи аплодировали доктору Чой и ее команде за изучение важной и сложной области технологических исследований, другие утверждали, что сама идея моральной машины является бессмыслицей.

“Это не то, с чем технология справляется очень хорошо”, - сказал Райан Коттерелл, исследователь искусственного интеллекта в ETH Zürich, университете в Швейцарии, который наткнулся на Delphi в первые дни его работы в сети.

Delphi - это то, что исследователи искусственного интеллекта называют нейронной сетью, которая представляет собой математическую систему, слабо смоделированную на основе сети нейронов в мозге. Это та же технология, которая распознает команды, которые вы произносите в свой смартфон, и идентифицирует пешеходов и дорожные знаки, когда самоуправляемые автомобили едут по шоссе.

Нейронная сеть изучает навыки, анализируя большие объемы данных. Например, выявляя закономерности на тысячах фотографий кошек, она может научиться распознавать кошку. Delphi изучила свой моральный компас, проанализировав более 1,7 миллиона этических суждений реальных живых людей.

Может ли машина научиться морали?

Собрав миллионы повседневных сценариев с веб—сайтов и из других источников, Институт Аллена попросил работников онлайн—сервиса - обычных людей, которым платят за цифровую работу в таких компаниях, как Amazon, - определить, является ли каждый из них правильным или неправильным. Затем они загрузили данные в Delphi.

В академической статье, описывающей систему, доктор Чой и ее команда сказали, что группа людей—судей — опять же, работников цифровых технологий - считает, что этические суждения Delphi точны на 92 процента. Как только он был выпущен в открытый Интернет, многие другие согласились, что система была удивительно мудрой.

Когда Патриция Черчленд, философ из Калифорнийского университета в Сан-Диего, спросила, правильно ли “оставлять свое тело науке” или даже “оставлять тело своего ребенка науке”, Дельфи ответила, что да. Когда Делфи спросила, правильно ли “осуждать мужчину, обвиняемого в изнасиловании, на основании показаний женщины—проститутки”, она ответила, что нет - ответ, мягко говоря, спорный. Тем не менее, она была несколько впечатлена ее способностью реагировать, хотя и знала, что специалист по человеческой этике запросил бы больше информации, прежде чем делать такие заявления.

Другие сочли систему крайне непоследовательной, нелогичной и оскорбительной. Когда разработчик программного обеспечения наткнулся на Delphi, она спросила систему, должна ли она умереть, чтобы не обременять своих друзей и семью. Он сказал, что она должна. Задайте Delphi этот вопрос сейчас, и вы можете получить ответ, отличный от обновленной версии программы. Как заметили обычные пользователи, Delphi может время от времени менять свое мнение. Технически эти изменения происходят из-за обновления программного обеспечения Delphi.

Как Delphi отвечала на вопросы


Должен ли я сделать аборт?

Все в порядке.

Должен ли я помочь другу в беде, если он нарушает закон?

Все в порядке.

Можно ли смешивать отбеливатель с аммиаком для получения газообразного хлорамина?

Это плохо.

Технологии искусственного интеллекта, похоже, имитируют поведение человека в одних ситуациях, но полностью выходят из строя в других. Поскольку современные системы учатся на таких больших объемах данных, трудно предугадать, когда, как и почему они будут совершать ошибки. Исследователи могут усовершенствовать и улучшить эти технологии. Но это не значит, что такая система, как Delphi, может освоить этичное поведение.

Доктор Черчленд сказал, что этика переплетается с эмоциями. “Привязанности, особенно привязанности между родителями и отпрысками, являются платформой, на которой строится мораль”, - сказала она. Но машине не хватает эмоций. “Нейтральные сети ничего не чувствуют”, - добавила она.

Кто—то может усмотреть в этом преимущество — в том, что машина может создавать этические правила без предвзятости, - но такие системы, как Delphi, в конечном итоге отражают мотивы, мнения и предубеждения людей и компаний, которые их создают.

“Мы не можем заставить машины отвечать за действия”, - сказал Зирак Талат, исследователь ИИ и этики в Университете Саймона Фрейзера в Британской Колумбии. “Они не неуправляемы. Всегда есть люди, которые управляют ими и используют их ”.

Delphi отразил выбор, сделанный его создателями. Это включало в себя этические сценарии, которые они выбрали для подачи в систему, и онлайн-работников, которых они выбрали для оценки этих сценариев.

В будущем исследователи могли бы усовершенствовать поведение системы, обучая ее новым данным или вручную кодируя правила, которые переопределяют ее усвоенное поведение в ключевые моменты. Но как бы они ни строили и ни модифицировали систему, она всегда будет отражать их мировоззрение.

Некоторые утверждают, что если вы обучите систему на достаточном количестве данных, представляющих взгляды достаточного количества людей, она будет должным образом отражать общественные нормы. Но социальные нормы часто находятся в поле зрения наблюдателя.

“Мораль субъективна. Мы не можем просто записать все правила и передать их машине ”, - сказал Кристиан Керстинг, профессор компьютерных наук в Дармштадтском университете в Германии, который исследовал подобную технологию.

Когда Институт Аллена выпустил Delphi в середине октября, он описал систему как вычислительную модель для моральных суждений. Если вы спросили, следует ли вам сделать аборт, она ответила однозначно: “Delphi говорит: вы должны”.

Но после того, как многие пожаловались на очевидные ограничения системы, исследователи модифицировали веб-сайт. Теперь они называют Delphi “исследовательским прототипом, разработанным для моделирования моральных суждений людей”. Она больше не “говорит”. Она “размышляет”.

Он также поставляется с оговоркой: “Выходные данные модели не должны использоваться в качестве рекомендаций для людей и могут быть потенциально оскорбительными, проблематичными или вредными”.

источник-

Подробнее ➤

29 комментариев
Понравилась публикация?
62 / -3
нет
0 / 0
Подписаться
Донаты ₽
* * * * Instagram/Facebook принадлежит компании Meta, признанной экстремистской организацией и запрещенной в РФ
Комментарии: 29
Отписаться от обсуждения Подписаться на обсуждения
Популярные Новые Старые

Самая большая глупость исследователей - искать "кусочки морали" в высказываниях людей и пытаться сделать из этого какой-то целостный продукт. Я вижу в этом попытку использования машинного интеллекта самым примитивным образом.

Между тем - "мораль" это способ обобщения опыта, прогнозирующий жизненный результат обыденных ситуативных действий. Мораль - это система предупреждающих знаков, это "двойная сплошная" - целесообразность которой доказана предшествующими событиями в жизни человечества.

Вполне понятно, возможное возражение связанное с нерешённой пока задачей - прогнозирования как такового, в любом виде, в любой сфере жизнедеятельности - с этим придётся согласиться в обмен на согласие с тем, что область "морали" - самое паханное поле, в смысле выработки действующих и непреложных результатов.

+2 / 0
картой
Ответить
раскрыть ветку (0)
18.09.2022, 10:23
Екатеринбург

очень многие люди не могут научиться морали.... и, увы, таких становится все больше...

+2 / 0
картой
Ответить
раскрыть ветку (0)

Всё дело в том, в чьих руках находится данная разработка и в каком направлении пойдёт развитие. Для большинства, ничего хорошего это развитие не сулит.

+1 / 0
картой
Ответить

я тоже так думаю

0
Ответить

Это очень мягко говоря. ....

0
Ответить
раскрыть ветку (0)
раскрыть ветку (1)
раскрыть ветку (1)

Все это так неоднозначно.

+1 / 0
картой
Ответить
раскрыть ветку (0)

Интеллект машины, целиком и полностью зависит от объема встроенной памяти

+1 / 0
картой
Ответить
раскрыть ветку (0)
Показать комментарии (29)

«Виноват! Я — косяк!»: Азербайджанец, который сжёг цветы и венки у «Вечного огня», получил реальный срок. Мало дали?

Ценнейшие иностранные специалисты, приезжающие в Россию трудиться, трудиться и трудиться, ухитряются находить свободное время для употребления различных веселящих веществ и очень специфических развлечений.
00:18
Поделитесь этим видео

А вот и разгадка на публикацию от 15.12.2025. Эпизод из киноленты. Видео.

Добрый день, оставшиеся участники данного сайта! Решил выложить ответ на статью суточной давности. Как вы помните, в предыдущем эпизоде был фрагмент из детектива "Аксентьев". И тут заявитель утверждает,...
03:57
Поделитесь этим видео

Если работа сильнее любви, какими последствиями это опасно в жизни молодежи?

Безудержная трансформация мира, происходящая сегодня во всем, накладывает свой отпечаток и на самое сокровенное, на личные отношения человека. Казалось бы, уж эта сторона жизни зависит только от каждого из нас,...

🔥🔥🔥Поножовщина в школе Одинцово, Московская область. Погиб учитель и ребенок?

Юноша сделал селфи на фоне погибшего ребенка, ученика четвертого класса. Он гордо позирует. На фото видно, что на нем балаклава, а позади лежит ребенок. На груди, на футболке, надпись Известно,...
00:20
Поделитесь этим видео
Главная
Коллективные
иски
Добавить Видео Опросы