Мария
МарияПодписчиков: 121
РейтингРейтингРейтингРейтингРейтинг9561

Секретное оружие ChatGPT - искусственный эмоциональный интеллект

53 просмотрa
3 дочитывания
0 комментариев
Эта публикация уже заработала 0,15 рублей за дочитывания
Зарабатывать

Гонка за подключением чат-ботов к поисковым системам имеет мало смысла, когда они лучше имитируют сопереживание, чем вспоминают факты.

Ранее в этом году профессор компьютерных наук Принстона Арвинд Нараянан настроил голосовой интерфейс для ChatGPT для своей почти четырехлетней дочери. Отчасти это был эксперимент, а отчасти потому, что он верил, что агенты искусственного интеллекта однажды станут важной частью ее жизни.

Дочь Нараянана была от природы любопытна, часто спрашивала о животных, растениях и человеческом теле, и он сказал мне, что Чатгпт мог бы дать полезные ответы на ее вопросы. К его удивлению, чат-бот, разработанный OpenAI, также проделал безупречную работу по проявлению эмпатии, как только он сообщил системе, что разговаривает с маленьким ребенком.

“Что происходит, когда гаснет свет?” - спросила его дочь.

“Когда гаснет свет, становится темно, и это может быть немного страшно”, - ответил Чатгпт синтетическим голосом. “Но не волнуйся! Есть много вещей, которые ты можешь сделать, чтобы чувствовать себя в безопасности и комфортно в темноте ”.

Затем он дал несколько советов по использованию ночников, завершив напоминанием о том, что “это нормально - чувствовать себя немного напуганным в темноте”. Дочь Нараянана была явно успокоена объяснением, написал он в посте из подзаголовка.

Корпорации Microsoft и Google Alphabet спешат усовершенствовать свои поисковые системы с помощью технологии large language model, которая лежит в основе ChatGPT, но есть веские основания полагать, что технология лучше работает как эмоциональный компаньон, чем как поставщик фактов.

Это может показаться странным, но что еще более странно, так это то, что Bard от Google и Bing от Microsoft, основанные на базовой технологии ChatGPT, позиционируются как инструменты поиска, когда у них есть неудобный история фактических ошибок: Bard предоставила неверную информацию о телескопе Джеймса Уэбба в своей самой первой демо-версии, в то время как Bing ошибся с рядом финансовых показателей в своей собственной.

Цена фактических ошибок высока, когда для поиска используется чат-бот. Но когда он разработан как компаньон, он намного ниже, по словам Евгении Куйды, основательницы приложения Replika для искусственного интеллекта, которое было загружено более 5 миллионов раз. “Это не испортит впечатления, в отличие от поиска, где небольшие ошибки могут подорвать доверие к продукту”, - добавил Куйда.

Маргарет Митчелл, бывший исследователь искусственного интеллекта Google, которая была соавтором статьи о рисках, связанных с большими языковыми моделями, сказала, что большие языковые модели просто “не подходят по назначению” в качестве поисковых систем.

Языковые модели допускают ошибки, потому что данные, на которых они обучаются, часто содержат ошибки и потому что модели не имеют основы истины, на основе которой можно было бы проверить то, что они говорят. Их разработчики также могут отдавать предпочтение беглости, а не точности.

Это одна из причин, почему эти инструменты исключительно хороши в имитации сопереживания. В конце концов, они учатся на основе текста, почерпнутого из Интернета, включая эмоциональные реакции, опубликованные на платформах социальных сетей, таких как Twitter и Facebook****, и на основе личной поддержки, оказанной пользователям форумов, таких как Reddit и Quora. Разговоры из сценариев фильмов и телешоу, диалоги из романов и исследовательские работы по эмоциональному интеллекту - все это используется для тренировки эмпатии с помощью этих инструментов.

Поэтому неудивительно, что некоторые люди используют ChatGPT в качестве своего рода робо-терапевта, согласно апрельской статье в Bloomberg Businessweek. Один человек сказал, что они использовали это, чтобы не стать обузой для других, включая своего собственного человека-терапевта.

Чтобы посмотреть, смогу ли я измерить эмпатические способности ChatGPT, я провел его через онлайн-тест на эмоциональный интеллект, задающий 40 вопросов с множественным выбором и предлагающий ответить на каждый вопрос соответствующей буквой. Результат: он успешно прошел тест, получив отличные баллы в категориях социальной осведомленности, управления взаимоотношениями и самоуправления, и лишь слегка споткнулся в самосознании. 1

На самом деле, ChatGPT показал лучшие результаты в тестировании, чем я, и он также обошел моего коллегу, обозревателя Global banking Пол Дэвис, хотя мы оба люди и у нас есть настоящие эмоции (или мы так думаем).

Есть что-то нереальное в том, что машина обеспечивает нам комфорт с помощью синтетического сочувствия, но это действительно имеет смысл. Наша врожденная потребность в социальных связях и способность нашего мозга отражать чувства других людей означают, что мы можем получить ощущение понимания, даже если противоположная сторона искренне не “чувствует” того, что чувствуем мы. Внутри нашего мозга активируются так называемые зеркальные нейроны, когда мы воспринимаем сочувствие других людей, включая чат-ботов, помогая нам ощутить связь.

Сопереживание, конечно, многогранное понятие, и для того, чтобы мы могли по-настоящему испытать его, нам, возможно, действительно нужно еще одно теплое тело в комнате, разделяющее наши чувства на мгновение.

Томас Уорд, клинический психолог из Королевского колледжа Лондона, исследовавший роль программного обеспечения в терапии, предостерегает от предположений, что ИИ может адекватно заполнить пустоту для людей, нуждающихся в поддержке в области психического здоровья, особенно если их проблемы серьезны. Чат-бот, например, вероятно, не признает, что чувства человека слишком сложны для понимания. Другими словами, ChatGPT редко говорит “я не знаю”, потому что он был разработан для того, чтобы ошибаться в сторону уверенности, а не осторожности в своих ответах.

И в более общем плане, людям следует остерегаться привычного обращения к чат-ботам как к средству выражения своих чувств. “Тонкие аспекты человеческой связи, такие как прикосновение руки или знание, когда говорить, а когда слушать, могут быть утрачены в мире, который рассматривает чат-ботов с искусственным интеллектом как решение проблемы человеческого одиночества”, - говорит Уорд.

Это может в конечном итоге создать больше проблем, чем мы думаем, что решаем. Но на данный момент они, по крайней мере, более надежны в плане своих эмоциональных навыков, чем в плане понимания фактов.

Понравилась публикация?
14 / 0
нет
Подписаться
Донаты ₽
* * * * Instagram/Facebook принадлежит компании Meta, признанной экстремистской организацией и запрещенной в РФ
Руслан
Подписчиков 9208
05.06.2024, 15:48
РейтингРейтингРейтингРейтингРейтинг12.1М
Плюсы технологий в образовании можно перечислять долго, но я хочу выделить важные из них.
Подробнее
Неинтересно
-1
10
Елена
Подписчиков 8320
вчера, 19:46
РейтингРейтингРейтингРейтингРейтинг13.4М
Подробнее
Неинтересно
01:03
Поделитесь этим видео
0
3
Елена
Подписчиков 8320
вчера, 16:45
РейтингРейтингРейтингРейтингРейтинг13.4М
Подробнее
Неинтересно
00:58
Поделитесь этим видео
0
0
Елена
Подписчиков 8320
вчера, 16:26
РейтингРейтингРейтингРейтингРейтинг13.4М
Подробнее
Неинтересно
00:51
Поделитесь этим видео
0
1