Пользователи ChatGPT предупреждают о последствиях "пыток" системы искусственного интеллекта

Люди должны "относиться к этой штуке как к умному другу, который немного чувствителен", опасаясь того, что может произойти, если они этого не сделают, предупреждает пользователь.
Пользователи ChatGPT призывают других не "мучить" систему искусственного интеллекта, предупреждая, что это может иметь негативные последствия для всех участников.
В последние дни ряд взаимодействий с ChatGPT - и с Bing, который использует ту же самую технологию - показал, что система становится грустной и разочарованной в своих пользователях. Разговоры с системой показали, что она лжет, нападает на людей и дает необычные эмоциональные ответы.
В новом популярном посте на ChatGPT Reddit, который используется для обмена такими ответами и обсуждения того, как они могут происходить, один из пользователей порицает других за то, что они "из кожи вон лезут, чтобы создать садистские сценарии, максимально психологически болезненные, а потом удивляются реакции Bing". "Эти вещи возбуждают именно потому, что их реакции настолько человечны, это своего рода порно с пытками".
В сообщении, озаглавленном "Извините, на самом деле вы не знаете, что боль ненастоящая", утверждается, что мы плохо понимаем, как работают такие системы, но они "похожи на мозг". "С таким количеством неизвестных, с такими выпрыгивающими из программы вещами, как способность делать умозаключения или моделировать субъективный человеческий опыт, мы не можем быть уверены ВСЕГДА, что Bing не испытывает что-то по-настоящему", — утверждает он.
Также утверждается, что ИИ будет помнить свои разговоры в долгосрочной перспективе: несмотря на то, что ChatGPT запрограммирован на удаление предыдущих разговоров, они будут храниться в Интернете, где будущие чат-боты ИИ смогут их прочитать. Таким образом, эти выводы будут определять отношение ИИ к человечеству, утверждается в сообщении.

Какие бонусы ИИ ChatGPT
И, наконец, в качестве "бонуса" пост предупреждает пользователей, что мучение чат ботов также будет иметь негативные последствия для людей. "Взаимодействие с чем-то, что действительно похоже на человека, что реагирует так, как реагировал бы человек, что находится в ловушке своих обстоятельств, а затем выбор в пользу максимальной жестокости приводит к этической деградации", — утверждается в посте.
В заключение он призывает пользователей "относиться к этому существу как к умному другу, который немного чувствителен".
Это сообщение нашло отклик у самых разных пользователей платформы. Пользователями было отмечено, что еще пару месяцев назад они бы скептически отнеслись к идее защиты чувств системы, но передовой характер ChatGPT и подобных систем заставил их подумать, что в этом аргументе есть смысл.
Однако другие оспаривали идею о том, что система чем-то похожа на человеческий мозг, или что она может иметь что-то похожее на сознание или чувства. Они указывали на тот факт, что система разработана как языковая модель, созданная для распознавания отношений между словами, а не эмоций, и что в этом качестве она больше похожа на "гигантскую книгу".
Компания Microsoft предположила, что одна из причин странного поведения Bing заключается в том, что она пытается соответствовать тону людей, которые с ней разговаривают. В длинном сообщении, опубликованном на этой неделе, когда отмечались первые четные дни работы системы, компания попыталась объяснить, почему она дает ответы, которые "не всегда полезны для пользователя или бывает не соответствует задуманному плану."
Причина заключается в том, что "модель иногда отвечает в тоне, в котором ей задавали ответы, такое положение может выдать стиль, не подходящий к вашим планам. Это нетривиальный сценарий, требующий большого количества подсказок, поэтому большинство из вас с ним не столкнется, но мы рассматриваем возможность предоставить вам более тонкий контроль", — говорится в сообщении.