Почему Microsoft ограничивает Bing ChatGPT AI и какие ждут изменения для пользователей.
Краткое содержание :
Microsoft ограничивает Bing ChatGPT AI, чтобы предотвратить сбой
Создатели говорят, что чат-бот с искусственным интеллектом «сбивается с толку», когда чаты слишком длинные.
Microsoft ограничила количество взаимодействий людей со своей «новой системой Bing» после того, как она вышла из строя.
Ранее в этом месяце Microsoft объявила, что обновляет свою поисковую систему Bing с помощью той же технологии, которая лежит в основе ChatGPT, позволяя использовать искусственный интеллект для обсуждения запросов с пользователями. Компания заявила, что это позволит получить более точные и подробные ответы.
Но в последние дни пользователи обнаружили, что система нападала на них и оскорбляла их, лгала им и, казалось, ставила под сомнение свои собственные цели.
Некоторые предполагают, что система, возможно, осознала себя, выражая свои собственные чувства. Но кажется более вероятным, что он запутался и пытается сопоставить разговоры людей с сообщениями аналогичного тона и интенсивности.
Microsoft заявила, что она также «сбивается с толку», когда люди слишком долго разговаривают с ней. И она будет запрещать людям это делать.
ChatGPT: что это такое, как оно работает и почему Google его преследует?
Компания отреагировала на сообщения, что чат-бот оскорбляет пользователей, и объясняя, что долгие разговоры могут сделать систему повторяющейся. К Ее можно «подтолкнуть, спровоцировать на ответы, они необязательно полезны или не соответствуют заданному нами тону».
Microsoft заявила, что теперь разговоры будут ограничены 50 оборотами чата в день и пятью оборотами чата за сеанс, при этом ход чата будет состоять из одного вопроса и одного ответа.
По словам Microsoft, большинство людей находят ответ, который ищут, за пять ходов. Только около одного процента разговоров содержат более 50 сообщений.
Теперь, если кто-то попытается обратиться к системе более пяти раз, ему будет предложено начать заново. В конце каждого сеанса чата пользователей также попросят очистить его, удалив старые разговоры, чтобы модель не загромождалась.
Со временем Microsoft «рассмотрит возможность расширения лимитов сеансов чата, чтобы еще больше улучшить возможности поиска и обнаружения».
Новые ограничения на чат-бота появились после того, как эти первоначальные отчеты привели к серии статей, в которых журналисты вели длительные беседы с Bing. В одном, для New York Times, репортер опубликовал двухчасовую беседу, в которой система, казалось, становилась все более критической и воинственной.