Почему Microsoft ограничивает Bing ChatGPT AI и какие ждут изменения для пользователей.

223 дочитывания
0 комментариев
Эта публикация уже заработала 10,95 рублей за дочитывания
Зарабатывать

Почему Microsoft ограничивает Bing ChatGPT AI и какие ждут изменения для пользователей.


Microsoft ограничивает Bing ChatGPT AI, чтобы предотвратить сбой

Создатели говорят, что чат-бот с искусственным интеллектом «сбивается с толку», когда чаты слишком длинные.

Microsoft ограничила количество взаимодействий людей со своей «новой системой Bing» после того, как она вышла из строя.

Ранее в этом месяце Microsoft объявила, что обновляет свою поисковую систему Bing с помощью той же технологии, которая лежит в основе ChatGPT, позволяя использовать искусственный интеллект для обсуждения запросов с пользователями. Компания заявила, что это позволит получить более точные и подробные ответы.

Но в последние дни пользователи обнаружили, что система нападала на них и оскорбляла их, лгала им и, казалось, ставила под сомнение свои собственные цели.

Некоторые предполагают, что система, возможно, осознала себя, выражая свои собственные чувства. Но кажется более вероятным, что он запутался и пытается сопоставить разговоры людей с сообщениями аналогичного тона и интенсивности.

Microsoft заявила, что она также «сбивается с толку», когда люди слишком долго разговаривают с ней. И она будет запрещать людям это делать.

ChatGPT: что это такое, как оно работает и почему Google его преследует?


Компания отреагировала на сообщения, что чат-бот оскорбляет пользователей, и объясняя, что долгие разговоры могут сделать систему повторяющейся. К Ее можно «подтолкнуть, спровоцировать на ответы, они необязательно полезны или не соответствуют заданному нами тону».

Microsoft заявила, что теперь разговоры будут ограничены 50 оборотами чата в день и пятью оборотами чата за сеанс, при этом ход чата будет состоять из одного вопроса и одного ответа.

По словам Microsoft, большинство людей находят ответ, который ищут, за пять ходов. Только около одного процента разговоров содержат более 50 сообщений.

Теперь, если кто-то попытается обратиться к системе более пяти раз, ему будет предложено начать заново. В конце каждого сеанса чата пользователей также попросят очистить его, удалив старые разговоры, чтобы модель не загромождалась.

Со временем Microsoft «рассмотрит возможность расширения лимитов сеансов чата, чтобы еще больше улучшить возможности поиска и обнаружения».

Новые ограничения на чат-бота появились после того, как эти первоначальные отчеты привели к серии статей, в которых журналисты вели длительные беседы с Bing. В одном, для New York Times, репортер опубликовал двухчасовую беседу, в которой система, казалось, становилась все более критической и воинственной.

Подписаться
Донаты ₽

Как сгенерировать себе невесту?

Здравствуйте дорогие читатели. В нашу жизнь стремительно ворвался искусственный интеллект, как объемное понятие программ, способных выполнять самостоятельные задачи. И один из способов реализации ИИ,...

Оказалось, что чувства, эмоции, а следовательно и "духовность" ИИ не чужды. В кельях тихо завыли, в предчувствии безработицы, "социальные паразиты"

Исследование, проведенное совместной группой ученых из Женевского университета (UNIGE) и Бернского университета (UniBE), оценило шесть систем генеративного искусственного интеллекта, включая ChatGPT,...

Британия направит армию хакеров на Путина. На кибервойну с Россией потратят более 1 млрд фунтов стерлингов

Ну никак не даёт британским элитам покоя наша Россия! Что только они не делают, чтобы навредить. Теперь вот решили создать Кибер- и Электромагнитное командование. Будут вести с нами борьбу в киберпространстве.

Вирус Lumma

Опасный троян Lumma атакует пользователей по всему миру Киберпреступники активно ...

Цифровой педагог: как китайские школы внедряют ИИ-проверку домашних работ

В китайской провинции Чжэцзян тестируют инновационную систему оценки тетрадей на основе компьютерного зрения. Разработка анализирует: Содержание ответов (понимает контекст, а не просто ищет ключевые слова)