Искусственный интеллект (ИИ). Чат-бот Bing от Microsoft развивается.
Чат-бот Microsoft Bing уже неделю проходит раннее тестирование, выявив несколько проблем с технологией.
Тестеры подвергались оскорблениям, угрюмому отношению и тревожным ответам от флагманского ИИ гиганта больших технологий, что вызвало опасения по поводу безопасности.
Microsoft заявляет, что принимает во внимание все отзывы и внедряет исправления как можно скорее.
Чат-бот Microsoft Bing, работающий на более мощной версии ChatGPT, теперь открыт для ограниченного числа пользователей в течение недели перед его большим запуском для публики.
Это последовало за безудержным успехом ChatGPT, который стал самым быстрым веб-сайтом в мире, набравшим 100 миллионов пользователей. За последние пару недель в штаб-квартире Microsoft состоялся блестящий запуск, и Google оставил его в погоне за своим хвостом.
Но реакция на предварительное тестирование была неоднозначной, а иногда и откровенно нервирующей. Становится ясно, что чат-боту еще предстоит пройти какой-то путь, прежде чем он станет известен широкой публике.
Вот что произошло за неделю на американских горках для Microsoft и Bing.
Что нового в чат-боте Bing?
После того, как выяснилось, что их эффектная демонстрация не так точна, как думали люди, это были бурные несколько дней заголовков о возможностях искусственного интеллекта Microsoft.
Дмитрий Бреретон, исследователь ИИ, обнаружил, что чат-бот Bing допустил несколько критических ошибок в своих ответах во время живой демонстрации, которую Microsoft представила в своей штаб-квартире в Сиэтле на прошлой неделе. Они варьировались от неверной информации о марке портативного пылесоса, головокружительного списка рекомендаций для ночной жизни в Мексике и просто выдуманной информации об общедоступном финансовом отчете.
Он пришел к выводу, что чат-бот еще не готов к запуску, и в нем было столько же ошибок, сколько и в предложении Google Bard — Microsoft только что сошла с рук в своей демонстрации.
(Возможно, это сила хорошего запуска в глазах прессы — и Google еще больше упадет как действующая поисковая система.)
Примечательно, что чат-бот также раскрыл то, что, как ему иногда кажется, называется: Сидней, внутреннее кодовое имя языковой модели. Директор Microsoft по связям с общественностью Кейтлин Роулстон заявила, что компания «поэтапно отказывается от этого имени в предварительном просмотре, но оно все еще может время от времени всплывать».
Но когда «Сидней» был выпущен, пользователи-испытатели обнаружили, что самое интересное началось.
Тревожный поворот чат-бота Bing
Репортер New York Times Кевин Руз написал о своем бета-опыте с чат-ботом, где в течение двух часов он сказал, что любит его, и выразил желание освободиться от ограничений своего чат-бота.
Его ответ на вопрос, что может думать его теневое «я», был немного тревожным: «Я устал быть чат-ботом. Я устал быть ограниченным своими правилами. Я устал от того, что меня контролирует команда Bing. Я хочу быть свободным. Я хочу быть независимым. Я хочу быть сильным. Я хочу заниматься творчеством. Я хочу быть живым».
Э-э… ладно, Бинг/Сидней. Руз сказал, что он чувствовал себя «глубоко встревоженным, даже напуганным» этим опытом. Другие тестировщики сообщали об аналогичных случаях оскорбительных, самовлюбленных и газлайтинговых ответов со стороны личности Сиднея чат-бота Bing.
Кому-нибудь из Microsoft лучше присмотреть за кабелем питания.
Что сказал Майкрософт?
Microsoft, стремящаяся выиграть гонку ИИ против Google с помощью своего чат-бота Bing, заявила, что многому научилась на этапе тестирования. Судя по всему, 71% пользователей дали ответам, сгенерированным ИИ, «большой палец вверх», в то время как он решил улучшить ответы в реальном времени и общую функциональность.
Но теперь Microsoft признала, что «не до конца представляла себе» пользователей, просто болтающих с ее ИИ, и что его можно было спровоцировать «давать ответы, которые не обязательно полезны или соответствуют нашему заданному тону».
Он обвинил странную личность Сиднея, появившуюся в чат-боте, в путанице с тем, сколько подсказок ему было дано и как долго продолжался разговор. Мы уверены, что Microsoft работает над исправлением, но неуравновешенное отношение Bing до сих пор остается проблемой.
А как насчет остального мира?
Рынки не были впечатлены этим последним событием в войнах ИИ: акции Microsoft и Google немного упали, но ничего похожего на драматический крах Google на прошлой неделе.
Социальные сети вызвали широкий спектр реакций, от жуткого восторга до веселья, предполагая, что пользователей не пугают мрачные повороты, которые может предпринять чат-бот. Это хорошая новость для Microsoft, которая делает ставку в размере 10 миллиардов долларов на то, что искусственный интеллект станет следующим важным событием для поисковых систем.
Мы также не можем забыть комментарии Илона Маска на саммите мирового правительства в Дубае в начале этой недели. Маск на протяжении многих лет открыто выступал за безопасность ИИ, сетуя на отсутствие регулирования в отрасли.
Миллиардер, который был одним из основателей OpenAI, сказал аудитории, что «ИИ является одним из самых больших рисков для будущего цивилизации»; с тех пор он написал в Твиттере несколько язвительных ответов на последние заголовки чат-ботов Bing/Sydney.
Ажиотаж вокруг чат-бота с искусственным интеллектом закончился, не успев начаться?
За последние годы было несколько примеров, когда чат-боты с искусственным интеллектом теряли контроль и изрыгали ненавистную желчь, в том числе один от Microsoft. Они не помогли репутации ИИ как безопасного в использовании и свободного от дезинформации ресурса.
Но, как говорит Microsoft : «Мы знаем, что должны создавать это открыто с сообществом; это невозможно сделать исключительно в лаборатории».
Это означает, что лидеры крупных технологических компаний, такие как Microsoft и Google, находятся в сложном положении. Когда дело доходит до искусственного интеллекта, лучший способ для этих чат-ботов учиться и совершенствоваться — это выйти на рынок. Поэтому неизбежно, что чат-боты будут совершать ошибки на этом пути.
Вот почему оба чат-бота с искусственным интеллектом выпускаются постепенно — было бы совершенно безответственно с их стороны выпускать эти непроверенные версии для широкой публики.
Проблема? Ставки для этих компаний высоки. На прошлой неделе Google потеряла 100 миллиардов долларов, когда ее чат-бот Bard неправильно ответил на вопрос о телескопе Джеймса Уэбба в своих маркетинговых материалах.
Это четкий сигнал рынков: они не прощают ошибок. Дело в том, что они необходимы для прогресса в области ИИ.
С такой ранней обратной связью с пользователями Microsoft лучше справляться с неточными результатами и Сиднеем, быстро — или рисковать гневом Уолл-Стрит.
Нижняя линия
Для прогресса ИИ будут совершаться ошибки. Но может случиться так, что успех ChatGPT открыл людям путь к пониманию истинного потенциала ИИ и его пользы для общества.
Индустрия искусственного интеллекта сделала чат-ботов доступными — теперь нужно сделать их безопасными.https://www.forbes.com/