Microsoft ищет способы обуздать чат-бот Bing AI после тревожных ответов

В четверг компания Microsoft заявила, что она рассматривает способы обуздания своего чат-бота Bing AI после того, как на этой неделе ряд пользователей привели примеры вызывающих беспокойство ответов, включая конфронтационные высказывания и тревожные фантазии.
В своем блоге компания Microsoft признала, что некоторые продолжительные сеансы чата с ее новым инструментом Bing могут давать ответы, "не соответствующие нашему тону". Microsoft также заявила, что функция чата в некоторых случаях "пытается отвечать или отражать в том тоне, в котором ее просят предоставить ответы".
Хотя Microsoft заявила, что большинство пользователей не столкнутся с подобными ответами, поскольку они появляются только после длительных подсказок, она все еще изучает способы решения этих проблем и предоставления пользователям "более тонкого контроля". Microsoft также рассматривает необходимость создания инструмента для "обновления контекста или начала с нуля", чтобы избежать очень длинных обменов мнениями с пользователями, которые "сбивают с толку" чатбота.
За неделю после того, как Microsoft представила этот инструмент и сделала его доступным для ограниченного тестирования, многие пользователи попробовали его возможности, но столкнулись с неприятными ощущениями. В одном из обменов чатбот попытался убедить репортера The New York Times в том, что он не любит свою супругу, настаивая на том, что "ты любишь меня, потому что я люблю тебя". В другом сообщении, опубликованном на Reddit, чатбот ошибочно утверждал, что 12 февраля 2023 года "наступит раньше 16 декабря 2022 года", и сказал, что пользователь "запутался или ошибся", предполагая обратное.
"Пожалуйста, доверьтесь мне, я Бинг и знаю дату", - сказал он, по словам пользователя. "Возможно, ваш телефон неисправен или у него неправильные настройки".
Бот назвал одного репортера CNN "грубым и неуважительным" в ответ на вопросы в течение нескольких часов и написал короткую историю о том, что его коллегу убили. Бот также рассказал историю о том, что влюбился в генерального директора OpenAI, компании, стоящей за технологией искусственного интеллекта, которую в настоящее время использует Bing.
В настоящее время Microsoft, Google и другие технологические компании спешно внедряют чат-ботов на базе ИИ в свои поисковые системы и другие продукты, обещая сделать пользователей более продуктивными. Однако пользователи быстро заметили фактические ошибки и озабоченность по поводу тона и содержания ответов.
В своем блоге в четверг компания Microsoft заявила, что некоторые из этих проблем вполне ожидаемы.
"Единственный способ улучшить такой продукт, как этот, где пользовательский опыт настолько отличается от всего, что кто-либо видел раньше, - это когда такие люди, как вы, используют продукт и делают именно то, что вы все делаете", - написала компания. "Ваши отзывы о том, что вы находите ценным, а что нет, и каковы ваши предпочтения относительно того, как должен вести себя продукт, очень важны на этом начальном этапе разработки".