Почему создатели ChatGPT говорят, что искусственный интеллект дает сбои и предвзято относиться к пользователям.

Создатели ChatGPT OpenAI заявили, что система была "политически предвзятой, оскорбительной" и "нежелательной в других отношениях", и обязались изменить принцип ее работы.
Эти изменения включают в себя повышение вероятности того, что система будет говорить вещи, с которыми люди могут быть категорически не согласны, и создание новых инструментов, позволяющих людям настраивать ее поведение.
С тех пор как ChatGPT был выпущен в конце прошлого года, и миллионы людей начали использовать его каждый день, некоторые начали жаловаться и беспокоиться о том, что он может сказать. Некоторые критиковали его за то, что он, похоже, отдает предпочтение определенным сторонам политических дебатов - например, некоторые правые комментаторы предположили, что он предвзято относится к Дональду Трампу и Джо Байдену, — а также за то, что он, похоже, занимает разделительную позицию по некоторым темам.
Версия ChatGPT, интегрированная в Bing, привлекла еще больше внимания своим необычным и иногда оскорбительным поведением. Пользователи обнаружили, что она нападает на них, обвиняет их во лжи и многое другое.
OpenAI заявила, что во многих случаях мы считаем, что высказанные опасения были обоснованными и выявили реальные недостатки наших систем. Для их устранения компания не уточнила, с какими именно опасениями она согласна и на какие примеры она реагирует. Так же заявила, что будет работать над устранением этих проблем в будущем путем внесения изменений в систему.
Как будут исправлять ошибки ChatGPT
Новый ИИ ChatGPT от Microsoft начал отправлять "неумные" сообщения людям
В настоящее время такие модели, как ChatGPT, создаются путем подачи им огромного количества текста, благодаря чему они могут узнать, какое следующее слово в предложении является наиболее вероятным. Затем они проходят через вторую фразу тонкой настройки, где человеческие рецензенты помогают сузить поведение системы, чтобы она вела себя соответствующим образом.
OpenAI заявила, что этот процесс "больше похож на дрессировку собаки, чем на обычное программирование". Поэтому компания не дает ей четких инструкций, а скорее общие указания, которым она следует при взаимодействии с людьми.
Но OpenAI заявила, что принимает решение поделиться некоторыми рекомендациями в помощи по обучению системы. Опубликованные в Интернете, они вкратце гласят, что система должна избегать принимать чью-либо сторону в спорных темах, и что она должна пытаться помочь пользователям в информационных вопросах.
Однако в документе говорится, что можно сделать больше для того, чтобы избежать подобных ситуаций, и что он будет прилагать больше усилий для изменения поведения системы.
Это будет включать в себя изменение системы, чтобы "уменьшить как явные, так и тонкие предубеждения в том, как ChatGPT реагирует на различные входные данные". В настоящее время ChatGPT "отказывает в выводах, которые не должна, а в некоторых случаях не отказывает, когда должна", и это можно улучшить, заявили в компании.
OpenAI также считает, что ChatGPT можно улучшить, чтобы он не так часто "выдумывал".
Еще одно предложение OpenAI, вероятно, окажется самым спорным. Компания заявила, что усовершенствует систему таким образом, чтобы пользователи могли "легко настраивать ее поведение", например, приказать ей выдавать результаты, "с которыми другие люди (в том числе и мы) могут быть категорически не согласны".
OpenAI не уточнила, что именно это может включать. Но в настоящее время в его руководстве прямо запрещается ChatGPT продвигать идеи, которые ведут к массовой гибели людей, например, геноцид, рабство или террористические акты.
Однако система будет продолжать включать в себя "жесткие ограничения", которые не позволят ей когда-либо предпринимать определенные действия. OpenAI заявила, что она будет искать общественный вклад как в эти ограничения, так и в настройки системы по умолчанию, чтобы избежать концентрации власти в своих собственных руках.
"Иногда мы будем совершать ошибки. Когда мы их совершаем, мы учимся на них и итерационно совершенствуем наши модели и системы", — заключили в компании.
"Мы ценим сообщество пользователей ChatGPT, а также бдительность широкой общественности в привлечении нас к ответственности, и мы рады рассказать больше о нашей работе в трех вышеуказанных областях в ближайшие месяцы".