ChatGPT становится более умным, но не идеальным.
OpenAI, стартап, стоящий за генеративными инструментами искусственного интеллекта, такими как Dall-e и ChatGPT, выпустил ChatGPT-4.
OpenAI выпустила ChatGPT-4, новейшую версию своего чат-бота, которая стала более точной.
OpenAI утверждает, что ChatGPT-4 смог сдать экзамен на адвоката с результатом около 10% лучших участников теста. Чат-бот не только лучше справляется с вычислениями в уме, но и объясняет свои рассуждения.
Новейшая модель теперь также будет принимать изображения, и чат-бот будет описывать изображение. В прямом эфире 14 марта президент OpenAI Грег Брокман продемонстрировал, что загружает фотографию в ChatGPT. На фотографии была написанная от руки заметка с описанием того, как он хочет, чтобы веб-сайт выглядел. Инструмент сгенерировал код, который он мог использовать для создания именно этого сайта.
Учебный чатGPT-4
Как и предыдущие модели, ChatGPT-4 обучается на огромном количестве данных, взятых из Интернета. По словам компании, модель была обучена предсказывать следующее слово в документе с использованием общедоступных данных и лицензированных данных. Однако подавляющее большинство его данных относится к периоду до сентября 2021 года.
Компании уже интегрируют модель большого языка в свою деятельность. Юридическая фирма с искусственным интеллектом под названием Casetext объявила, что ее помощник по правовым вопросам с искусственным интеллектом CoCounsel работает на ChatGPT-4, при этом компания утверждает, что сдала множественный выбор и письменные части единого экзамена на адвоката. Примеры использования ИИ в правовой сфере включают составление контрактов для обобщения сложных законов.
OpenAI, базирующаяся в Сан-Франциско, также стоит за генератором визуального искусства Dall-e . Тем временем технологические гиганты, такие как Microsoft и Google, работают над созданием собственных генеративных инструментов искусственного интеллекта. Последний выпуск OpenAI может заставить эти крупные компании наверстать упущенное.
ChatGPT-4 не идеален
Несмотря на всю шумиху вокруг ChatGPT, у технологии все еще есть множество проблем. Как и в более ранних моделях, OpenAI заявила, что GPT-4 «галлюцинирует» факты и делает ошибки в рассуждениях, но количество ошибок, связанных с прошлыми моделями, уменьшилось.
ChatGPT, как отметила компания в своем блоге, может быть «чрезмерно доверчивым, принимая очевидные ложные ответы от пользователя», а также «может уверенно ошибаться в своих прогнозах, не заботясь о перепроверке работы, когда она может привести к ошибкам». ошибка."
Чтобы улучшить модели, OpenAI заявила, что, среди прочего, отбирает и фильтрует данные перед обучением. Примечательно, что компания предупредила, что дополнительные возможности GPT-4 могут привести к новым рискам, для оценки которых требуется сторонний эксперт.
Чтобы понять масштабы рисков, стартап заявил, что он использует отзывы и данные 50 экспертов в таких областях, как риски выравнивания ИИ, кибербезопасность, биологические риски, доверие и безопасность, а также международная безопасность, чтобы найти дыры в модели. Полученные результаты затем используются для усовершенствования модели. Например, в рамках этого взаимодействия он собрал данные, чтобы улучшить способность ChatGPT отклонять запросы о том, как синтезировать опасные химические вещества.