Илья
Илья Подписчиков: 7
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 3

Инструмент OpenAI направлен на выявление текстов, созданных искусственным интеллектом

1 дочитывание
0 комментариев
Эта публикация уже заработала 0,05 рублей за дочитывания
Зарабатывать

Инструмент OpenAI направлен на выявление текстов, созданных искусственным интеллектом

(Фото Shane Aldendorff on Unsplash)

Компания OpenAI запустила инструмент для обнаружения текста, созданного с помощью сервисов, подобных ее собственному ChatGPT.

Генеративные модели ИИ, используемые в таких сервисах, как ChatGPT, вызывают множество вопросов общественного и этического характера: Могут ли они использоваться для генерации дезинформации в беспрецедентных масштабах? Что если студенты будут списывать с их помощью? Следует ли отдавать должное ИИ, если его выдержки используются для статей или докладов?

В докладе (PDF) Центра по терроризму, экстремизму и борьбе с терроризмом Института международных исследований Миддлбери было даже обнаружено, что GPT-3 способен генерировать "влиятельные" тексты, которые потенциально могут радикализировать людей в сторону ультраправой экстремистской идеологии.

Компания OpenAI была основана для продвижения и развития "дружественного ИИ", который приносит пользу человечеству. Как создатель мощных генеративных моделей ИИ, таких как GPT и DALL-E, OpenAI несет ответственность за обеспечение безопасности своих творений, чтобы предотвратить или хотя бы минимизировать их использование во вредных целях.

Новый инструмент, представленный на этой неделе, утверждает, что способен отличить текст, написанный человеком, от текста, написанного ИИ (не только GPT). Однако OpenAI предупреждает, что в настоящее время он ненадежен.

По данным OpenAI, на тестовом наборе английских текстов его инструмент определил только 26 процентов текстов, написанных ИИ, как "скорее всего, написанные ИИ". Примерно в девяти процентах случаев инструмент ошибочно классифицирует текст, написанный человеком.

"Хотя невозможно надежно обнаружить весь текст, написанный ИИ, мы считаем, что хорошие классификаторы могут помочь в борьбе с ложными утверждениями о том, что текст, созданный ИИ, был написан человеком: например, при проведении автоматизированных кампаний по дезинформации, использовании инструментов ИИ для выявления академической нечестности и позиционировании чатбота ИИ как человека", - говорится в сообщении OpenAI.

"[Этот инструмент] не должен использоваться в качестве основного инструмента принятия решений, а лишь как дополнение к другим методам определения источника текста".

Другие ключевые ограничения инструмента заключаются в том, что он "очень ненадежен" на коротких текстах менее 1 000 символов и "значительно хуже" при использовании неанглоязычных текстов.

Первоначально OpenAI предоставляла доступ к GPT небольшому числу доверенных исследователей и разработчиков. Пока она разрабатывала более надежные средства защиты, был введен список ожидания. Список ожидания был удален в ноябре 2021 года, но работа над повышением безопасности продолжается.

"Чтобы обеспечить ответственное создание приложений на базе API, мы предоставляем инструменты и помогаем разработчикам использовать передовой опыт, чтобы они могли быстро и безопасно доводить свои приложения до производства", - пишет OpenAI в своем блоге.

"По мере развития наших систем и совершенствования возможностей наших средств защиты мы рассчитываем и дальше упрощать процесс для разработчиков, уточнять наши рекомендации по использованию и со временем разрешить еще больше вариантов использования".

Недавно OpenAI поделился своим мнением о том, что вокруг следующей основной версии GPT, GPT-4, слишком много шумихи, и что люди "ждут разочарования". Он также считает, что модель, генерирующая видео, появится, но не называет сроков.

Видео, обработанные с помощью технологии искусственного интеллекта, также известные как глубокие подделки, уже оказались проблемными. Людей легко убедить тем, что они думают, что видят.

Мы уже видели глубокие подделки таких фигур, как опальный основатель FTX Сэм Бэнкман-Фрид, чтобы совершить мошенничество, президент Украины Владимир Зеленский, чтобы дезинформировать, и спикер Палаты представителей США Нэнси Пелоси, чтобы опорочить ее и выставить пьяной.

OpenAI поступает правильно, не торопясь минимизировать риски, сдерживая ожидания и создавая инструменты для выявления контента, который ложно утверждает, что создан человеком.

Вы можете протестировать незавершенный инструмент OpenAI для обнаружения текста, созданного ИИ, здесь. Альтернативный вариант под названием "DetectGPT" создается исследователями Стэнфордского университета и доступен для демонстрации здесь.

Источник

Понравилась публикация?
2 / 0
нет
0 / 0
Подписаться
Донаты ₽

Цифровой педагог: как китайские школы внедряют ИИ-проверку домашних работ

В китайской провинции Чжэцзян тестируют инновационную систему оценки тетрадей на основе компьютерного зрения. Разработка анализирует: Содержание ответов (понимает контекст, а не просто ищет ключевые слова)

Статистика копирайтинга. Февраль-2025

Итоги работы: гонорары, расходы на рекламу, мысль о ChatGPT. За месяц 26 раз обсуждал проекты, из них 17 – органический трафик, 9 – моя инициатива. Получил 9 заказов. Конверсия – 35 %, неплохой показатель.

Эксперимент с созданием искусственного человека: как люди и ИИ пишут истории любви

Исследование сторителлинга рассказывает о том, как работают инструменты искусственного интеллекта, такие как ChatGPT, и о их ограничениях.Нина Бегуш провела интересный эксперимент, в котором протестировала,...