OpenAI борется с дезинформацией

- Классификатор текста AI от OpenAI может помочь обнаружить контент, созданный AI, но он не на 100% точен и может допускать ошибки.
- Он может неправильно маркировать как текст, созданный ИИ, так и текст, написанный человеком, и его также можно обойти с помощью незначительных правок.
- Классификатор текста ИИ не должен быть единственным доказательством, используемым при вынесении вердикта о том, создал ли ИИ документ.
OpenAI, исследовательская фирма в области искусственного интеллекта, стоящая за ChatGPT, выпустила новый инструмент, позволяющий различать текст, созданный искусственным интеллектом, и текст, созданный человеком.
Несмотря на то, что невозможно обнаружить написанный ИИ текст со 100% точностью, OpenAI считает, что его новый инструмент может помочь смягчить ложные заявления о том, что люди написали контент, созданный ИИ.
В объявлении OpenAI говорится, что его новый классификатор текста AI может ограничить возможность запуска автоматических кампаний по дезинформации, использования инструментов AI для академического мошенничества и выдачи себя за людей с помощью чат-ботов.
Инструмент оценит вероятность того, что ИИ сгенерировал отправленный вами текст. Результаты варьируются от следующего:
- Маловероятно
- Вряд ли
- Неясно, если это
- Возможно
- Вероятный
OpenAI добавляет, что инструмент не был тщательно протестирован для обнаружения контента, содержащего комбинацию искусственного интеллекта и текста, написанного человеком.
В конечном счете, классификатор текста ИИ может быть ценным ресурсом для пометки потенциально сгенерированного ИИ текста, но его не следует использовать в качестве окончательной меры для вынесения вердикта.