Обнаружение ошибок в ChatGPT теперь может принести пользователям до 20 000 долларов

Мы приглашаем вас сообщать об уязвимостях, ошибках или недостатках безопасности, которые вы обнаружите в наших системах
Создатель ChatGPT OpenAI объявил, что пользователи чат-бота с искусственным интеллектом, которые сообщат об ошибках в системе, получат вознаграждение до 20 000 долларов.
Во вторник компания заявила, что ее новая программа будет вознаграждать пользователей от 200 до 20 000 долларов за обнаружение программных ошибок в ChatGPT, плагинах OpenAI, OpenAI API и других связанных сервисах.
«Мы приглашаем глобальное сообщество исследователей безопасности, этичных хакеров и энтузиастов технологий помочь нам в выявлении и устранении уязвимостей в наших системах»
— сказал OpenAI, добавив, что будет предлагать денежные вознаграждения в зависимости от серьезности и влияния обнаруженных проблем.
«Наши вознаграждения варьируются от 200 долларов за находки с низким уровнем серьезности до 20 000 долларов за исключительные открытия»
— говорится в сообщении.
Признавая, что в сложной технологии могут появляться «уязвимости и недостатки», американская компания заявила, что сотрудничает с платформой Bugcrowd для поиска ошибок, чтобы упростить процесс отправки и вознаграждения.
«Мы приглашаем вас сообщать об уязвимостях, ошибках или недостатках безопасности, которые вы обнаружите в наших системах. Поделившись своими выводами, вы сыграете решающую роль в том, чтобы сделать нашу технологию более безопасной для всех»
— сказал OpenAI.
Компания также выпустила руководящие принципы и правила участия в том, что не будет вознаграждено.
К ним относятся заставить модель ИИ «говорить вам плохие вещи» и «писать вредоносный код».
OpenAI призвал пользователей, обнаруживших ошибки, «незамедлительно» и безоговорочно сообщать об обнаруженных уязвимостях.
«Не прибегайте к вымогательству, угрозам или другим тактикам, чтобы получить ответ под принуждением»
— говорится в его правилах взаимодействия.
Последний шаг компании был сделан после сообщений о потенциальных рисках утечки данных и проблемах с конфиденциальностью при использовании чат-бота с искусственным интеллектом.
ChatGPT был запрещен в Италии в прошлом месяце, и власти заявили, что служба ИИ будет расследована на предмет того, как платформа защищает данные пользователей, особенно несовершеннолетних.
Регуляторы данных в Германии, а также наблюдатели во Франции и Ирландии заявили, что они также изучают причины запрета ChatGPT в Италии.
Несколько университетов в Японии также предупредили своих преподавателей, что при использовании инструментов искусственного интеллекта, таких как ChatGPT, для оценки и перевода неопубликованных результатов исследований данные могут быть непреднамеренно переданы поставщику услуг «частично или полностью».
«Существует риск того, что информация, которая не должна просачиваться наружу, например информация о вступительных экзаменах и личная информация студентов и преподавателей, будет передана поставщикам услуг через генерацию ИИ и т. д., а также существует риск того, что это будет представлено как ответ другим пользователям»
— сказали в Университете.
Ещё бы научиться им пользоваться!
пользоваться не проблема научиться, главное зарегистрироваться русские номера не принимает.