Не могли бы вы удалить историю разговоров ChatGPT? Согласно OpenAI, что произойдет, если вы его деактивируете?

OpenAI заявил, что ChatGPT улучшается за счет взаимодействия с пользователем. Однако по мере того, как массовый эксперимент выходит за рамки своей первоначальной новизны с момента публичного запуска чат-бота в прошлом году, компания указала, что тщательно изучает вопросы безопасности и доверия.
Пользователей ChatGPT приветствует всплывающее предупреждение, информирующее их о том, что их разговоры могут отслеживаться «тренерами ИИ», и им рекомендуется не раскрывать какую-либо конфиденциальную информацию. В апреле OpenAI объявила, что теперь пользователи могут отключить запись своего разговора с ChatGPT, что дает им больший контроль над своими данными. Сара Джексон из Insider предоставила полезное руководство о том, как это сделать.
Согласно веб-сайту OpenAI, если вы отключите историю разговоров, чаты не будут способствовать обучению инструмента. Кроме того, компания удалит все разговоры в режиме повышенной конфиденциальности через 30 дней.
По словам Дуэйна Поцца, партнера Wiley Rein LLP, который консультирует по вопросам конфиденциальности, данных и другим вопросам, как обычные пользователи, так и компании, работающие с конфиденциальной информацией, сталкиваются с высокими ставками и должны формулировать политику в отношении использования таких инструментов на рабочем месте.
Говоря в целом о чат-ботах с искусственным интеллектом, он сказал Insider, что эти инструменты могут собирать значительный объем личной информации от потребителей, включая истории разговоров. Он дал понять, что не имел в виду какую-то конкретную компанию.
Он добавил, что обычные потребители и предприятия, использующие эти инструменты, должны убедиться, что они понимают политику конфиденциальности. Кроме того, им необходимо знать о любых доступных параметрах или настройках, которые позволяют им понять, как эти инструменты собирают данные.
Представитель OpenAI воздержался от дальнейших комментариев и лишь упомянул ресурсы, доступные на сайте компании.
В последнее десятилетие органы по защите прав потребителей стали уделять повышенное внимание защите данных пользователей на популярных веб-сайтах, особенно с появлением социальных сетей. Например, Meta** согласилась выплатить пользователям Facebook**** 725 миллионов долларов за решение проблем, связанных с данными, в которых участвовала Cambridge Analytica.
Рудина Сесери, которая инвестирует в ИИ через Glasswing Ventures, упомянула, что популярность веб-сайтов ИИ может вызвать опасения по поводу количества пользователей, которым приходится обрабатывать запросы, связанные с конфиденциальностью.
«Я повторяю здесь лучшие практики — ни в коем случае не говорите ChatGPT то, что вы не хотите, чтобы мир знал», — сказала она.
Она заявила, что OpenAI и даже ChatGPT нельзя обвинить в каком-либо злом умысле в этом вопросе. Проблема скорее связана с увеличением площади поверхности в цифровом мире, что дает больше возможностей для эксплуатации.
Новый поисковый бот Bing, запущенный Microsoft в феврале, быстро завоевал популярность и в марте привлек более 100 миллионов ежедневных пользователей.
Компания предлагает «панель конфиденциальности», где пользователи могут видеть, как используется их история поиска, и изучать варианты ее очистки. Согласно недавно обновленному документу Microsoft «Новый Bing: наш подход к ответственному ИИ», панель мониторинга позволяет пользователям «просматривать сохраненную историю разговоров, экспортировать и удалять».
В примечании на странице говорится, что Bing использует историю веб-поиска для улучшения поиска, предлагая предложения по мере ввода, предоставляя настраиваемые результаты и предоставляя другие преимущества.
Согласно заявлению представителя Microsoft, компания обычно использует меры конфиденциальности, такие как шифрование, и хранит данные клиентов только до тех пор, пока это необходимо.
По словам представителя, пользователям также предоставляется прозрачность и контроль над своими поисковыми данными через панель конфиденциальности Microsoft.
Скоро мы все будем под колпаком у искусственного интеллекта.