ChatGPT добавляет новую функцию конфиденциальности после беспокойства по поводу того, как он собирает данные

Добавлен новый инструмент после запрета обслуживания в Италии
Создатели ChatGPT добавили возможность отключить «историю чатов» в системе, что позволяет людям лучше контролировать использование своих данных.
Новый инструмент появился на фоне опасений по поводу того, какие данные ChatGPT собирает о своих пользователях и как они возвращаются в модель, которая его поддерживает.
Учитывая, что создатели ChatGPT, OpenAI, совершенствуют систему, чтобы будущие версии могли быть улучшены за счет данных, собранных по мере того, как люди используют ее сегодня. Таким образом, собранные данные потенциально могут появиться в будущих ответах системы.
Теперь пользователи смогут отключить историю, чтобы ChatGPT не собирал данные. Однако разговоры по-прежнему будут храниться в течение 30 дней, но компания обещает просматривать их только «когда это необходимо для отслеживания злоупотреблений», после чего заявляет, что удалит их навсегда.
«Разговоры, которые начинаются, когда история чата отключена, не будут использоваться для обучения и улучшения наших моделей и не будут отображаться на боковой панели истории»
— говорится в объявлении OpenAI.
Новый инструмент доступен всем пользователям «начиная с сегодняшнего дня». Он находится в настройках ChatGPT и может быть переключен в любое время.
OpenAI только сказал, что эта функция предназначена для «более простого способа управления вашими данными, чем наш существующий процесс отказа». Он не предоставил никакой дополнительной информации о том, почему он решил развернуть его.
Но это происходит на фоне громкой и растущей критики политики конфиденциальности ChatGPT и других подобных систем искусственного интеллекта. Пользователи выразили обеспокоенность по поводу того, какие данные могут собираться этими системами и как они регулируются.
Наиболее серьезные из этих опасений исходили от итальянских властей, которые в прошлом месяце запретили этот инструмент в стране. Он выразил озабоченность по поводу правовой основы, которую OpenAI использует для сбора личной информации, и того, как эта информация может использоваться для обучения системы.
Это также произошло после того, как функция «истории» ChatGPT пошла наперекосяк всего за несколько дней до того, как Италия приняла решение. В конце марта OpenAI заявила, что столкнулась с «серьезной проблемой», из-за которой пользователи могли видеть информацию о чатах других людей.
Палка всегда о двух концах
Спасибо за статью👍
Всё же есть предел ИИ
Будем смотреть. Поймем что-то.