Согласно новому отчету, создание фильтров контента AI в ChatGPT разрушило психическое здоровье работников.
Обеспечение того, чтобы популярный чат-бот оставался безобидным, стоило дорого.
Сотрудникам Sama платили всего 2 доллара в час за просмотр токсичного контента.
Модерация контента - заведомо неприятная работа, и растущая индустрия аутсорсинга рабочей силы, окружающая ее, регулярно сталкивается с пристальным вниманием к этичности своего подхода к тому, чтобы подвергать человеческих работников самым темным уголкам Интернета. В среду Time опубликовал новое расследование deep dive в Sama, компании, которая недавно предоставила OpenAI рабочих, которым поручено читать только худший контент, который может предложить Интернет.
Хотя общей целью проекта была разработка полезных и необходимых внутренних фильтров искусственного интеллекта для популярной, заслуживающей внимания программы ChatGPT, бывшие сотрудники Sama говорят, что теперь они страдают от посттравматического стрессового расстройства, просматривая тысячи ужасных онлайн-текстовых выдержек, описывающих сексуальное насилие, инцест, скотоложство, жестокое обращение с детьми, пытки и убийства, согласно к новому отчету. Не говоря уже о том, что в отчете говорится, что этим сотрудникам, в основном базирующимся в Кении, платили менее 2 долларов в час.
ChatGPT от OpenAI быстро стал одним из самых обсуждаемых технологических прорывов прошлого года благодаря своей способности практически мгновенно генерировать креативный текст практически из любой человеческой подсказки. Хотя подобные программы уже существуют, они часто склонны к распространению ненавистного и откровенно оскорбительного контента из-за их неспособности внутренне идентифицировать токсичные материалы среди множества интернет-текстов, используемых в качестве генеративных ориентиров.
С уже более чем 1 миллионом пользователей ChatGPT в значительной степени избавлен от таких проблем (хотя многие другие проблемы остаются), во многом благодаря дополнительной встроенной системе фильтрации ИИ, призванной исключить большую часть ужасов Интернета. Но, несмотря на их полезность, современные программы ИИ недостаточно осведомлены, чтобы самостоятельно замечать неподходящий материал - сначала они требуют обучения от людей, чтобы отмечать всевозможные контекстуальные ключевые слова и темы.
Объявленная на своей домашней странице как “следующая эра развития ИИ”, американская компания Sama, занимающаяся маркировкой данных, которая нанимает работников в Кении, Индии и Уганде для предприятий Силиконовой долины, утверждает, что помогла более 50 000 человек по всему миру подняться над бедностью благодаря своим возможностям трудоустройства. Однако, согласно исследованию Time, полученному из сотен страниц внутренних документов, контрактов и платежных квитанций работников, стоимость для десятков работников составила, по их собственному описанию, “пытку” за почасовую оплату в размере от 1,32 до 2 долларов.
[По теме: новый чат-бот OpenAI предлагает надежные разговоры и меньше горячих отзывов.]Работники утверждают, что они работали намного дольше назначенного времени, просматривая 150-250 вызывающих беспокойство отрывков текста в день и помечая контент для обучения фильтрам искусственного интеллекта ChatGPT. Хотя, по сообщениям, услуги консультанта по оздоровлению были доступны, сотрудники Sama, тем не менее, испытывали длительные эмоциональные и психические потери, которые превышали возможности этих служб. В заявлении, предоставленном Time, Sama оспаривает рабочую нагрузку и говорит, что их подрядчики должны были просматривать только около 70 текстов за смену. Отзывов.]
Работники утверждают, что они работали намного дольше назначенного времени, просматривая 150-250 вызывающих беспокойство отрывков текста в день и помечая контент для обучения фильтрам искусственного интеллекта ChatGPT. Хотя, по сообщениям, услуги консультанта по оздоровлению были доступны, сотрудники Sama, тем не менее, испытывали длительные эмоциональные и психические потери, которые превышали возможности этих служб. В заявлении, предоставленном Time, Sama оспаривает рабочую нагрузку и говорит, что их подрядчики должны были просматривать только около 70 текстов за смену.
“Эти компании представляют нам искусственный интеллект и автоматизацию так, как будто они устраняют работников, но на самом деле это редко бывает так”, - объясняет PopSci Пэрис Маркс, критик технологической культуры и автор книги " Дорога в никуда: что Силиконовая долина делает неправильно с транспортом". “... Это история модераторов контента Facebook****, некоторые из которых также были наняты Sama в Кении”.
Маркс утверждает, что единственный способ избежать такого рода умственной и физической эксплуатации потребует масштабной культурной переработки в технологической отрасли, что в настоящее время кажется маловероятным. “Это модель разработки ИИ, которую выбрали эти компании, - пишут они, - [и] для ее изменения потребуется полностью изменить цели и основополагающие предположения о том, что они делают”.
Изначально Sama заключила с OpenAI контракты на модерацию контента на сумму 200 000 долларов, связанные с проектом, но, как сообщается, рано разорвала связи, чтобы вместо этого сосредоточиться на “решениях для аннотирования данных компьютерного зрения”. В настоящее время OpenAI ведет переговоры с инвесторами о привлечении финансирования в размере 29 миллиардов долларов, 10 миллиардов из которых могут поступить от Microsoft. Ранее Reuters сообщало, что OpenAI ожидает выручки в размере 200 миллионов долларов в этом году и более 1 миллиарда долларов в 2024 году. Как еще раз показывает последнее разоблачение, эта прибыль часто связана с большими скрытыми затратами для обычных рабочих