ChatGPT и потогонные мастерские, поддерживающие цифровую эпоху
Последние разоблачения ChatGPT — еще одно напоминание о повсеместной эксплуатации труда в цифровых инновациях.

Подсказка ChatGPT отображается на устройстве в Нью-Йорке 5 января 2023 г.
18 января журнал Time опубликовал разоблачения, которые встревожили, если не удивили многих, кто занимается искусственным интеллектом. Новость касалась ChatGPT, продвинутого чат-бота с искусственным интеллектом, который считается одной из самых интеллектуальных систем искусственного интеллекта, созданных на сегодняшний день, и вызывает опасения как новый рубеж потенциального плагиата и эрозии писательского мастерства.
Многие задавались вопросом, как ChatGPT, что расшифровывается как Chat Generative Pre-trained Transformer, улучшил более ранние версии этой технологии, которые быстро превратились в разжигание ненависти. Ответ пришел в статье журнала Time: десяткам кенийских рабочих платили менее 2 долларов в час за обработку бесконечного количества жестокого и ненавистнического контента, чтобы сделать систему, предназначенную в первую очередь для западных пользователей, более безопасной.
Каждому, кто обращает внимание, должно быть ясно, что наша нынешняя парадигма цифровизации имеет трудовую проблему. Мы отходим от идеала открытого Интернета, построенного вокруг сообществ с общими интересами, к идеалу, в котором доминируют коммерческие прерогативы горстки компаний, расположенных в определенных географических регионах.
В этой модели крупные компании максимизируют извлечение и накопление для своих владельцев за счет не только своих работников, но и пользователей. Пользователям внушают ложь о том, что они участвуют в сообществе, но чем более доминирующими становятся эти корпорации, тем более вопиющим становится неравенство власти между владельцами и пользователями.
«Сообщество» все чаще означает, что обычные люди несут моральные и социальные издержки неконтролируемого роста этих компаний, в то время как их владельцы поглощают прибыль и признание. И критическая масса низкооплачиваемой рабочей силы нанимается на самых неудобных условиях, которые юридически возможны для поддержания иллюзии лучшего интернета.
ChatGPT — это лишь последняя инновация, воплощающая это.
Много было написано о Facebook****, YouTube и модели модерации контента, которая фактически послужила основой для аутсорсинга ChatGPT. Перед модераторами контента стоит задача потреблять постоянный поток худших вещей, которые люди размещают на этих платформах, и помечать их для удаления или дальнейших действий. Очень часто это посты о сексуальном и других видах насилия.
Граждане стран, где расположены компании, подали в суд за психологический урон, который нанесла им работа. В 2020 году Facebook****, например, был вынужден выплатить 52 миллиона долларов американским сотрудникам за посттравматическое стрессовое расстройство (ПТСР), которое они испытали после работы модераторами контента.
Несмотря на то, что растет общее осознание вторичной травмы и потерь, которые причиняет людям наблюдение за насилием, мы до сих пор не до конца понимаем, что воздействие такого рода контента в течение полной рабочей недели делает с человеческим телом.
Мы знаем, что, например, журналисты и гуманитарные работники часто возвращаются из зон конфликтов с серьезными симптомами посттравматического стресса и что даже чтение репортажей из этих зон конфликтов может иметь психологический эффект. Подобные исследования о влиянии модерации контента на людей выполнить сложнее из-за соглашений о неразглашении, которые этих модераторов часто просят подписать перед тем, как они примутся за работу.
Мы также знаем из показаний разоблачителя Facebook**** Фрэнсис Хауген, что его решение недостаточно инвестировать в надлежащую модерацию контента было экономическим. Twitter под руководством Илона Маска также перешел к сокращению расходов, уволив большое количество модераторов контента.
Неспособность обеспечить надлежащую модерацию контента привела к тому, что платформы социальных сетей стали более токсичными. Вред, который возникает из-за этого, имел серьезные последствия в аналоговом мире.
В Мьянме Facebook**** обвинили в содействии геноциду; в Эфиопии и Соединенных Штатах — за подстрекательство к насилию.
Действительно, сфера модерации контента и связанные с ней проблемы являются хорошей иллюстрацией того, что не так с нынешней моделью цифровизации.
Решение использовать кенийскую компанию, чтобы научить американского чат-бота не быть ненавистным, следует понимать в контексте преднамеренного решения ускорить накопление прибыли за счет значимых ограждений для пользователей.
Эти компании обещают, что человеческий фактор — это всего лишь временная мера, прежде чем система ИИ станет достаточно продвинутой, чтобы выполнять работу в одиночку. Но это заявление ничего не делает для сотрудников, которых сегодня эксплуатируют. Он также не учитывает тот факт, что люди — языки, на которых они говорят, и значение, которое они придают контексту или ситуации, — очень податливы и динамичны, а это означает, что модерация контента не исчезнет.
Так что же будет сделано для модераторов, которым сегодня вредят, и как принципиально изменится деловая практика, чтобы защитить модераторов, которые обязательно понадобятся завтра?
Если все это начинает звучать так, будто потогонные мастерские заставляют цифровую эпоху работать, так и должно быть — потому что так оно и есть. Модель цифровизации, движимая инстинктом защиты интересов тех, кто получает наибольшую прибыль от системы, а не тех, кто на самом деле заставляет ее работать, делает миллиарды людей уязвимыми перед бесчисленными формами социальной и экономической эксплуатации, последствия которых мы до сих пор ощущаем. Не до конца понимаю.
Пришло время развеять миф о том, что цифровизация, возглавляемая корпоративными интересами, каким-то образом избавит от всех прошлых эксцессов меркантилизма и жадности просто потому, что люди, владеющие этими компаниями, носят футболки и обещают не делать зла.
История изобилует примерами того, как, предоставленные сами себе, те, у кого есть интерес и возможность накопить, поступят так и лишат нас прав, необходимых нам для защиты наиболее уязвимых среди нас.
Мы должны вернуться к основам того, почему нам нужно было бороться за трудовые права и отстаивать их в прошлом веке. Трудовые права — это права человека, и этот последний скандал — своевременное напоминание о том, что мы можем многое потерять, если перестанем обращать на них внимание, потому что нас отвлекли последние блестящие новинки.