С развитием искусственного интеллекта платформы социальных сетей могут столкнуться с идеальным штормом дезинформации в 2024 году

В прошлом месяце видео, опубликованное в Twitter губернатором Флориды Дж. Президентская кампания Рона Десантиса использовала изображения, которые, по-видимому, были сгенерированы искусственным интеллектом, на которых бывший президент Дональд Трамп обнимается с доктором Энтони Фаучи. Изображения, которые, по-видимому, были предназначены для критики Трампа за то, что он не уволил главного специалиста по инфекционным заболеваниям страны, было сложно распознать: они были показаны рядом с реальными изображениями пары и с наложенным текстом, гласящим: “Трамп в реальной жизни”.
Когда изображения начали распространяться, организации, проверяющие факты, и проницательные пользователи быстро пометили их как поддельные. Но Twitter, который в последние месяцы сократил большую часть своих сотрудников из-за нового владельца, не удалил видео. Вместо этого в конечном итоге к сообщению была добавлена заметка сообщества — функция, созданная автором для освещения дезинформации на платформе социальных сетей, предупреждающая пользователей сайта о том, что в видео “3 кадра, на которых Трамп обнимается с Фаучи, являются изображениями, созданными искусственным интеллектом”.
Эксперты в области целостности цифровой информации говорят, что это только начало использования контента, созданного искусственным интеллектом, в преддверии президентских выборов в США в 2024 году способами, которые могут запутать или ввести в заблуждение избирателей.
Новые инструменты искусственного интеллекта предлагают возможность генерировать убедительный текст и реалистичные изображения — и, все чаще, видео и аудио. Эксперты и даже некоторые руководители, курирующие компании, занимающиеся искусственным интеллектом, говорят, что эти инструменты рискуют распространять ложную информацию, чтобы ввести избирателей в заблуждение, в том числе в преддверии выборов в США в 2024 году.
“Кампании начинают набирать обороты, выборы приближаются быстро, и технологии быстро совершенствуются”, - сказал Джевин Уэст, профессор Вашингтонского университета и соучредитель Центра информирования общественности. “Мы уже видели доказательства влияния, которое может оказать ИИ”.
По словам экспертов, компании социальных сетей несут значительную ответственность за устранение таких рисков, поскольку являются платформами, на которые миллиарды людей обращаются за информацией и где злоумышленники часто распространяют ложные заявления. Но сейчас они сталкиваются с идеальным штормом факторов, из-за которых им будет труднее, чем когда-либо, поспевать за следующей волной дезинформации о выборах.
Несколько крупных социальных сетей отказались от применения некоторой дезинформации, связанной с выборами, и подверглись значительным увольнениям за последние шесть месяцев, что в некоторых случаях ударило по честности выборов, безопасности и ответственным командам искусственного интеллекта. Нынешние и бывшие официальные лица США также подняли тревогу по поводу того, что решение федерального судьи ранее в этом месяце ограничить способы общения некоторых агентств США с компаниями социальных сетей может оказать “сдерживающий эффект” на то, как федеральное правительство и штаты реагируют на дезинформацию, связанную с выборами. (В пятницу апелляционный суд временно заблокировал этот приказ.)
Между тем, искусственный интеллект развивается быстрыми темпами. И, несмотря на призывы игроков отрасли и других лиц, законодателям и регулирующим органам США еще предстоит внедрить реальные барьеры для технологий искусственного интеллекта.
“Я не уверен даже в их способности справляться со старыми типами угроз”, - сказал Дэвид Эван Харрис, исследователь ИИ и советник по этике Института психологии технологий, который ранее работал над ответственным ИИ в Facebook****-parent Meta**. “А теперь появились новые угрозы”.
Крупнейшие платформы сообщили CNN, что у них есть существующие политики и практики, связанные с дезинформацией и, в некоторых случаях, специально ориентированные на “синтетический” или созданный компьютером контент, который, по их словам, поможет им выявлять и устранять любую дезинформацию, сгенерированную искусственным интеллектом. Ни одна из компаний не согласилась предоставить кому-либо, работающему над генеративным обнаружением искусственного интеллекта, интервью.
‘Угрожает нашей способности отличать факты от вымысла’
Вводящий в заблуждение контент, особенно связанный с выборами, не является чем-то новым. Но с помощью искусственного интеллекта теперь любой может быстро, легко и дешево создавать огромное количество поддельного контента.
А учитывая быстрое совершенствование технологий искусственного интеллекта за последний год, к моменту выборов в США в следующем году, вероятно, будет еще труднее распознать поддельные изображения, текст, аудио и видео.
“До выборов у нас еще больше года. Эти инструменты будут совершенствоваться, и в руках опытных пользователей они могут быть очень мощными ”, - сказал Харрис. Он добавил, что виды дезинформации и вмешательства в выборы, которые имели место в социальных сетях в 2016 и 2020 годах, вероятно, будут только усугубляться ИИ.
Различные формы контента, созданного искусственным интеллектом, могут использоваться вместе, чтобы сделать ложную информацию более правдоподобной — например, написанная искусственным интеллектом поддельная статья, сопровождаемая сгенерированной искусственным интеллектом фотографией, якобы показывающей, что произошло в отчете, сказала Маргарет Митчелл, исследователь и главный специалист по этике в компании Hugging Face, занимающейся разработкой искусственного интеллекта с открытым исходным кодом.
Инструменты искусственного интеллекта могут быть полезны для всех, кто хочет ввести в заблуждение, но особенно для организованных групп и иностранных противников, заинтересованных во вмешательстве в выборы в США. Для попытки повлиять на предыдущие выборы в Соединенных Штатах и в других местах были наняты огромные иностранные фермы троллей, но “теперь один человек может отвечать за развертывание тысяч тысяч генеративных ИИ-ботов, которые работают”, для распространения контента через социальные сети, чтобы ввести избирателей в заблуждение, сказал Митчелл, ранее работавший в Google.
OpenAI, создатель популярного чат-бота ChatGPT с искусственным интеллектом, в недавнем исследовательском документе выступил с суровым предупреждением о риске дезинформации, генерируемой искусственным интеллектом. Обилие ложной информации от систем искусственного интеллекта, будь то преднамеренной или созданной предвзятостью или “галлюцинациями” систем, “потенциально может поставить под сомнение всю информационную среду, угрожая нашей способности отличать факты от вымысла”, - говорится в нем.
Примеры дезинформации, генерируемой искусственным интеллектом, уже начали появляться. В мае несколько аккаунтов в Twitter, в том числе те, кто заплатил за синюю галочку “проверка”, поделились поддельными изображениями, якобы показывающими взрыв возле Пентагона. Хотя изображения были быстро разоблачены, за их распространением ненадолго последовал обвал фондового рынка. Twitter заблокировал по крайней мере один из аккаунтов, ответственных за распространение изображений. Facebook**** помечал сообщения об изображениях как “ложную информацию” вместе с проверкой фактов.
Месяцем ранее Национальный комитет Республиканской партии выпустил 30-секундную рекламу в ответ на официальное объявление кампании президента Джо Байдена, в котором использовались изображения искусственного интеллекта, чтобы представить мрачные Соединенные Штаты после переизбрания 46-го президента. Реклама RNC включала небольшой экранный отказ от ответственности “Полностью созданный с использованием изображений искусственного интеллекта”, но некоторые потенциальные избиратели в Вашингтоне, округ Колумбия, которым CNN показал видео, не заметили его при первом просмотре.
Десятки законодателей-демократов на прошлой неделе направили письмо, призывающее Федеральную избирательную комиссию рассмотреть возможность пресечения использования технологии искусственного интеллекта в политической рекламе, предупреждая, что вводящая в заблуждение реклама может нанести ущерб честности выборов в следующем году.
Защита от дезинформации, генерируемой искусственным интеллектом
В преддверии 2024 года многие платформы заявили, что они разработают планы по защите честности выборов, в том числе от угрозы контента, созданного искусственным интеллектом.
Ранее в этом году TikTok выпустила политику, предусматривающую, что “синтетические” или манипулируемые МЕДИА, созданные ИИ, должны иметь четкую маркировку, в дополнение к своей политике гражданской честности, которая запрещает вводящую в заблуждение информацию о избирательных процессах, и своей общей политике дезинформации, которая запрещает ложные или вводящие в заблуждение утверждения, которые могут нанести “значительный вред” отдельным лицам или обществу.
У YouTube есть политика манипулирования СМИ, которая запрещает контент, который был “обработан” таким образом, что мог ввести пользователей в заблуждение и “может представлять серьезный риск нанесения вопиющего вреда”. Платформа также имеет политику в отношении контента, который может ввести пользователей в заблуждение относительно того, как и когда голосовать, ложных утверждений, которые могут препятствовать голосованию, и контента, который “побуждает других вмешиваться в демократические процессы”. YouTube также заявляет, что на своей платформе он публикует достоверные новости и информацию о выборах и что в его команду, ориентированную на выборы, входят члены команд по вопросам доверия и безопасности, продуктов и “Intelligence Desk”.
“Технически обработанный контент, включая предвыборный контент, который вводит пользователей в заблуждение и может представлять серьезный риск нанесения вопиющего вреда, запрещен на YouTube”, - говорится в заявлении представителя YouTube Айви Чой. “Мы применяем нашу политику в отношении манипулируемого контента, используя машинное обучение и человеческий анализ, и продолжаем совершенствовать эту работу, чтобы опережать потенциальные угрозы”.
Что политика компании распространяется на весь контент на ее платформах, включая контент, созданный искусственным интеллектом. Это включает в себя ее политику в области дезинформации, которая предусматривает, что платформа удаляет ложные утверждения, которые могут “напрямую способствовать вмешательству в функционирование политических процессов и некоторых крайне лживых СМИ, которыми манипулируют”, и может уменьшить распространение других вводящих в заблуждение утверждений. Meta** также запрещает рекламу с содержанием, которое было опровергнуто ее сетью сторонних проверяющих фактов.
TikTok и Meta** также присоединились к группе партнеров технологической отрасли, координируемой некоммерческим партнерством по ИИ, занимающимся разработкой основы ответственного использования синтетических медиа.
На просьбу прокомментировать эту историю Twitter ответил автоответом с эмодзи "какашки".
Twitter отменил большую часть своей модерации контента за месяцы, прошедшие с тех пор, как платформу возглавил миллиардер Илон Маск, и вместо этого более активно использует функцию “Заметки в сообществе”, которая позволяет пользователям критиковать точность и добавлять контекст к сообщениям других людей. На своем веб-сайте Twitter также заявляет, что у него действует политика “синтетических МЕДИА”, в соответствии с которой он может маркировать или удалять “синтетические, манипулируемые или вырванные из контекста МЕДИА, которые могут вводить в заблуждение людей и приводить к причинению вреда”.
Тем не менее, как это часто бывает с социальными сетями, проблема, вероятно, будет заключаться не столько в наличии политики, сколько в ее обеспечении. Платформы в основном используют сочетание человеческого и автоматизированного анализа для выявления дезинформации и манипулируемых СМИ. Компании отказались предоставить дополнительную информацию о своих процессах обнаружения ИИ, в том числе о том, сколько сотрудников задействовано в таких усилиях.
Но эксперты по искусственному интеллекту говорят, что они обеспокоены тем, что системам обнаружения контента, созданного компьютером, на платформах может быть трудно идти в ногу с достижениями технологии. Даже некоторые компании, разрабатывающие новые инструменты генерирования искусственного интеллекта, изо всех сил пытались создать сервисы, которые могут точно определять, когда что-то генерируется искусственным интеллектом.
Некоторые эксперты призывают все социальные платформы внедрять политику, требующую, чтобы контент, созданный ИИ или управляемый им, был четко маркирован, и призывают регулирующие органы и законодателей установить ограждения вокруг ИИ и привлечь технологические компании к ответственности за распространение ложных заявлений.
Ясно одно: ставки на успех высоки. Эксперты говорят, что контент, созданный искусственным интеллектом, не только создает риск того, что пользователи Интернета будут введены в заблуждение ложной информацией; это также может затруднить им доверие к реальной информации обо всем, от голосования до кризисных ситуаций.
“Мы знаем, что попадаем в очень страшную ситуацию, когда будет очень неясно, что произошло, а чего на самом деле не произошло”, - сказал Митчелл. “Это полностью разрушает основы реальности, когда возникает вопрос, является ли контент, который вы видите, реальным”.