Интернет вот-вот станет намного хуже

Грег Марстон, британский актер озвучивания, недавно наткнулся в Интернете на “Коннора” — созданный ИИ клон его голоса, обученный на записи, сделанной мистером Марстоном в 2003 году. Это был его голос, произносящий то, чего он никогда не говорил.
В то время он записал сеанс для IBM, а позже подписал форму выпуска, позволяющую использовать запись многими способами. Конечно, в то время мистер Марстон не мог представить, что IBM будет использовать что-то большее, чем точные высказывания, которые он записал. Однако благодаря искусственному интеллекту IBM смогла продать образец мистера Марстона десятилетней давности веб-сайтам, которые используют его для создания синтетического голоса, способного говорить что угодно. Недавно мистер Марстон обнаружил, что его голос доносится с веб-сайта Уимблдона во время теннисного турнира. (IBM заявила, что знает о беспокойстве мистера Марстона и обсуждает это с ним напрямую.)
Его бедственное положение иллюстрирует, почему многие из самых известных создателей нашей экономики взялись за оружие. Мы живем во времена подрыва доверия, поскольку люди понимают, что их вклад в общественное пространство может быть взят, монетизирован и потенциально использован для конкуренции с ними. Когда эта эрозия завершится, я беспокоюсь, что наши цифровые общественные пространства могут стать еще более загрязненными ненадежным контентом.
Художники уже удаляют свои работы из X, ранее известного как Twitter, после того, как компания заявила, что будет использовать данные со своей платформы для обучения своего А.И. Голливудские писатели и актеры бастуют отчасти потому, что хотят убедиться, что их работы не попадают в системы искусственного интеллекта, которыми компании могли бы попытаться их заменить. Новостные агентства, включая New York Times и CNN, добавили файлы на свой веб-сайт, чтобы предотвратить удаление чат-ботами ИИ их содержимого.
Авторы подалив суд, утверждая, что их книги включены в учебные данные сайтов. OpenAI утверждала в отдельном судебном разбирательстве, что использование защищенных авторским правом данных для обучения систем A.I. является законным в соответствии с положением закона об авторском праве “о добросовестном использовании”.
В то время как создатели качественного контента оспаривают то, как используется их работа, сомнительный контент, созданный ИИ, стремительно проникает в общественную сферу. NewsGuard выявил 475 новостных и информационных сайтов, созданных А.И., на 14 языках. Музыка, созданная А.И., наводняет потоковые сайты и приносит А.И. гонорары мошенникам. Книги, созданные А.И., включая руководство по сбору грибов, которое может привести к ошибкам в определении высокотоксичных грибов, настолько распространены на Amazon, что компания просит авторов, самостоятельно публикующихся на ее платформе Kindle, также заявлять, используют ли они А.И..
Это классический случай трагедии общего достояния, когда интересы отдельных лиц наносят ущерб общему ресурсу. Традиционным примером этого является общественное поле, на котором может пастись скот. Без каких-либо ограничений у отдельных владельцев крупного рогатого скота есть стимул чрезмерно выпасать землю, разрушая ее ценность для всех.
У нас в Интернете тоже есть общее достояние. Несмотря на все его ядовитые уголки, в нем по-прежнему полно ярких тем, которые служат общественному благу, — таких мест, как Википедия и форумы Reddit, где волонтеры часто добросовестно делятся знаниями и упорно трудятся, чтобы держать плохих актеров в страхе.
Но эти общие ресурсы сейчас захвачены хищными технологическими компаниями, которые стремятся использовать всю человеческую мудрость, опыт, юмор, анекдоты и советы, которые они находят в этих местах, в своих коммерческих системах искусственного интеллекта.
Рассмотрим, например, что добровольцы, которые создают и поддерживают Википедию, верили, что их работа будет использоваться в соответствии с условиями их сайта, которые требуют указания авторства. Сейчас некоторые википедисты, по-видимому, обсуждают, есть ли у них какие-либо правовые средства правовой защиты против чат-ботов, которые используют их контент без ссылки на источник.
Регулирующие органы тоже пытаются разобраться в этом. Европейский союз рассматривает первый набор глобальных ограничений на искусственный интеллект, который потребует определенной прозрачности от систем искусственного интеллекта, включая предоставление кратких сведений, защищенных авторским правом, которые использовались для обучения его систем.
Это было бы хорошим шагом вперед, поскольку многие системы искусственного интеллекта не полностью раскрывают данные, на которых они обучались. В первую очередь журналисты раскопали мутные данные, которые скрываются под глянцевой поверхностью чат-ботов. Недавнее расследование, подробно опубликованное в The Atlantic, показало, что более 170 000 пиратских книг включены в обучающие данные для чат-бота A.I. компании Meta**, Llama. Расследование Washington Post показало, что ChatGPT OpenAI основывается на данных, собранных без согласия с сотен тысяч веб-сайтов.
Но прозрачности вряд ли достаточно, чтобы сбалансировать власть между теми, чьи данные используются, и компаниями, готовыми нажиться на эксплуатации.
Тим Фридлендер, основатель и президент Национальной ассоциации актеров озвучивания, призвал компании, занимающиеся искусственным интеллектом, принять этические стандарты. Он говорит, что актерам нужны три Cs: согласие, контроль и компенсация.
На самом деле, всем нам нужны три Cs. Являемся ли мы профессиональными актерами или просто размещаем фотографии в социальных сетях, каждый должен иметь право на значимое согласие относительно того, хотим ли мы, чтобы наша онлайн-жизнь передавалась гигантским ИИ-машинам.
И согласие не должно означать необходимость находить кучу труднодоступных кнопок отказа, чтобы нажимать на них — именно к этому движется индустрия.
Вычислить компенсацию сложнее, тем более что большинство ИИ-ботов на данный момент являются в основном бесплатными сервисами. Но не заблуждайтесь, индустрия искусственного интеллекта планирует и будет зарабатывать деньги на этих системах, и когда это произойдет, наступит расплата с теми, чьи работы подпитывали прибыль.
Для таких людей, как мистер Марстон, на карту поставлены их средства к существованию. По его оценкам, его ИИ-клон уже лишил его работы и значительно сократит его будущие доходы. Он работает с адвокатом, добиваясь компенсации. “Я никогда не соглашался на то, чтобы мой голос клонировали, чтобы увидеть / услышать его обнародование, тем самым соревнуясь с самим собой”, - сказал он мне.
Но даже те из нас, у кого нет работы, которой напрямую угрожает ИИ, думают о написании этого романа, или сочинении песни, или записи TikTok, или о том, чтобы пошутить в социальных сетях. Если у нас не будет никакой защиты от ИИ, злоупотребляющего данными, я беспокоюсь, что будет бессмысленно даже пытаться создавать публично. И это было бы настоящей трагедией.
Спасибо за интересную публикацию.