Неконтролируемый ИИ может положить начало новой темной эпохе
Опасности генеративного искусственного интеллекта уже начали проявляться — и сейчас настало время создать законы и правила, касающиеся быстро развивающихся технологий.

Один эксперт по правовым вопросам предупредил, что ИИ может ознаменовать наступление современной «темной эпохи» или периода упадка общества, если отрасль не будет регулироваться.
«Если этой штуке позволят сбежать без какого-либо регулирования и без компенсации тем, чьи работы она использует, это, по сути, наступит новый темный век», — сказал Фрэнк Паскуале, профессор права в Корнеллском технологическом институте и Корнеллской юридической школе.
Он сказал, что ИИ «подготавливает» новую темную эпоху и может привести к «полному уничтожению стимулов к созданию знаний во многих областях».
«И это очень тревожно», — добавил он.
С ростом популярности инструментов искусственного интеллекта, таких как ChatGPT от OpenAI и Gemini от Google , эксперты заявили, что социальные сети, которые практически не регулировались в течение трех десятилетий, должны послужить предостережением для ИИ.
Использование произведений, защищенных авторским правом, для обучения технологии является ключевой проблемой.
Авторы, художники, новостные агентства и программисты подали иски против таких компаний, занимающихся искусственным интеллектом, как OpenAI , утверждая, что их оригинальные работы использовались для обучения инструментов искусственного интеллекта без их разрешения.
И хотя в США нет единого федерального закона, регулирующего использование ИИ, некоторые штаты уже приняли законы, ориентированные на ИИ. Конгресс также изучает способы регулирования этой технологии.
По словам Паскуале, регулирование ИИ могло бы предотвратить многие проблемы, которые могут проложить путь к новому «темному веку».
«Если безвозмездная и бесконтрольная экспроприация произведений, защищенных авторским правом, продолжится, многие творческие люди, вероятно, будут еще больше деморализованы и в конечном итоге лишены финансирования, поскольку ИИ несправедливо вытесняет их или фактически заглушает», — сказал он.
Многие люди будут считать недорогой автоматизированный контент «подарком из рога изобилия», сказал Паскуале, «пока не станет ясно, что сам ИИ зависит от постоянного вклада в работу человека, чтобы совершенствоваться и оставаться актуальным в меняющемся мире».
«В этот момент может быть уже слишком поздно оживлять творческие отрасли, умирающие из-за пренебрежения», - сказал он.
«Опасностей сейчас достаточно», чтобы ввести правила
Марк Бартоломью, профессор права из Университета Буффало, сказал, что он обеспокоен тем, что ИИ в будущем будет генерировать «так много контента, от произведений искусства до рекламных текстов и видеороликов TikTok, что он перевесит вклад реальных людей», но на данный момент он обеспокоен больше об искусственном интеллекте, который используется для распространения дезинформации, создания политических и порнографических дипфейков, а также обмана людей путем имитации голосов других людей.
«Было бы опасно говорить, что сейчас, в 2024 году, мы точно знаем, как обращаться с ИИ», — сказал Бартоломью. Он добавил, что слишком быстрое введение слишком большого количества правил может задушить «многообещающие новые технологии».
«Мое личное мнение таково, что опасностей сейчас достаточно, и нам нужно прийти и, по крайней мере, иметь некоторые конкретные правила для решения проблем, которые, как я думаю, мы уже осознаем, являются реальными проблемами», - сказал Бартоломью. «Это не значит, что ИИ высохнет и умрет, если мы вложим реальные силы в законы, запрещающие использовать ИИ для политических дипфейков».
Законы об интеллектуальной собственности, связанные с нарушением авторских прав на уровне штата, и правами на рекламу входят в число правовых рамок, используемых для потенциального регулирования ИИ в США.
Гарри Сурден, профессор права юридического факультета Университета Колорадо, сказал, что необходимо создать новые федеральные законы для регулирования ИИ, но предостерег от слишком поспешных действий.
«Мы очень плохо предсказываем, как появятся эти технологии и возникнут проблемы», — сказал Сурден, который также является заместителем директора Центра юридической информатики CodeX Стэнфордского университета. «Вы не хотите делать это быстро, политически или бессистемно».
«В конечном итоге вы можете навредить не только плохому, но и хорошему», — сказал он.
И Бартоломью, и Паскуале заявили, что отсутствие регулирования в отношении социальных сетей и легкость, которую законодатели в значительной степени восприняли с момента их создания, должны послужить уроком для борьбы с ИИ.
«Это поучительная история», — сказал Бартоломью, добавив: «Мы слишком долго ждали, чтобы заполучить социальные сети, и это вызвало некоторые реальные проблемы».
«Мы просто не смогли найти политическую волю, чтобы что-то сделать с этим», - сказал он.
Паскуале сказал, что, когда социальные сети только появились, люди на самом деле не ожидали, «насколько плохо они могут быть использованы злоумышленниками и превращены в оружие».
«В социальных сетях действительно существует прецедент регулирования, и рано или поздно это произойдет», — сказал он.
Сурден сказал, что ранние дискуссии о регулировании социальных сетей «в значительной степени не смогли предсказать другие основные проблемы социальных сетей, которые нас сегодня беспокоят и которые многие сегодня считают более значимыми».
По его словам, эти проблемы включают в себя то, как социальные сети влияют на психическое здоровье молодых людей и как они распространяют дезинформацию.
Он сказал, что сейчас мы можем регулировать социальные сети, но неясно, каковы эффективные правовые решения тех социальных проблем, которые они создали.
«Мы, как общество, не всегда так точны в прогнозировании проблем заранее, как нам хотелось бы думать», — сказал Сурден.
«Таким образом, аналогичный урок можно извлечь и из ИИ. Мы, безусловно, видим сегодняшние проблемы, с которыми нам нужно быть осторожными, включая конфиденциальность, предвзятость, точность», — сказал он. «Но мы должны быть скромными в отношении нашей способности заранее предсказывать и упреждающе регулировать проблемы ИИ-технологий, поскольку мы часто плохо предсказываем детали или социальные последствия».
Интересо?
Проголосуйте, чтобы увидеть результаты
Спасибо за публикацию 👍
😀
😀
😀