Может ли кто-то действительно регулировать ИИ?
Были предложены регулирующие процессы, включая бизнес-лицензии для моделей ИИ, но не является ли регулирование ИИ устаревшим решением новой проблемы?

В 2000 году соучредителя Google Ларри Пейджа спросили в интервью о его 20-летней дорожной карте для компании. Он ответил "Google выполнит свою миссию только тогда, когда его поисковая система станет искусственным интеллектом". Вы знаете, что это значит? Это искусственный интеллект".
Оглядываясь назад, можно сказать, что его ответ был откровением, но принял ли его к сведению кто-нибудь за пределами Кремниевой долины? Здесь не было никакого подтекста, никакого завуалированного намека на намерение Google возглавить разработку искусственного интеллекта, просто четкий лазерный взгляд инженера на конечную цель.
За десятилетия, прошедшие с тех пор, как Пейдж заявил о своих амбициях в области ИИ, технологии стали мобильными, перешли в облако, попали под прицел финансовых и политических кризисов, а затем были охвачены различными циклами шумихи вокруг дополненной/виртуальной реальности, криптовалют и метавселенной.
Между тем, критические разговоры о раннем направлении развития искусственного интеллекта уже имели место. Основатель компании Tesla Элон Маск публично заявил, что Пейдж обвинил его в "видоизменении", когда он высказал опасения, что искусственный интеллект общего назначения - интеллект, превосходящий человеческий, - может уничтожить человечество, когда машины перестанут его использовать.
Этот разговор состоялся за добрый десяток лет до того, как в ноябре 2022 года был запущен генеративный чат-бот OpenAI ChatGPT, ставший самым быстро загружаемым приложением в истории. Когда ИИ привлек внимание общественности, правительства уже не могли игнорировать его влияние.
Инвесторы также обратили на это внимание. В 2023 году стартапы, ориентированные на ИИ, уже составили 35% предприятий, отобранных легендарным акселератором Y-Combinator, расположенным в Кремниевой долине. Глобальные инвестиции в рынок ИИ значительно сократились в 2022 году, достигнув пика в $127,2 млрд в 2021 году до $72,9 млрд в 2022 году, по данным аналитической компании GlobalData. Однако шквал приобретений генеративного ИИ наряду с ажиотажем венчурного финансирования генеративного ИИ уверенно набирает обороты в 2023 году.
Однако некоторые, например, инвестор-ветеран Уоррен Баффет, предупреждают об осторожности. Баффет сравнил развитие ИИ с созданием ядерного оружия. Подавляющее большинство случаев использования и применений, скорее всего, будут положительными, но меньшинство вредных может уничтожить человечество. Другие называют более краткосрочные последствия, такие как распространение дезинформации, потеря рабочих мест и угроза глобальному миру и демократии.
Эти опасения разделяют и сами создатели технологии. В марте 2023 года в открытом письме, подписанном сотнями экспертов по ИИ, включая основателя компании Tesla Элона Маска, прозвучал призыв приостановить развитие ИИ, предупреждая об опасности слишком быстрого развития без нормативного надзора и односторонних соглашений.
Как следует регулировать ИИ?
В мае 2023 года генеральный директор компании ChatGPT, создающей Open AI, Сэм Альтман выступил на слушаниях в Конгрессе США, рекомендовав создать специальное федеральное агентство по надзору за ИИ, включая требование лицензий для любой компании, обучающей большие языковые модели (LLM).
В то время как лидеры Кремниевой долины призывают к созданию нормативных ограждений для развития ИИ, инвесторы продолжают ликовать. Стремительный приток капитала в стартапы в области генеративного ИИ и акции производителей чипов ИИ, таких как Nvidia и AMD, - это обратная сторона устоявшейся динамики, которая до сих пор наблюдалась в Кремниевой долине, где "двигались быстро и ломали вещи", а технологи обычно ждали, когда за ними последуют инвесторы.
Тем не менее, противоборствующие лагеря ИИ-оптимистов и Кассандры, похоже, призывают к регулированию, хотя и с разными подходами. Некоторые лидеры отрасли считают, что тупое регулирование может затормозить инновации. 30 июня в открытом письме, подписанном более чем 160 руководителями компаний от Renault до Meta**, прозвучало предупреждение о том, что недавно ратифицированный ЕС закон об ИИ нанесет ущерб глобальной конкурентоспособности и лидерству Европы в области технологий.
А в тематическом аналитическом отчете GlobalData "ИИ 2023" говорится о том, как регулирование может сдерживать рост мирового рынка ИИ. Аналитики прогнозируют, что мировой рынок специализированных приложений ИИ будет стоить 146 млрд долларов в 2030 году по сравнению с 31,1 млрд долларов в 2022 году и будет расти со среднегодовым темпом роста 21,3%.
Аналитик разбивает свои прогнозы для этого рынка на конкретные подкатегории, включая разговорные платформы, компьютерное зрение и горизонтальные приложения, оснащенные функциями ИИ, такими как распознавание изображений, обработка и генерация естественного языка или анализ настроений.
При таком потенциале прибыли все еще остается открытым вопрос о том, на кого ляжет бремя регулирования - на правительства или на промышленность. И это вопрос на миллиард долларов, говорит Андреа Тесеи, научный сотрудник CEPR и доцент экономики Лондонского университета королевы Марии. В то время как политики пытаются разработать нормативную базу, те, кто понимает основы технологии, высказывают опасения по поводу того, что в конечном итоге ИИ будет саморегулироваться только теми, кто его создает, если вообще будет.
"Между правительствами существует много "туда-сюда". И я думаю, что в конечном итоге проблема глубже в том смысле, что регулирование по своей природе отстает от технологий. Регулирование должно регулироваться людьми, а технологии, в какой-то степени, сами по себе. Мы еще не знаем до конца, каким будет ИИ. И любое регулирование, которое может быть осуществлено, в некоторой степени является ретроспективным, потому что трудно понять, какими будут перспективные проблемы. Правительства будут вмешиваться, когда потребуется дополнительное регулирование. Но ущерб в определенной степени уже нанесен", - говорит он.
Отсутствие регулирующего надзора пока означает, что развитие ИИ находится под контролем однородной горстки чрезвычайно влиятельных людей в Кремниевой долине. И некоторые считают, что решения должны быть сосредоточены на сотрудничестве с этими технологическими лидерами, а не на карательном подходе. Этот лагерь рассматривает бизнес-лицензии на модели ИИ как применение устаревшего решения к новой проблеме.
LLM - это быстро распространяющиеся модели программного обеспечения. LLM с открытым исходным кодом скоро будут широко доступны для загрузки на наши смартфоны и будут находиться в слоях продуктов и приложений, неопределимых для конечного пользователя. Создание нормативного режима для аудита LLM на данный момент может оказаться совершенно нецелесообразным. Многие считают, что для этого уже слишком поздно.
Например, аномалия развития ИИ, называемая "эмерджентными свойствами", представляет собой сценарий, при котором системы ИИ внезапно и непредсказуемо приобретают навыки, на которые они не были запрограммированы. По мере дальнейшего развития ИИ понимание человеком процессов, лежащих в основе машинного обучения, будет становиться все более непрозрачным и труднопредсказуемым. Возникают вопросы о том, как регулировать такие результаты и кто несет за них ответственность?
По мнению аналитика GlobalData Жозепа Бори, саморегулирование, как правило, не работает, в основном потому, что отсутствует правоприменение. "В конечном счете, технологические компании - это организации, максимизирующие прибыль, и поэтому у них есть сильные стимулы либо мошенничать, либо усиленно лоббировать ослабление регулирования. А это значительно проще в условиях саморегулирования, когда крупные компании доминируют в торговых органах, которые создали саморегулирование", - говорит он.
По мнению Бори, лучший подход - это поэтапное регулирование технологий, а не принятие слишком амбициозных законов. "Больше пользы приносит установление нескольких общих принципов, которые двигают отрасль в правильном направлении, а затем часто пересматривать их", - говорит он, приводя в пример Закон ЕС об искусственном интеллекте, который, по его словам, использует взвешенный подход.
14 июня Европейский парламент одобрил Европейский закон об ИИ, сделав торговый блок первым регионом, ратифицировавшим свод всеобъемлющих правил в преддверии сбоев в работе ИИ.
Бори говорит, что правила охватывают несколько ключевых принципов, включая запрет биометрического наблюдения и систем предиктивной полиции, принципы раскрытия информации и рисков, а также требование о регистрации систем ИИ с высоким риском. "Но на данный момент правила не определяют такие ИИ-системы, как ChatGPT или LLAMA, как системы высокого риска. Возможно, это изменится в будущих обзорах, но, похоже, начало положено в правильном направлении", - добавляет Бори.
Будет ли эффективным государственное регулирование ИИ?
Регуляторные усилия по обузданию Больших технологий предпринимаются уже давно. Но после десятилетий широкого распространения и превращения Больших технологий в неотъемлемую часть мировой экономики, сохранение игрового поля для технологий, свободного от монополистического поведения, остается сложной задачей. Именно эти же компании сегодня возглавляют разработку ИИ.
Гонка за создание первого общего ИИ находится далеко за пределами стартовой площадки. Когда это будет достигнуто, нынешние опасения по поводу концентрации власти Больших Технологий могут показаться незначительными по сравнению с этим. В связи с этим возникает вопрос о бесполезности применения старой парадигмы регулирования к столь новой и развивающейся технологии. Сотрудничество, убеждение - называйте это как хотите - вот что, по мнению многих, необходимо всем заинтересованным сторонам. И хотя люди по-прежнему остаются социальными животными, а не киборгами, многие просто полагаются на то, что те, кто руководит разработкой ИИ, остаются в лагере "видоцентристов".
Всегда рад поделиться свежими новостями
Спасибо за информацию
Добрый день! Я прочёл вашу статью, мне лично всё понравилось. Желаю вам успехов в вашем деле! Всегда взаимен)