Виталий
Виталий Подписчиков: 410
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 358

Стоит ли нам опасаться роста искусственного интеллекта?

28 дочитываний
1 комментарий
Эта публикация уже заработала 1,43 рублей за дочитывания
Зарабатывать

Стоит ли нам опасаться роста искусственного интеллекта?

ИИ находится на пути к увеличению вычислительной мощности более чем в два раза каждый год - и это, по мнению некоторых, может привести к самовоспроизводящемуся интеллекту, последствия которого остаются неизвестными.

На прошлой неделе все технологи призвали лаборатории искусственного интеллекта (ИИ) прекратить обучение самых мощных систем ИИ по крайней мере на шесть месяцев, ссылаясь на "глубокие риски для общества и человечества".

В открытом письме, которое сейчас подписали более 3 100 человек, включая соучредителя Apple Стива Возняка, технологические лидеры особо отметили недавно анонсированный алгоритм GPT-4 лаборатории OpenAI Lab из Сан-Франциско, заявив, что компания должна прекратить дальнейшие разработки до тех пор, пока не будут введены стандарты надзора. Эту цель поддерживают технологи, руководители компаний, финансовые директора, докторанты, психологи, врачи, разработчики программного обеспечения и инженеры, профессора и учителя государственных школ со всего мира.

В пятницу Италия стала первой западной страной, запретившей дальнейшее развитие ChatGPT из-за проблем с конфиденциальностью; в прошлом месяце в приложении для обработки естественного языка произошла утечка данных, в результате которой были обнаружены разговоры пользователей и платежная информация. ChatGPT - это популярный чат-бот на базе GPT, созданный OpenAI и поддержанный миллиардами долларов от Microsoft.

Итальянский орган по защите данных заявил, что он также расследует, не нарушил ли чатбот OpenAI правила Общего регламента защиты данных Европейского союза, созданного для защиты персональных данных внутри и за пределами ЕС. OpenAI выполнила требования нового закона, согласно отчету BBC.

Многие представители технологического сообщества ожидают, что GPT, который расшифровывается как Generative Pre-trained Transformer, будет развиваться и станет GPT-5 - и эта версия будет искусственным интеллектом общего назначения, или AGI. AGI представляет собой ИИ, способный думать самостоятельно, и на этом этапе алгоритм будет продолжать становиться экспоненциально умнее с течением времени.

По данным исследовательской группы Epoch, пытающейся прогнозировать развитие преобразующего ИИ, примерно в 2016 году наметилась тенденция к появлению моделей обучения ИИ, которые были на два-три порядка больше, чем предыдущие системы. Эта тенденция сохраняется.

По словам Хайме Севильи, директора Epoch, в настоящее время не существует систем ИИ, превосходящих GPT-4 по объему обучающих вычислений. Но это изменится.

Энтони Агирре, профессор физики Калифорнийского университета в Санта-Крузе и исполнительный вице-президент некоммерческой организации "Будущее жизни", опубликовавшей открытое письмо разработчикам, говорит, что нет причин полагать, что GPT-4 не будет продолжать увеличивать вычислительные возможности более чем в два раза каждый год.

"Самые масштабные вычисления увеличивают размер примерно в 2,5 раза в год". Параметры GPT-4 не были раскрыты OpenAI, но нет причин полагать, что эта тенденция остановилась или даже замедлилась", - сказал Акуирр. "Только сами лаборатории знают, какие вычисления они выполняют, но тенденция очевидна".

В своем еженедельном блоге 23 марта соучредитель Microsoft Билл Гейтс назвал AGI - способный изучать любую задачу или предмет - "великой мечтой компьютерной индустрии".

"AGI еще не существует - в компьютерной индустрии идут активные дебаты о том, как его создать, и можно ли его вообще создать", - написал Гейтс. "Теперь, с появлением машинного обучения и больших вычислительных мощностей, сложные ИИ стали реальностью, и они будут становиться лучше очень быстро".

Мудду Судхакар, генеральный директор компании Aisera, занимающейся генеративным ИИ для предприятий, сказал, что существует лишь несколько компаний, нацеленных на достижение AGI, как OpenAI и DeepMind (поддерживаемая Google), хотя у них есть "огромные финансовые и технические ресурсы".

Несмотря на это, им предстоит пройти долгий путь, чтобы достичь AGI, сказал он.

"Есть очень много задач, которые системы ИИ не могут решить, но которые люди могут делать естественным образом, например, рассуждения на основе здравого смысла, знание фактов и понимание абстрактных понятий (таких как правосудие, политика и философия)", - сказал Судхакар в электронном письме Computerworld. "Для AGI потребуется множество прорывов и инноваций. Но если это будет достигнуто, похоже, что эта система в основном заменит человека".

"Это, конечно, будет разрушительно, и потребуется множество ограждений, чтобы предотвратить полный контроль над AGI", - сказал Судхакар. "Но пока это, скорее всего, в далеком будущем. Это больше относится к области научной фантастики".

Не все с этим согласны.

Технологии ИИ и чатботы-помощники проникают и будут проникать практически во все отрасли. Эти технологии могут повысить эффективность и взять на себя выполнение рутинных задач, освободив работников сферы знаний и других людей, чтобы они могли сосредоточиться на более важной работе.

Например, большие языковые модели (LLM) - алгоритмы, на которых работают чат-боты, - могут просеивать миллионы предупреждений, онлайн-чатов и электронных писем, а также находить фишинговые веб-страницы и потенциально вредоносные исполняемые файлы. Чат-боты на базе LLM могут писать эссе, проводить маркетинговые кампании и предлагать компьютерный код - и все это на основе простых подсказок (предложений) пользователя.

Чат-боты на базе LLM - это процессоры естественного языка, которые предсказывают следующие слова после того, как пользователь задал вопрос. Так, если пользователь попросит чат-бота сочинить стихотворение о человеке, сидящем на пляже в Нантакете, ИИ просто соберет в цепочку слова, предложения и абзацы, которые являются наилучшими ответами на основе предыдущего обучения программистов.

Однако LLM также допускают громкие ошибки и могут создавать "галлюцинации", когда механизмы генерации следующих слов сходят с рельсов и выдают причудливые ответы.

Если ИИ, основанный на LLM с миллиардами настраиваемых параметров, может сойти с рельсов, насколько увеличится риск, когда ИИ больше не будет нуждаться в людях для обучения и сможет думать самостоятельно? По мнению Авивы Литан, вице-президента и ведущего аналитика Gartner Research.

Литан считает, что лаборатории по разработке ИИ продвигаются вперед с бешеной скоростью без какого-либо надзора, что может привести к тому, что ИИ станет неконтролируемым.

По ее мнению, лаборатории ИИ "мчатся вперед, не создавая надлежащих инструментов, позволяющих пользователям контролировать происходящее. Я думаю, что все идет гораздо быстрее, чем кто-либо ожидал", - сказала она.

В настоящее время обеспокоенность вызывает то, что технологии ИИ для использования корпорациями выпускаются без инструментов, необходимых пользователям для определения того, генерирует ли технология точную или неточную информацию.

"Сейчас мы говорим о хороших парнях, у которых есть все эти инновационные возможности, но они есть и у плохих парней, - сказала Литан. - Поэтому мы должны иметь эти системы маркировки воды и знать, что является настоящим, а что синтетическим. И мы не можем полагаться на обнаружение, мы должны иметь аутентификацию контента. В противном случае дезинформация будет распространяться как лесной пожар".

Например, на этой неделе компания Microsoft запустила Security Copilot, который основан на большой языковой модели GPT-4 от OpenAI. Этот инструмент представляет собой чат-бот с искусственным интеллектом для экспертов по кибербезопасности, который поможет им быстро обнаруживать угрозы и реагировать на них, а также лучше понимать общий ландшафт угроз.

Проблема в том, что "вы, как пользователь, должны входить и выявлять любые ошибки, которые он допускает", - сказал Литан. "Это неприемлемо. У них должна быть какая-то система оценки, которая говорит, что этот вывод с вероятностью 95% верен, и поэтому у него есть 5% вероятность ошибки. А этот имеет 10% вероятность ошибки. Они не дают вам никакого представления о производительности, чтобы понять, можно ли ей доверять или нет".

В недалеком будущем создатель GPT-4 OpenAI выпустит версию с поддержкой AGI. В этот момент может быть слишком поздно обуздать эту технологию.

Одним из возможных решений, по мнению Литана, является выпуск двух моделей для каждого инструмента генеративного ИИ - одна для генерации ответов, другая для проверки точности первой.

"Это могло бы дать действительно хорошую гарантию того, что модель выдает что-то, чему можно доверять", - сказала она. "Нельзя ожидать, что человек просмотрит весь этот контент и решит, что правда, а что нет, но если дать ему другие модели, которые проверяют..., это позволит пользователям следить за эффективностью".

В 2022 году Time сообщил, что OpenAI передала услуги низкооплачиваемых рабочих в Кении, чтобы определить, производит ли ее GPT LLM безопасную информацию. Рабочим, нанятым фирмой Sama, расположенной в Сан-Франциско, платили 2 доллара в час, и они должны были просеивать ответы приложений GPT, "которые были склонны к размытым высказываниям насильственного, сексистского и даже расистского характера".

"И это то, как вы нас защищаете? Платите людям 2 доллара в час, а они болеют. Это совершенно неэффективно и совершенно аморально", - сказал Литан.

"Разработчики ИИ должны сотрудничать с политиками, а они, как минимум, должны включать новые и дееспособные регулирующие органы", - продолжил Литан. "Я не знаю, придем ли мы когда-нибудь к этому, но регуляторы не могут за этим угнаться, и это было предсказано много лет назад. Нам нужно придумать новый тип органов".

Шубхам Мишра, соучредитель и глобальный генеральный директор ИИ-стартапа Pixis, считает, что, хотя прогресс в его области "не может и не должен остановиться", призыв к паузе в развитии ИИ вполне оправдан. Генеративный ИИ, по его словам, действительно способен запутать массы, вбросив в общественное достояние пропагандистскую или "трудноразличимую" информацию.

"Что мы можем сделать, так это планировать этот прогресс. Это возможно только в том случае, если все мы взаимно согласимся приостановить эту гонку и сконцентрировать энергию и усилия на создании руководящих принципов и протоколов для безопасной разработки более крупных моделей ИИ", - сказал Мишра в электронном письме Computerworld.

В данном конкретном случае речь идет не об общем запрете на разработку ИИ, а о временной паузе в создании ИИ".

1 комментарий
Понравилась публикация?
6 / 0
нет
0 / 0
Подписаться
Донаты ₽
Комментарии: 1
Отписаться от обсуждения Подписаться на обсуждения
Популярные Новые Старые

И сейчас уже видно, что ИИ используется во вред человеку. Нас заставляют общаться с идиотскими программами шаблонами из ответов и вопросов, отгораживаясь от обратной связи и пресекая любую возможность даже задать вопрос по существу.

0
картой
Ответить
раскрыть ветку (0)

Цифровое бессмертие: душа, отлитая в данных.

Мы вступаем в эпоху, где понятие «наследие» переживает фундаментальную трансформацию. От высеченных в камне иероглифов и пожелтевших писем — к интерактивным цифровым сущностям, способным вести диалог с будущим.

Проблемы с Google Analytics: как использование веб-аналитики приводит к нарушениям

Роскомнадзор ужесточил требования к безопасности персональных данных и ввел миллионные штрафы за неправильную обработку. И, как показывает жизнь, справедливо: персональные данные нужно держать в безопасности.

Почему по никнейму канала нельзя установить человека и пригласить его свидетелем в суд. Ответ юриста.

Многие пользователи сайтов предпочитают быть анонимными. Никнеймы часто используются для защиты личной информации. Именно по этому такого автора канала трудно вычислить и установить его личность.

Звёздное сияние Ижоры в Межстоличьи /Статья третья незапланированная /Интермедия.

У меня есть невыполненное обязательство перед собой. "Звездное сияние Ижоры в Межстоличьи. Часть вторая "Жар-птица"" Я действительно нашёл несколько статей, и они постоянно «висят» на экране моего монитора,...

Что нельзя делать в интернете в России: как не попасть на административку или уголовку

Интернет — это как огромный торговый центр с тысячами дверей: в большинство можно заходить спокойно, но есть и такие, за которыми вас ждут штрафы, предупреждения или даже уголовная ответственность.

Искусственный интеллект и виртуальная реальность: главные интернет-тренды ноября 2025

В ноябре 2025 года в интернете продолжают активно обсуждать темы искусственного интеллекта и виртуальной реальности. Массовое внедрение генеративных нейросетей, которые теперь создают не только тексты,

Новая уловка мошенников: как обманывают под видом виртуальной кредитной карты

В последнее время злоумышленники активно используют всё более изощрённые схемы, чтобы завладеть деньгами и личными данными россиян. Одна из свежих угроз - обман под видом оформления виртуальной кредитной карты.