Анна
Анна Подписчиков: 107
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 1418

Спор об угрозе исчезновения, исходящей от искусственного интеллекта, нависает над растущей отраслью

7 дочитываний
0 комментариев
Эта публикация уже заработала 0,30 рублей за дочитывания
Зарабатывать

После прошлогоднего успеха ChatGPT количество тревожных предупреждений возросло.

В то время как эксперты расходятся во мнениях относительно того, представляет ли ИИ угрозу существованию, Дэн Хендрикс, исследователь и директор Центра безопасности ИИ, или CAIS, входит в число тех, кто считает, что технология может уничтожить человечество различными способами.

Плохой актер может завладеть будущей версией генеративного ИИ, запросить у него инструкции о том, как создать биологическое оружие и вызвать опустошение, сказал он ABC News. Или, добавил он, эффективность, обеспечиваемая ИИ, может привести к широкому внедрению в бизнесе, оставив мировую экономику в ее рабстве; в качестве альтернативы, это может также усугубить распространение ложной информации и дезинформации.

Конец человечества, по словам Хендрикса, едва ли возможен. «Если я увижу, что международная координация не происходит или почти не происходит, скорее всего, мы вымрем», — добавил он.

Эксперты, которые доверяют угрозе, сказали ABC News, что огромные потенциальные риски требуют срочного внимания и жесткого надзора; в то время как скептики предупреждали, что мрачные прогнозы подпитывают недопонимание возможностей ИИ и отвлекают от текущего вреда, причиняемого этой технологией.

В последние месяцы страшные предупреждения о масштабной угрозе, которую представляет ИИ, поднялись из коридоров факультетов компьютерных наук в залы Конгресса.

В открытом письме, написанном в мае CIAS, содержится предупреждение о том, что ИИ представляет «риск исчезновения», сродни пандемиям или ядерной войне, с подписями сотен исследователей и лидеров отрасли, таких как генеральный директор OpenAI Сэм Альтман и Демис Хассабис, генеральный директор Google DeepMind, подразделения искусственного интеллекта технологического гиганта.

Альтман, чья компания разработала сенсацию вирусного ИИ Chat-GPT, в мае заявил подкомитету Сената: «Если эта технология пойдет не так, она может пойти совсем не так». В интервью ABC News в марте Альтман сказал: «Я думаю, что люди должны быть довольны тем, что мы немного напуганы этим».

OpenAI и Google не сразу ответили на запрос ABC News о комментариях.

Однако другие светила ИИ отказались. Ян ЛеКун, главный специалист по искусственному интеллекту в Meta**, сказал MIT Technology Review , что страх перед поглощением ИИ «абсурдно нелеп». Сара Майерс Уэст, управляющий директор некоммерческого AI Now Institute, сказала ABC News: «Многое из этого больше риторика, чем обоснованный анализ».

Разногласия по поводу экзистенциальной угрозы, исходящей от ИИ, вырисовываются из-за последних достижений в области технологий, поскольку они охватывают все учреждения от производства до массовых развлечений, вызывая разногласия по поводу темпов развития и направленности возможного регулирования.

«Мы обращаемся к экспертам, чтобы они рассказали нам об этом», — Джеффри Зонненфельд, профессор менеджмента Йельского университета, который созывает собрания топ-менеджеров. «Но эксперты расходятся во мнениях по этому поводу».

Однако по мере развития ИИ императив для наблюдателей становится очевидным, сказал он: «Мы не можем сидеть в стороне».

Обеспокоенность по поводу рисков, связанных с искусственным интеллектом, в последнее время привлекла повышенное внимание в ответ на крупные прорывы, такие как ChatGPT, который достиг 100 миллионов пользователей в течение двух месяцев после его запуска в ноябре.

В марте Microsoft запустила версию своей поисковой системы Bing, которая предлагает ответы, предоставленные GPT-4, последней моделью ChatGPT. Конкурирующая поисковая компания Google в феврале анонсировала модель искусственного интеллекта под названием Bard.

«ИИ в предыдущих экземплярах был в значительной степени невидимой системой», — сказал Майерс Уэст. «Это не было чем-то, с чем мы взаимодействовали ощутимым образом. Это оказало действительно интуитивное влияние на широкую публику, поскольку способствовало этой волне как волнения, так и огромного беспокойства».

По словам Майерса Уэста, прогнозам конца света, однако, не хватает подробностей, и они преувеличивают потенциал формирования самосознания в рамках генеративного ИИ, такого как ChatGPT, который сканирует текст из Интернета и объединяет слова вместе на основе статистической вероятности.

«В настоящее время работа этих систем по сути схожа с прикладной статистикой, поэтому они не обладают способностью к более глубокому пониманию, не обладают способностью к эмпатии и, конечно же, не обладают разумом», — добавил Майерс Уэст.

Но риск, связанный с искусственным интеллектом, связан с его способностью превосходить человеческий интеллект, а не имитировать его, сказал ABC News Стюарт Рассел, исследователь искусственного интеллекта из Калифорнийского университета в Беркли, который был соавтором исследования опасностей этой технологии для общества.

«Если вы создадите системы, которые будут более разумными, чем люди, у них будет больше власти над миром, чем у нас, точно так же, как у нас больше власти над миром, чем у других видов на Земле», — сказал он.

Спор об угрозе исчезновения, исходящей от искусственного интеллекта, нависает над растущей отраслью

Признавая отсутствие конкретики в некоторых заметных сообщениях о экстремальных рисках, таких как открытое письмо, опубликованное CAIS в мае, Рассел сказал: «Как только вы углубитесь в конкретику, у вас возникнут споры о том, что является наиболее правдоподобным». Хендрикс из CAIS добавил: «Поскольку ИИ затрагивает многие аспекты жизни общества, мы в конечном итоге обнаруживаем, что существует множество источников риска».

По словам Хендрикса, ключевые средства правовой защиты, такие как строгий государственный надзор и ответственность разработчиков ИИ, могут помочь предотвратить ряд катастрофических сценариев. «Нам не нужно точно знать, что произойдет, чтобы принять меры для снижения риска», — сказал он.

Безусловно, признавая риски ИИ, эксперты объявили о его потенциальных преимуществах. Сторонники искусственного интеллекта говорят, что эта технология может повысить производительность, автоматизировать неприятные или обыденные задачи и дать возможность сосредоточиться на творческих и инновационных начинаниях. ИИ рекламировался как помощь в различных начинаниях, от борьбы с изменением климата до диагностики рака.

Большинство в Сенате Чак Шумер, DN.Y., в прошлом месяце опубликовал структуру, в которой изложены четыре столпа, которые, как он надеется, будут определять будущее двухпартийное законодательство, регулирующее ИИ: безопасность, подотчетность, защита наших основ и объяснимость.

Рамки не являются законодательным текстом, и неясно, сколько времени потребуется Конгрессу, чтобы начать собирать законодательные предложения. В Конгрессе еще не было представлено какого-либо всеобъемлющего законодательства, регулирующего ИИ, хотя двухпалатная группа законодателей в прошлом месяце представила предложение о создании специальной комиссии для изучения влияния ИИ.

«У нас нет другого выбора, кроме как признать, что изменения ИИ грядут, и во многих случаях они уже наступили. Мы игнорируем их на свой страх и риск», — сказал Шумер в прошлом месяце в подготовленном выступлении в Центре стратегических и международных исследований.

Тем временем президент Джо Байден появился в прошлом месяце на мероприятии за круглым столом, посвященном искусственному интеллекту, в Калифорнии, назвав искусственный интеллект чем-то, что имеет «огромные перспективы и связанные с ним риски».

Усилия по предотвращению гипотетических долгосрочных опасностей могут отвлечь внимание от современного ущерба, причиняемого ИИ, сказала Изабель Джонс, руководитель кампании Stop Killer Robots, целью которой является заключение международного соглашения, запрещающего использование автономного оружия.

«Я думаю, что сосредоточение исключительно на будущем — это ущерб существующему вреду, который наступает или существует непосредственный риск», — сказал Джонс ABC News.

По словам Рассела, политики могут одновременно бороться с текущими и будущими опасностями, точно так же, как они это делают в борьбе с изменением климата. «Я думаю, что повествование о том, что вы можете сделать одно или другое, но не можете сделать то и другое, на самом деле ядовито».

Независимо от того, верят ли они прогнозам экстремального риска или подвергают сомнению, эксперты, беседовавшие с ABC News, призвали правительство регулировать технологию.

«Самое главное для меня — регулирование и международная координация», — сказал Хендрикс. Джонс сослался на международные соглашения по таким вопросам, как распространение ядерного оружия, как на модель господства автономного оружия.

Тем не менее, по словам Майерса Уэста, могут снова возникнуть разногласия по поводу деталей. «Дьявол кроется в деталях», — сказала она.

Понравилась публикация?
14 / 0
нет
0 / 0
Подписаться
Донаты ₽
* * запрещённая в России экстремистская организация или лицо, причастное к экстремистской деятельности

Новое "супероружие" Путина. Британцы в панике от русских голубей биодронов

В Британии пришли в ужас от нового "супероружия" Путина. Как рассказывают агенты разведки Лондона в России образованы целые "боевые" крылатые эскадрильи, которые были якобы созданы по личному приказу Путина.

Цифровое спасение от ужаса обычной жизни: Госдума открыла новый фронт — против собственных граждан

В Госдуме, этом неиссякаемом источнике законодательных перлов, вновь пахнет жжёным — на этот раз жгут цифровые сети. Депутат Андрей Свинцов, чья фамилия так звучно намекает на тяжёлые металлы в мышлении,...

Безопасность по-нашему:В Госдуме предложили меры по защите россиян от мошенников в мессенджере МАХ

О, чудо из чудес! Госдума, этот неиссякаемый источник гениальных идей, снова спешит на помощь народу. Напомню: совсем недавно нам с пафосом презентовали мессенджер МАХ — цифровую крепость, цитадель доверия,
Главная
Коллективные
иски
Добавить Видео Опросы