Mihall65
Mihall65Подписчиков: 784
РейтингРейтингРейтингРейтингРейтинг382.9к

Почему искусственный интеллект нужно остановить сейчас

6 просмотров
2 дочитывания
0 комментариев
Эта публикация уже заработала 0,27 рублей за дочитывания
Зарабатывать
Фото из интернета

Я поклонник позиции "не брать пленных", когда она хорошо обоснована и, в данном случае, является правильной. Некоторые технологи выступили с решительными предупреждениями о том, что искусственный интеллект представляет угрозу для человечества, особенно в его нынешнем режиме "пусть расцветает тысяча цветов". Вспомните, что именно такую позицию занял Алан Гринспен в отношении развития деривативов, и результатом стал глобальный финансовый кризис, который, как мы подробно объяснили в ECONNED, был кризисом деривативов (простое схлопывание пузыря на рынке жилья не привело бы к близкой смерти мировой финансовой системы в сентябре 2008 года).

Некоторые из тех, кто громче всех говорит об ИИ, - это миллионеры, которые хотят контролировать тех, кто может его использовать, чтобы обеспечить преимущественное положение нынешнего лидера. Одна из вещей, которую они обнаружили в самом начале, - отсутствие барьеров для входа и экономии на масштабе для многих потенциальных приложений.

Тот факт, что они утверждают, что ИИ - это угроза, потенциально угроза существования, по их собственным эгоистичным причинам, не делает эту точку зрения неправильной.

У меня есть более обыденные опасения, основанные на приведенном примере ИИ, вышедшего из-под контроля, ошеломляющих ошибок, которые Google допускает на нашем сайте в связи с предполагаемыми нарушениями политики... почти все из которых бессмысленны на первый взгляд. Меня беспокоит, что ИИ настолько испортит то, что считается знаниями, что мы быстро станем еще более невежественными, чем были.

И в этой статье не очень-то опираются на то, что искусственный интеллект потребляет много энергии и, как ожидается, будет стремительно взрываться, что само по себе является причиной для того, чтобы вбить кол в его сердце.

Сторонники ИИ рассказывают об огромных преимуществах использования этой технологии. Например, в статье CNN говорится о том, как искусственный интеллект помогает ученым из Принстона решить "ключевую проблему" термоядерной энергетики. ИИ, способный переводить текст в аудио и аудио в текст, делает информацию более доступной. С помощью этой технологии можно быстрее решать многие цифровые задачи.

Однако все преимущества, которые сулит ИИ, затмеваются катастрофическими опасностями, которые таит в себе эта противоречивая новая технология. У человечества есть небольшой шанс остановить технологическую революцию, чьи непредвиденные негативные последствия значительно перевесят любые краткосрочные выгоды.

В начале XX века люди (в частности, в США) могли бы остановить распространение автомобилей, сосредоточившись на улучшении общественного транспорта, и тем самым сэкономить огромное количество энергии, избежать миллиардов тонн выбросов парниковых газов и предотвратить гибель более 40 000 человек в автомобильных авариях ежегодно только в США. Но мы не сделали этого.

В середине века нам, возможно, удалось бы остановить разработку атомной бомбы и предотвратить апокалиптическую опасность, в которой мы оказались сейчас. Мы упустили и эту возможность.

В конце XX века правила, основанные на принципе предосторожности, могли бы предотвратить распространение токсичных химикатов, которые сегодня отравляют всю планету. Мы и в этом случае потерпели неудачу.

Теперь у нас есть еще один шанс.

С помощью Ai человечество передает управление почти всеми ключевыми отраслями - финансами, военным делом, медициной и сельским хозяйством - алгоритмам, не обладающим моральными способностями.

Если вы задаетесь вопросом, что может пойти не так, ответ - много.

Если он еще существует, то окно возможностей для остановки Ai скоро закроется. Ai коммерциализируется быстрее, чем другие крупные технологии. Действительно, скорость - это его суть: Она саморазвивается благодаря машинному обучению, причем каждая итерация значительно опережает закон Мура.

А поскольку ИИ используется для ускорения всех процессов, оказывающих серьезное влияние на планету (производство, транспорт, связь и добыча ресурсов), он представляет собой сверхугрозу не только для выживания человечества, но и для всего живого на Земле.

Опасности, связанные с ИИ нарастают.

В июне 2023 года я написал статью о некоторых опасностях ИИ. Теперь эта статья причудливо устарела. За короткий период времени ИИ продемонстрировал более опасные последствия, чем многие из нас могли себе представить.

В статье под названием "DNAI-The Artificial Intelligence/Artificial Life Convergence" Джим Томас рассказывает о перспективах "экстремальной генной инженерии", которые открывает ИИ. Если искусственный интеллект хорош в создании текстов и изображений, то он также суперкомпетентен в чтении и перестановке букв генетического алфавита. Технологический гигант Nvidia уже разработал то, что Томас называет "первопроходным ChatGPT для проектирования вирусов и микробов", и его использование находит применение во всех науках о жизни, включая медицину, сельское хозяйство и разработку биооружия.

Как обеспечить биобезопасность новых синтетических организмов, учитывая, что вся система их конструирования непостижима? Как мы сможем адекватно защититься от опасности тысяч новых белков, созданных искусственным интеллектом, если мы и так плохо справляемся с оценкой опасности новых химических веществ?

Исследования развиваются с огромной скоростью, но надзор и регулирование идут со скоростью улитки.

Угрозы для финансовой системы со стороны ИИ только начинают осознаваться. В декабре 2023 года Совет по надзору за финансовой стабильностью США (FSOC), состоящий из ведущих регуляторов разных стран, классифицировал ИИ как "возникающую уязвимость".

Поскольку ИИ действует как "черный ящик", скрывая свои внутренние операции, банкам, использующим его, может быть сложнее "оценить концептуальную устойчивость системы". Согласно статье CNN, регуляторы FSOC отметили, что ИИ "может создавать и, возможно, маскировать предвзятые или неточные результаты, вызывая беспокойство по поводу справедливого кредитования и других вопросов защиты прав потребителей". Может ли торговля акциями и облигациями с помощью ИИ подорвать рынки ценных бумаг? Возможно, нам не придется долго ждать, чтобы узнать это. Председатель Комиссии по ценным бумагам и биржам Гэри Генслер в мае 2023 года говорил "о том, что ИИ может спровоцировать финансовый кризис", согласно статье в U.S. News, назвав его "потенциальным системным риском".

Тем временем ChatGPT недавно провел большую часть дня, изрыгая странную чушь в ответ на вопросы пользователей, и часто испытывал "галлюцинации", когда система "начинает выдумывать вещи, которые не соответствуют реальности", сказал Джевин Вест, профессор Университета Вашингтона, согласно статье CNN, в которой он цитируется. Что произойдет, если ИИ начнет галлюцинировать финансовые отчеты и биржевые сделки?

Смертоносное автономное оружие уже используется на поле боя. Добавьте к этому оружию ИИ, и все человеческие принципы ответственности, морального осуждения и сострадания, которые еще сохранились в военных действиях, будут стремиться к исчезновению. Роботы-убийцы уже проходят испытания в новых кровавых конфликтах по всему миру - на Украине и в России, в Израиле и Палестине, а также в Йемене и других странах.

То, что ИИ усугубит экономическое неравенство, было очевидно с самого начала. В январе МВФ предсказал, что ИИ затронет около 40 % рабочих мест во всем мире (около 60 % в богатых странах). Это повлияет на заработную плату и приведет к ликвидации рабочих мест. Эти прогнозы, безусловно, занижены, поскольку возможности технологии постоянно растут.

В результате люди, которые смогут воспользоваться преимуществами технологии, станут еще богаче, а большинство остальных еще больше отстанут. Если говорить более конкретно, то чрезвычайно богатые и могущественные компании, работающие в сфере цифровых технологий, увеличат свое социальное и политическое влияние намного больше, чем уже было доведено до абсурда.

Иногда утверждается, что ИИ поможет решить проблему изменения климата, ускорив развитие низкоуглеродных технологий. Но энергопотребление ИИ вскоре может затмить энергопотребление многих небольших стран. А центры обработки данных ИИ также стремятся поглотить землю и воду.

ИИ вторгается даже в нашу любовную жизнь, как это было показано в фильме 2013 года "Она". В то время как интернет изменил отношения через онлайн-знакомства, ИИ способен заменить партнерские отношения между человеком и человеком на интимные отношения между человеком и машиной. Уже сейчас Replika рекламируется как "заботливый ИИ-компаньон", предлагающий пользователям вести глубоко личные разговоры, включая секстинг. Разрабатываются секс-роботы, якобы для пожилых людей и инвалидов, хотя первыми клиентами, похоже, станут состоятельные мужчины.

Общение с людьми лицом к лицу становится все более редким, а пары сообщают о снижении частоты сексуальной близости. С появлением ИИ эти тревожные тенденции могут расти в геометрической прогрессии. Скоро против всего мира останетесь только вы и ваши машины.

В преддверии президентских выборов в США потенциальная публикация множества поддельных аудио- и видеозаписей может привести к тому, что демократия в стране окажется на волоске. Действительно ли кандидат сказал это? Чтобы выяснить это, потребуется время. Но будет ли сама проверка фактов генерироваться ИИ? Индия экспериментирует с политическим контентом, генерируемым ИИ, в преддверии национальных выборов, которые должны состояться в 2024 году, и результаты получаются странными, обманчивыми и подрывными.

Всесторонний анализ ситуации показывает, что ИИ, скорее всего, ускорит все негативные тенденции, угрожающие сейчас природе и человечеству. Но это обвинение все еще не учитывает его конечную способность сделать человека, а возможно, и все живое, устаревшим.

Угрозы ИИ - это не ряд легко устранимых ошибок. Они являются неизбежными проявлениями присущей технологии природы - ее скрытой внутренней работы и саморазвития функций. И это не тривиальные опасности, а экзистенциальные.

Тот факт, что некоторые разработчики ИИ - люди, наиболее хорошо знакомые с технологией, - являются ее самыми ярыми критиками, должен о чем-то нам сказать. Так, политики, эксперты в области ИИ и журналисты выступили с заявлением, в котором предупредили, что "снижение риска вымирания в результате использования ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война".

Не приостанавливать, а остановить.

Многие критические статьи в мейнстримных сми призывают приостановить развитие ИИ "на безопасном уровне". Некоторые критики призывают регулировать "плохие" применения технологии - исследования оружия, распознавание лиц и дезинформацию. действительно, чиновники европейского союза сделали шаг в этом направлении в декабре 2023 года, достигнув предварительной договоренности о первых в мире всеобъемлющих законах по регулированию ИИ.

Когда появляется новая технология, обычная практика заключается в том, чтобы подождать и посмотреть на ее положительные и отрицательные результаты, прежде чем вводить правила. но если мы подождем, пока ай получит дальнейшее развитие, мы перестанем быть хозяевами положения. мы можем оказаться не в состоянии восстановить контроль над технологией, которую мы создали.

Аргумент в пользу полного запрета ИИ возникает из самой природы технологии - ее технологическое развитие предполагает ускорение до скоростей, которые не поддаются человеческому контролю или отчетности. Полный запрет - это решение, которое предложил пионер ИИ Элиэзер Юдковски в своей ключевой статье в журнале Time:

"Наиболее вероятным результатом создания сверхчеловечески умного ИИ в условиях, отдаленно напоминающих нынешние, будет то, что буквально все на Земле умрут. Не в смысле "может быть, с некоторой долей вероятности", а в смысле "это очевидная вещь, которая произойдет"".

Юдковски продолжает объяснять, что в настоящее время мы не можем наделить ИИ заботой или моралью, поэтому мы получим ИИ, который "не любит вас, не ненавидит вас, а вы сделаны из атомов, которые он может использовать для чего-то другого".

Подчеркивая и подтверждая предостережение Юдковского, 11 марта было опубликовано исследование, финансируемое Государственным департаментом США, в котором говорится, что нерегулируемый ИИ представляет собой "угрозу вымирания" для человечества.

Для того чтобы остановить дальнейшее использование и развитие этой технологии, потребуется заключение глобального договора - огромное препятствие, которое необходимо преодолеть. Разработчики соглашения должны будут определить ключевые технологические элементы, которые делают ИИ возможным, и запретить исследования и разработки в этих областях везде и всюду в мире.

Существует лишь несколько исторических прецедентов, когда подобное происходило. Тысячелетие назад китайские лидеры свернули зарождающуюся промышленную революцию, основанную на использовании угля и технологий, работающих на угле (потомственные аристократы опасались, что начинающие промышленники со временем захватят политическую власть). В период сёгуната Токугава (1603-1867 гг.) в Японии было запрещено большинство видов оружия, что практически полностью исключило смертность от огнестрельного оружия. А в 1980-х годах мировые лидеры собрались в Организации Объединенных Наций, чтобы запретить большинство химикатов для сохранения озонового слоя атмосферы планеты.

Запрет ИИ, скорее всего, станет более сложной задачей, чем те, что были в этих трех исторических случаях. Но если это должно произойти, то должно произойти сейчас.

Предположим, что движение за запрет ИИ увенчается успехом. В таком случае это может нарушить наш коллективный лихорадочный сон неолиберального капитализма, чтобы люди и их правительства наконец признали необходимость установить ограничения. Это уже должно было произойти в связи с климатическим кризисом, который требует от нас строгого ограничения добычи ископаемого топлива и использования энергии. Если угроза ИИ, будучи столь острой, заставит нас установить ограничения для самих себя, возможно, это вызовет институциональную и межправительственную смелость, необходимую для действий в отношении других экзистенциальных угроз.

Ив Смит

По материалам зарубежной прессы.

Спасибо что дочитали статью, ставьте лайки и комментируйте! Подписывайтесь.

Понравилась публикация?
4 / 0
нет
Подписаться
Донаты ₽
Lora
Подписчиков 428
вчера, 08:42
РейтингРейтингРейтингРейтингРейтинг511.1к
С этого момента мы положим его в сумкуМы все это делали: клали телефон в карман или в бюстгальтер.
Подробнее
Неинтересно
0
2
Mir 789
Подписчиков 407
позавчера, 20:02
РейтингРейтингРейтингРейтингРейтинг102.7к
Клубничный сок - это настоящий подарок от природы, который не только удовлетворяет вкусовые
Подробнее
Неинтересно
0
0
Mir 789
Подписчиков 407
позавчера, 19:40
РейтингРейтингРейтингРейтингРейтинг102.7к
Гранатовый сок - это настоящий король витаминов, который не только приятно ...
Подробнее
Неинтересно
0
2
Русский Бомж☆∘☆∘☆
Подписчиков 2371
позавчера, 13:07
РейтингРейтингРейтингРейтингРейтинг2.8М
фото из Яндекс картинкиНеоднократно я делал запросы для нейросети, по поводу ...
Подробнее
Неинтересно
-1
7
Плетус Валерий
Подписчиков 39
25.04.2024, 15:57
РейтингРейтингРейтингРейтингРейтинг23.5к
В современном мире медицина сталкивается с множеством вызовов, среди которых ...
Подробнее
Неинтересно
0
1
Акимов Дмитрий Михайлович
Подписчиков 61
позавчера, 10:45
РейтингРейтингРейтингРейтингРейтинг9795
В нашей статье мы рассмотрим последние технологические новинки в области робототехники, включая ...
Подробнее
Неинтересно
0
2