Искусственный интеллект. Риск вымирания человечества
Эксперты призывают принять меры по снижению риска вымирания от искусственного интеллекта.

Это "должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война", - говорится в новом заявлении, подписанном десятками критиков и сторонников искусственного интеллекта.
Во вторник 80 ученых в области искусственного интеллекта и более 200 "других видных деятелей" подписали заявление, в котором говорится, что "снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война".
Предупреждение в одном предложении от разнообразной группы ученых, инженеров, руководителей компаний, академиков и других заинтересованных лиц не вдается в подробности об экзистенциальных угрозах, создаваемых ИИ. Вместо этого оно призвано "открыть дискуссию" и "создать общее представление о растущем числе экспертов и общественных деятелей, которые также серьезно относятся к некоторым из наиболее серьезных рисков, связанных с передовым ИИ", по словам Центра безопасности ИИ, американской некоммерческой организации, на сайте которой размещено это заявление.
Главный подписант Джеффри Хинтон, которого часто называют "крестным отцом ИИ", бьет тревогу уже несколько недель. В начале этого месяца 75-летний заслуженный профессор информатики Университета Торонто объявил, что он уволился с работы в Google, чтобы более свободно говорить об опасностях, связанных с ИИ.
До своего ухода из Google Хинтон сказал в марте в интервью телеканалу CBS News, что потенциальное воздействие быстро развивающейся технологии сравнимо с "промышленной революцией, или электричеством, или, может быть, колесом".
Отвечая на вопрос о вероятности того, что технология "уничтожит человечество", Хинтон предупредил, что "это немыслимо".
Этот пугающий потенциал не обязательно связан с существующими в настоящее время инструментами ИИ, такими как ChatGPT, а скорее с так называемым "искусственным интеллектом общего назначения" (ИИОН), который включает в себя компьютеры, разрабатывающие и действующие на основе собственных идей.
"Еще совсем недавно я думал, что пройдет от 20 до 50 лет, прежде чем мы получим ИИ общего назначения", - сказал Хинтон в интервью CBS News. "Теперь я думаю, что это может произойти через 20 лет или даже меньше".
На вопрос издания, может ли это произойти раньше, Хинтон признал, что не исключает возможности появления ИИ в течение пяти лет, что значительно отличается от того, что было несколько лет назад, когда он сказал бы: "Не может быть".
"Мы должны хорошо подумать о том, как это контролировать", - сказал Хинтон. На вопрос, возможно ли это, он ответил: "Мы не знаем, мы еще не были там, но мы можем попробовать".
Пионер ИИ далеко не одинок. Согласно отчету "Индекс ИИ 2023", ежегодной оценке быстрорастущей отрасли, опубликованному в прошлом месяце Стэнфордским институтом искусственного интеллекта, ориентированного на человека, 57% опрошенных компьютерщиков заявили, что "недавний прогресс продвигает нас к AGI", а 58% согласились с тем, что "AGI является важной проблемой".
Хотя результаты исследования были опубликованы в середине апреля, опрос 327 экспертов Стэнфорда в области обработки естественного языка - отрасли компьютерных наук, имеющей важное значение для разработки чат-ботов, - был проведен в мае и июне, за несколько месяцев до появления ChatGPT от OpenAI в ноябре.
Генеральный директор OpenAI Сэм Альтман, подписавший заявление, распространенное во вторник Центром безопасности ИИ, написал в февральском блоге: "Риски могут быть чрезвычайными. Неправильно настроенный сверхинтеллектуальный ИИ может нанести серьезный вред миру".
Однако в следующем месяце Альтман отказался подписать открытое письмо, призывающее ввести полугодовой мораторий на обучение систем ИИ выше уровня последнего чатбота OpenAI, GPT-4.
В письме, опубликованном в марте, говорится, что "мощные системы ИИ следует разрабатывать только тогда, когда мы уверены, что их эффект будет положительным, а риски - управляемыми".
Генеральный директор Tesla и Twitter Элон Маск был среди тех, кто призывал к паузе два месяца назад, но он "разрабатывает планы по запуску нового стартапа в области искусственного интеллекта для конкуренции с OpenAI", согласно Financial Times, что ставит вопрос о том, является ли его заявленная озабоченность "глубокими рисками технологии для общества и человечества" искренней или выражением корысти.
То, что Альтман и несколько других сторонников ИИ подписали заявление во вторник, повышает вероятность того, что инсайдеры, на кону которых стоят миллиарды долларов, пытаются продемонстрировать свою осведомленность о рисках, связанных с их продукцией, чтобы убедить чиновников в их способности к саморегулированию.
За пределами отрасли все громче звучат требования о необходимости жесткого государственного регулирования ИИ. Хотя до появления более опасных форм искусственного интеллекта еще несколько лет, уже сейчас есть все больше доказательств того, что существующие инструменты ИИ усиливают распространение дезинформации - от чат-ботов, распространяющих ложь, приложений для подмены лиц, создающих фальшивые видео, до клонированных голосов, совершающих мошенничество. Нынешний, непроверенный ИИ вредит людям и другими способами, в том числе когда автоматизированные технологии, развернутые страховщиками Medicare Advantage, в одностороннем порядке принимают решение о прекращении выплат, что приводит к преждевременному прекращению страховки для уязвимых пожилых людей.
Критики предупреждают, что в отсутствие оперативного вмешательства со стороны политиков нерегулируемый ИИ может нанести вред еще большему числу пациентов, получающих медицинскую помощь, подорвать основанную на фактах журналистику, ускорить разрушение демократии и привести к непреднамеренной ядерной войне. Другие распространенные опасения включают повсеместные увольнения работников и усугубление неравенства, а также массовый рост загрязнения окружающей среды углекислым газом.
В опубликованном в прошлом месяце отчете Public Citizenargains утверждается, что "пока не будут приняты значимые государственные меры по защите общества от вреда генеративного ИИ, нам необходима пауза".
"Предприятия внедряют потенциально опасные инструменты ИИ быстрее, чем их вред может быть понят или смягчен", - предупреждает в своем заявлении прогрессивная правозащитная группа.
"История не дает оснований полагать, что корпорации смогут самостоятельно регулировать известные риски - тем более, что многие из этих рисков являются такой же частью генеративного ИИ, как и корпоративная жадность", - продолжает наблюдательная группа. "Предприятия, спешащие внедрить эти новые технологии, играют в азартные игры с жизнями и средствами к существованию людей и, возможно, с самими основами свободного общества и пригодного для жизни мира".
Ранее в этом месяце президент Public Citizen Роберт Вайсман приветствовал новый план администрации Байдена по "продвижению ответственных американских инноваций в области искусственного интеллекта и защите прав и безопасности людей", но он также подчеркнул необходимость "более агрессивных мер" для "устранения угроз беглого корпоративного ИИ".
Вслед за Public Citizen международная группа врачей три недели назад в рецензируемом журнале BMJ Open Health предупредила, что ИИ "может представлять экзистенциальную угрозу для человечества", и потребовала ввести мораторий на разработку таких технологий до введения строгого государственного надзора.
ИИ "представляет собой ряд угроз для здоровья и благополучия человека", пишут врачи и другие эксперты. "С экспоненциальным ростом исследований и разработок ИИ, окно возможностей избежать серьезного и потенциально экзистенциального вреда закрывается".
По материалам зарубежной прессы
Источник: lifestyle.com