Илон Маск подписал открытое письмо, призывающее лаборатории искусственного интеллекта нажать на тормоза

В открытом письме, под которым подписались сотни крупнейших представителей технологического мира, включая Илона Маска, содержится призыв к ведущим мировым лабораториям искусственного интеллекта приостановить обучение новых сверхмощных систем на шесть месяцев, заявив, что последние достижения в области ИИ представляют "глубокий риск для общества и человечества".
Письмо пришло всего через две недели после публичного выпуска OpenAI GPT-4, самой мощной системы ИИ из когда-либо выпущенных, что заставило исследователей сократить свои ожидания относительно того, когда появится AGI - искусственный интеллект общего назначения, превосходящий человеческие когнитивные способности. Многие эксперты опасаются, что, поскольку гонка вооружений ИИ накаляется, человечество во сне идет к катастрофе.
"Продвинутый ИИ может стать глубоким изменением в истории жизни на Земле, и его следует планировать и управлять им с соответствующим вниманием и ресурсами", - говорится в письме. "К сожалению, такого планирования и управления не происходит, несмотря на то, что в последние месяцы лаборатории ИИ ввязались в неконтролируемую гонку по разработке и внедрению все более мощных цифровых разумов, которые никто - даже их создатели - не может понять, предсказать или надежно контролировать".

В списке подписавших обращение, наряду с Маском, значатся имена более 1000 человек, включая соучредителя Apple Стива Возняка, автора книги Sapiens Юваля Ноя Харари и некоторых выдающихся ученых, ответственных за многочисленные прорывы в области машинного обучения. По состоянию на вторник никто из сотрудников OpenAI не подписал письмо, хотя имя генерального директора Сэма Альтмана ненадолго появилось, а затем исчезло из списка подписавших. По меньшей мере четыре сотрудника Google, включая трех из дочерней лаборатории ИИ DeepMind, Эмад Мостак, генеральный директор Stability AI и Тристан Харрис, исполнительный директор Центра гуманных технологий, также появились в списке. TIME не смог проверить подлинность всех подписей.
"Современные системы искусственного интеллекта в настоящее время становятся конкурентоспособными по отношению к человеку при выполнении общих задач", - говорится в письме, которое было размещено на сайте Института будущего жизни. "Мы должны спросить себя: Должны ли мы позволить машинам наводнить наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, включая те, которые приносят удовлетворение? Должны ли мы развивать нечеловеческие разумы, которые в конечном итоге превзойдут, перехитрят, устареют и заменят нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны быть переданы неизбираемым технологическим лидерам".
В письме содержится призыв ко всем лабораториям ИИ согласиться использовать предложенную шестимесячную паузу для продолжения исследований в области безопасности. "Лаборатории ИИ и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для передового проектирования и разработки ИИ, которые будут проходить строгий аудит и контролироваться независимыми внешними экспертами", - говорится в письме. "Эти протоколы должны гарантировать, что системы, придерживающиеся их, безопасны вне всяких разумных сомнений". Авторы письма отмечают, что они не призывают приостановить развитие ИИ в целом, а скорее "отступить от опасной гонки к все более крупным непредсказуемым моделям "черного ящика" с эмерджентными возможностями".
Гэри Маркус, подписавший открытое письмо и автор книги "Перезагрузка ИИ", сказал TIME, что добавил свое имя, потому что чувствует ответственность за то, чтобы высказаться. "Существуют серьезные риски в ближайшей и отдаленной перспективе, а корпоративная ответственность за ИИ, похоже, потеряла моду именно тогда, когда человечество нуждается в ней больше всего", - сказал он. "Быстрое вторжение на неизведанную территорию, когда на карту поставлено так много, не кажется отличным выходом. Если [корпорации] не хотят относиться к этим рискам достаточно серьезно, важно, чтобы остальные высказались".

Симеон Кампос, генеральный директор стартапа SaferAI, занимающегося безопасностью ИИ, сказал TIME, что подписал письмо, потому что невозможно управлять рисками систем, когда даже изобретатели этих систем не знают точно, как они работают, не знают, на что они способны, и не знают, как установить ограничения на их поведение. "Что мы делаем в настоящее время?" сказал Кампос. "Мы масштабируем такие системы до беспрецедентных уровней возможностей в гонке на полной скорости с преобразующими последствиями для общества. Мы должны замедлить развитие этих систем, чтобы дать обществу возможность адаптироваться и ускорить создание альтернативных архитектур AGI, которые безопасны и формально верифицируемы".
Открытое письмо заканчивается на обнадеживающей ноте. "Общество уже делало паузу [раньше] в отношении других технологий с потенциально катастрофическими последствиями для общества. Мы можем сделать это и здесь. Давайте наслаждаться долгим летом ИИ, а не бросаться без подготовки в осень".