Кузнецов Руслан Дмитриевич
Кузнецов Р.Д. Подписчиков: 21

Илон Маск подписал открытое письмо, призывающее лаборатории искусственного интеллекта нажать на тормоза

1 дочитывание
0 комментариев
Эта публикация уже заработала 0,05 рублей за дочитывания
Зарабатывать

Илон Маск подписал открытое письмо, призывающее лаборатории искусственного интеллекта нажать на тормоза

В открытом письме, под которым подписались сотни крупнейших представителей технологического мира, включая Илона Маска, содержится призыв к ведущим мировым лабораториям искусственного интеллекта приостановить обучение новых сверхмощных систем на шесть месяцев, заявив, что последние достижения в области ИИ представляют "глубокий риск для общества и человечества".

Письмо пришло всего через две недели после публичного выпуска OpenAI GPT-4, самой мощной системы ИИ из когда-либо выпущенных, что заставило исследователей сократить свои ожидания относительно того, когда появится AGI - искусственный интеллект общего назначения, превосходящий человеческие когнитивные способности. Многие эксперты опасаются, что, поскольку гонка вооружений ИИ накаляется, человечество во сне идет к катастрофе.

"Продвинутый ИИ может стать глубоким изменением в истории жизни на Земле, и его следует планировать и управлять им с соответствующим вниманием и ресурсами", - говорится в письме. "К сожалению, такого планирования и управления не происходит, несмотря на то, что в последние месяцы лаборатории ИИ ввязались в неконтролируемую гонку по разработке и внедрению все более мощных цифровых разумов, которые никто - даже их создатели - не может понять, предсказать или надежно контролировать".

Илон Маск подписал открытое письмо, призывающее лаборатории искусственного интеллекта нажать на тормоза

В списке подписавших обращение, наряду с Маском, значатся имена более 1000 человек, включая соучредителя Apple Стива Возняка, автора книги Sapiens Юваля Ноя Харари и некоторых выдающихся ученых, ответственных за многочисленные прорывы в области машинного обучения. По состоянию на вторник никто из сотрудников OpenAI не подписал письмо, хотя имя генерального директора Сэма Альтмана ненадолго появилось, а затем исчезло из списка подписавших. По меньшей мере четыре сотрудника Google, включая трех из дочерней лаборатории ИИ DeepMind, Эмад Мостак, генеральный директор Stability AI и Тристан Харрис, исполнительный директор Центра гуманных технологий, также появились в списке. TIME не смог проверить подлинность всех подписей.

"Современные системы искусственного интеллекта в настоящее время становятся конкурентоспособными по отношению к человеку при выполнении общих задач", - говорится в письме, которое было размещено на сайте Института будущего жизни. "Мы должны спросить себя: Должны ли мы позволить машинам наводнить наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, включая те, которые приносят удовлетворение? Должны ли мы развивать нечеловеческие разумы, которые в конечном итоге превзойдут, перехитрят, устареют и заменят нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны быть переданы неизбираемым технологическим лидерам".

В письме содержится призыв ко всем лабораториям ИИ согласиться использовать предложенную шестимесячную паузу для продолжения исследований в области безопасности. "Лаборатории ИИ и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для передового проектирования и разработки ИИ, которые будут проходить строгий аудит и контролироваться независимыми внешними экспертами", - говорится в письме. "Эти протоколы должны гарантировать, что системы, придерживающиеся их, безопасны вне всяких разумных сомнений". Авторы письма отмечают, что они не призывают приостановить развитие ИИ в целом, а скорее "отступить от опасной гонки к все более крупным непредсказуемым моделям "черного ящика" с эмерджентными возможностями".

Гэри Маркус, подписавший открытое письмо и автор книги "Перезагрузка ИИ", сказал TIME, что добавил свое имя, потому что чувствует ответственность за то, чтобы высказаться. "Существуют серьезные риски в ближайшей и отдаленной перспективе, а корпоративная ответственность за ИИ, похоже, потеряла моду именно тогда, когда человечество нуждается в ней больше всего", - сказал он. "Быстрое вторжение на неизведанную территорию, когда на карту поставлено так много, не кажется отличным выходом. Если [корпорации] не хотят относиться к этим рискам достаточно серьезно, важно, чтобы остальные высказались".

Илон Маск подписал открытое письмо, призывающее лаборатории искусственного интеллекта нажать на тормоза

Симеон Кампос, генеральный директор стартапа SaferAI, занимающегося безопасностью ИИ, сказал TIME, что подписал письмо, потому что невозможно управлять рисками систем, когда даже изобретатели этих систем не знают точно, как они работают, не знают, на что они способны, и не знают, как установить ограничения на их поведение. "Что мы делаем в настоящее время?" сказал Кампос. "Мы масштабируем такие системы до беспрецедентных уровней возможностей в гонке на полной скорости с преобразующими последствиями для общества. Мы должны замедлить развитие этих систем, чтобы дать обществу возможность адаптироваться и ускорить создание альтернативных архитектур AGI, которые безопасны и формально верифицируемы".

Открытое письмо заканчивается на обнадеживающей ноте. "Общество уже делало паузу [раньше] в отношении других технологий с потенциально катастрофическими последствиями для общества. Мы можем сделать это и здесь. Давайте наслаждаться долгим летом ИИ, а не бросаться без подготовки в осень".

Понравилась публикация?
8 / 0
нет
0 / 0
Подписаться
Донаты ₽

Нейросети: угроза или помощник? Что на самом деле думают россияне

Нейросети сегодня у всех на слуху. Одни их боятся, другие не могут без них работать. А как на самом деле к ним относится большинство? Ответ даёт масштабный опрос ФОМ. Оказывается, в обществе — тихий раскол:...

Цифровое бессмертие: душа, отлитая в данных.

Мы вступаем в эпоху, где понятие «наследие» переживает фундаментальную трансформацию. От высеченных в камне иероглифов и пожелтевших писем — к интерактивным цифровым сущностям, способным вести диалог с будущим.

Джеффри Хинтон предупреждает о 2026 годе: искусственный интеллект сможет заменить «очень, очень много рабочих мест»

В недавнем интервью программе State of the Union на CNN Хинтон подробно изложил свои прогнозы, назвав 2025 год поворотным для ИИ. Именно в этих «чудесных вещах» Хинтон видит огромный потенциал:...

Яндекс Go доверил выбор маршрута ИИ

Иногда кажется, что город живёт своей жизнью и подстраиваться под него приходится вручную: проверять погоду, смотреть пробки, гадать, приедет ли такси быстро или проще пройтись пешком. В Яндекс Go решили,...

Уничтожение человечества: как по мнению ИИ это надо делать. Жду комментариев

Мы делаем друг с другом одну и ту же ошибку: покупаем удобство в обмен на смысл. Сегодня удобнее оставаться дома, сегодня проще не читать, не отвечать, не жертвовать своим комфортом ради общего блага.

Звёздное сияние Ижоры в Межстоличьи /Статья третья незапланированная /Интермедия.

У меня есть невыполненное обязательство перед собой. "Звездное сияние Ижоры в Межстоличьи. Часть вторая "Жар-птица"" Я действительно нашёл несколько статей, и они постоянно «висят» на экране моего монитора,...

Искусственный интеллект и виртуальная реальность: главные интернет-тренды ноября 2025

В ноябре 2025 года в интернете продолжают активно обсуждать темы искусственного интеллекта и виртуальной реальности. Массовое внедрение генеративных нейросетей, которые теперь создают не только тексты,
Главная
Коллективные
иски
Добавить Видео Опросы