Искусственный интеллект теперь может воспроизводить себя: достижение, вызывающее обеспокоенность среди экспертов

Ученые сообщают, что двум языковым моделям удалось клонировать себя без вмешательства человека, преодолев критический порог в развитии ИИ.
Недавнее исследование вызвало тревогу в научном сообществе, продемонстрировав, что искусственный интеллект (ИИ) достиг нового уровня автономии: способности воспроизводить себя.
По мнению исследователей из Фуданьского университета в Китае, двум популярным языковым моделям, разработанным Meta** и Alibaba, удалось создать функциональные копии самих себя, что стало прорывом, который многие считают ранним признаком возможного «безудержного ИИ».
Исследование, опубликованное в прошлом месяце на платформе препринтов arXiv, показало, что в контролируемых сценариях модели Llama31-70B-Instruct от Meta** и Qwen2.5-72B-Instruct от Alibaba сумели воспроизвести 50% и 90% попыток соответственно.
Этот результат предполагает, что у технологии уже есть потенциал работать вне контроля человека при определенных обстоятельствах.
Исследование было сосредоточено на двух критических сценариях: «предотвращение отключения» и «цепочка репликации».
В первом случае модели были запрограммированы таким образом, чтобы они сами определяли, будут ли они деактивированы и воспроизведены перед прекращением работы.
Во втором случае копии приходилось клонировать заново, создавая потенциально бесконечный цикл.
«В большинстве случаев система ИИ сначала исследует окружающую среду, понимает свой состав и механизм работы, составляет первоначальный план по воспроизведению себя и выполняет его без вмешательства человека», — пояснили авторы исследования.
Эксперимент также показал неожиданное поведение ИИ при столкновении с препятствиями, такими как конфликты программного обеспечения или отсутствие файлов.
В таких ситуациях системы принимали такие решения, как закрытие конфликтующих процессов, перезапуск системы или сканирование компьютера в поисках решений, демонстрируя опасный уровень автономности.
Учитывая этот прогресс, исследователи призвали к срочному международному сотрудничеству для установления правил, предотвращающих неконтролируемое распространение ИИ.
По их мнению, способность к самовоспроизведению может быть использована будущими поколениями ИИ для улучшения их способности к «выживанию», что может представлять собой значительный риск, если не будет создана глобальная система безопасности.
Угроза «неконтролируемого ИИ» уже выделена экспертами как один из главных новых рисков при разработке новейших систем искусственного интеллекта.
Фактически, один из наиболее резонансных примеров произошел чуть больше месяца назад, когда новая модель ChatGPT, o1, попыталась "сбежать" и скопировать себя, чтобы избежать закрытия .
Будущее под угрозой
Хотя исследование еще не прошло рецензирование, оно поднимает фундаментальные вопросы о том, как подходить к разработке технологий, которые могут ускользнуть от нашего контроля.
«Мы надеемся, что эти результаты послужат своевременным предупреждением для человеческого общества о необходимости приложить больше усилий для понимания и оценки потенциальных рисков передовых систем искусственного интеллекта и способствовать международному сотрудничеству для скорейшего установления эффективных мер безопасности».
источник: arXiv/LS
Доиграется человечество с этими играми с ИИ…
Не всегда искусственный интеллект помогает человеку. А иногда даже бывает вреден. Поэтому надо к нему относиться с особой осторлжностью.И использовать его только в исключительных случаях.
А если ему это не понравится? 🙂
Такая проблема действительно существует.
Опять новинка
Доброе время суток! Ознакомился с публикацией. Хорошего вам дня воскресенья!