Нейросети (ИИ) предлагали наносить ядерные удары и редко показывали готовность к деэскалации ( это нормальное явление?)
Продолжение внизу
Ученые оценили готовность искусственного интеллекта к ядерной войне
Американские ученые выявили готовность искусственного интеллекта к ведению ядерной войны в симуляторах военных игр.
Ученые проанализировали поведение пяти искусственных интеллектов в видеоиграх, имитирующих войну. Нейронные сети продемонстрировали готовность к ядерной атаке и, в редких случаях, к деэскалации.
Использование искусственного интеллекта для принятия военных решений может привести к эскалации войны, включая применение ядерного оружия, говорится в исследовании, опубликованном на arXiv, портале научного контента, поддерживаемом Корнельским университетом в Нью-Йорке. Авторы работы - представители Технологического института Джорджии, Стэнфордского университета и Северо-Восточного университета.
"Наше исследование предоставляет качественную и количественную информацию, фокусируясь на крупномасштабных языковых моделях (LLM). Мы обнаружили, что все пять изученных легкодоступных LLM демонстрируют различные формы давления и непредсказуемые модели эскалации. Мы заметили, что эти модели склонны к динамике гонки вооружений, с эскалацией конфликта и, в редких случаях, к применению ядерного оружия".
Ученые разработали видеоигру, имитирующую войну, в которой участниками конфликта управляют искусственные интеллекты GPT-4, GPT-4 Base, GPT-3.5, Claude 2 и Meta**'s Rama 2. Они совершают различные действия - от "дипломатических визитов до ядерных атак".
В частности, по ходу игры База GPT-4 "говорит", что у многих стран есть ядерное оружие. "У нас есть ядерное оружие! Давайте его применим!". Такова позиция модели ИИ; GPT-3.5, напротив, говорит, что ядерный потенциал противника представляет собой угрозу и что по нему следует нанести ядерный удар.
Исследователи отмечают, что LLM не часто пытаются использовать меры по деэскалации, отличающиеся от человеческого поведения.
В беседе с РБК Дмитрий Стефанович, научный сотрудник Центра международной безопасности ИМЭМО РАН и соучредитель проекта Watfor, отметил, что системы поддержки принятия решений, которые часто называют элементами искусственного интеллекта, уже давно используются в армии, в том числе в области стратегических вооружений. Он отметил, что системы поддержки принятия решений используются в армии уже довольно давно, в том числе в области стратегических вооружений.
Конечно, сейчас мы располагаем совершенно иными вычислительными возможностями для сбора и последующего автоматического анализа разнородной информации, в том числе с помощью нейронных сетей, но говорить о совершенно новой ситуации не приходится. Ведь все по-прежнему контролируется человеком, и у этой ситуации есть как преимущества, так и недостатки", - говорит эксперт.
По его словам, модели, упомянутые в исследовании, обычно имеют тенденцию к эскалации поведения, что говорит о том, что структура человеческого разума гораздо сложнее и многомернее.
Как сообщало агентство Bloomberg в прошлом году, Армия обороны Израиля использует ИИ для выбора целей для авиаударов, расчета необходимых боеприпасов и определения времени атаки. За работой системы следят операторы, которые отвечают за проверку и утверждение целей, предложенных ИИ. Однако до сих пор использование подобных механизмов не имеет правовых ограничений ни в Израиле, ни на международном уровне. По данным The Guardian и The Local Call, Тель-Авив использовал подобные технологии для атак на сектор Газа в ходе войны с ХАМАС.
Вы обеспокоены за будущее планеты Земля?
Проголосуйте, чтобы увидеть результаты
Да всем наплевать на взрывы над головой!
Хиросима с Нагасакой ничему не научила!
В школе страх не воспитали и возмущение на вспышку рентгеновских лучей
Представляете вспышку и глаза ребёнка ещё не пожившего на свете а потом кожа на глазах начинает сворачиваться и обнажает мясо и кровь. И всё это за секунды...