ВВС США запустили беспилотный истребитель с ИИ, который "может решать, когда и кого уничтожить".
Беспилотный полет самолёта с ИИ вызвал ряд вопросов о состоянии искусственного интеллекта и его способности убивать людей, будь то по команде другого человека или по собственному желанию.
Истребитель XQ-58A Valkyrie завершил недавнее испытание на возможность управления им с помощью искусственного интеллекта.
Самостоятельный полет искусственного интеллекта, проведенный ВВС США, вызвал у пользователей Twitter вопрос о том, можно ли его "использовать для убийства людей".
Недавний успешный полет беспилотного истребителя XQ-58A Valkyrie заставил некоторых забеспокоиться о состоянии воздушных боев и наземных ударов.
По мнению одного из пользователей Twitter, этические проблемы, связанные с подобным полетом, поднимают тревожный вопрос о "смертоносном оружии ИИ" и о том, может ли оно "само решать убивать или нет", а не по команде человека.
Один из пользователей сразу же привел сравнение с вымышленной компанией Skynet, уничтожающей мир, но недавний полет открыл дверь к тому, что может произойти, если ИИ повернет.
Руководитель отдела испытаний и эксплуатации ИИ полковник Такер Гамильтон сказал: В ходе миссии была проверена многоуровневая система безопасности на аппарате, управляемом ИИ самолетом без экипажа, и продемонстрировано решение агентом ИИ тактически значимой "проблемной задачи" в ходе воздушной операции.
Полет прошел успешно, и трехчасовое испытание на испытательном и тренировочном комплексе Эглин в штате Флорида (США) позволило получить представление о беспилотных полетах.
Полковник Гамильтон добавил: "Этот полет официально подтверждает возможность разработки агентов AI/ML, которые будут выполнять современные навыки полета "воздух-воздух" и "воздух-поверхность", которые сразу же могут быть перенесены в другие программы автономного управления".
Однако способность искусственного интеллекта выполнять задачи класса "воздух-поверхность" обеспокоила некоторых, кто усомнился в этичности программы.
Один из пользователей Twitter написал, что боевые самолеты совместного базирования "могут быть уязвимы для взлома или неисправностей, что приведет к жертвам среди гражданского населения".
Они также задались вопросом об "этических проблемах", которые возникают, если управляемые ИИ самолеты "принимают неконтролируемые решения об убийстве во время разработки".
Командующий бригадный генерал Скотт Кейн добавил: "ИИ станет важнейшим элементом будущих боевых действий и той скорости, с которой нам придется понимать оперативную картину и принимать решения".
"ИИ, автономные операции и человеко-машинные команды продолжают развиваться беспрецедентными темпами, и нам необходимы скоординированные усилия наших государственных, научных и промышленных партнеров, чтобы идти в ногу со вр
еменем".
источник: news.com
