Госдепартамент предупреждает об угрозе «вымирания» человечества из-за развития искусственного интеллекта
Государственный департамент забил тревогу по поводу угрозы «уровня исчезновения», которую ИИ представляет для будущего человечества.
В докладе Gladstone AI содержится призыв к созданию официального органа для срочного регулирования развития ИИ, подчеркивая риски для национальной безопасности и потенциальную возможность уничтожения человечества.
Yournews.com сообщает: В докладе под названием «План действий по повышению безопасности и защищенности передового искусственного интеллекта» , подготовленном консалтинговой фирмой Gladstone AI по заказу Госдепартамента, содержится призыв к усилению государственного надзора за искусственным интеллектом (ИИ), чтобы смягчить «срочные и растущие риски для национальной безопасности» и предотвратить «угрозу вымирания человеческому виду».
В докладе предлагается создать новое федеральное агентство, которому будет поручено строгое регулирование развития ИИ, включая введение ограничений на вычислительную мощность, используемую системами ИИ, что ограничит технологический прогресс до уровня, близкого к текущим возможностям.
Рекомендации консалтинговой компании стали ответом на неоднозначные результаты, связанные с взаимодействием общественности с технологиями искусственного интеллекта, такими как ChatGPT, который подвергался критике за распространение дезинформации, политическую цензуру и демонстрацию аморального поведения, а также случаи злоупотреблений со стороны отдельных лиц.
Основное внимание в докладе уделяется развитию общего искусственного интеллекта (AGI), определяемого как ИИ, способный превосходить людей в экономически и стратегически значимых областях. В докладе предупреждается о сценарии «потери контроля», при котором будущий ИИ может превзойти усилия по сдерживанию, сравнивая потенциальное воздействие с воздействием оружия массового уничтожения и предполагая возможность исчезновения человечества.
Повторяя опасения, высказанные генеральным директором OpenAI Сэмом Альтманом и другими в публичном заявлении о рисках ИИ, в отчете подчеркивается необходимость глобального приоритета в снижении рисков исчезновения ИИ, сравнимых с пандемиями и ядерной войной.
Альтман подчеркнул проблему приостановки исследований в области ИИ из-за международной конкуренции, особо отметив, что прекращение исследований в США не приведет к остановке в Китае. Он выступал за разработку стандартов предосторожности, которые могли бы быть приняты во всем мире в соответствии с рекомендациями отчета.
Предлагаемое федеральное агентство будет обеспечивать соблюдение строгих правил исследований ИИ, включая ограничения на вычислительную мощность и криминализацию несанкционированного распространения кода ИИ. Авторы отчета утверждают, что без таких мер конкурентное стремление к развитию ОИИ может привести к безрассудному прогрессу со стороны «передовых» компаний, которые будут ставить скорость выше безопасности и защищенности. Этот нормативный подход направлен на замедление разработки программного обеспечения, чтобы предотвратить преждевременное появление AGI из существующих или будущих технологий.
Однако в отчете признается ограниченность таких правил, отмечая вероятность того, что исследователи ИИ переедут в менее ограничительные юрисдикции для продолжения своей работы, подчеркивая сложность управления развитием ИИ в глобальном контексте.
https://thepeoplesvoice.tv/state-department-warns-of-extinction-level-threat-due-to-rise-of-ai/