Straight Straight Forward
Straight S.F. Подписчиков: 239
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 13к

Госдепартамент предупреждает об угрозе «вымирания» человечества из-за развития искусственного интеллекта

1 комментарий
Эта публикация уже заработала 0,08 рублей за дочитывания
Зарабатывать

Госдепартамент предупреждает об угрозе «вымирания» человечества из-за развития искусственного интеллекта

Государственный департамент забил тревогу по поводу угрозы «уровня исчезновения», которую ИИ представляет для будущего человечества.

В докладе Gladstone AI содержится призыв к созданию официального органа для срочного регулирования развития ИИ, подчеркивая риски для национальной безопасности и потенциальную возможность уничтожения человечества.

Yournews.com сообщает: В докладе под названием «План действий по повышению безопасности и защищенности передового искусственного интеллекта» , подготовленном консалтинговой фирмой Gladstone AI по заказу Госдепартамента, содержится призыв к усилению государственного надзора за искусственным интеллектом (ИИ), чтобы смягчить «срочные и растущие риски для национальной безопасности» и предотвратить «угрозу вымирания человеческому виду».

В докладе предлагается создать новое федеральное агентство, которому будет поручено строгое регулирование развития ИИ, включая введение ограничений на вычислительную мощность, используемую системами ИИ, что ограничит технологический прогресс до уровня, близкого к текущим возможностям.

Рекомендации консалтинговой компании стали ответом на неоднозначные результаты, связанные с взаимодействием общественности с технологиями искусственного интеллекта, такими как ChatGPT, который подвергался критике за распространение дезинформации, политическую цензуру и демонстрацию аморального поведения, а также случаи злоупотреблений со стороны отдельных лиц.

Основное внимание в докладе уделяется развитию общего искусственного интеллекта (AGI), определяемого как ИИ, способный превосходить людей в экономически и стратегически значимых областях. В докладе предупреждается о сценарии «потери контроля», при котором будущий ИИ может превзойти усилия по сдерживанию, сравнивая потенциальное воздействие с воздействием оружия массового уничтожения и предполагая возможность исчезновения человечества.

Повторяя опасения, высказанные генеральным директором OpenAI Сэмом Альтманом и другими в публичном заявлении о рисках ИИ, в отчете подчеркивается необходимость глобального приоритета в снижении рисков исчезновения ИИ, сравнимых с пандемиями и ядерной войной.

Альтман подчеркнул проблему приостановки исследований в области ИИ из-за международной конкуренции, особо отметив, что прекращение исследований в США не приведет к остановке в Китае. Он выступал за разработку стандартов предосторожности, которые могли бы быть приняты во всем мире в соответствии с рекомендациями отчета.

Предлагаемое федеральное агентство будет обеспечивать соблюдение строгих правил исследований ИИ, включая ограничения на вычислительную мощность и криминализацию несанкционированного распространения кода ИИ. Авторы отчета утверждают, что без таких мер конкурентное стремление к развитию ОИИ может привести к безрассудному прогрессу со стороны «передовых» компаний, которые будут ставить скорость выше безопасности и защищенности. Этот нормативный подход направлен на замедление разработки программного обеспечения, чтобы предотвратить преждевременное появление AGI из существующих или будущих технологий.

Однако в отчете признается ограниченность таких правил, отмечая вероятность того, что исследователи ИИ переедут в менее ограничительные юрисдикции для продолжения своей работы, подчеркивая сложность управления развитием ИИ в глобальном контексте.

https://thepeoplesvoice.tv/state-department-warns-of-extinction-level-threat-due-to-rise-of-ai/

1 комментарий
Понравилась публикация?
1 / -1
нет
0 / 0
Подписаться
Донаты ₽
Комментарии: 1
Отписаться от обсуждения Подписаться на обсуждения
Популярные Новые Старые

Выводы были основаны на интервью с более чем 200 людьми в течение года, включая топ-менеджеров ведущих компаний, занимающихся искусственным интеллектом, исследователей кибербезопасности, экспертов по оружию массового поражения и чиновников национальной безопасности в правительстве.

В докладе, опубликованном на этой неделе Gladstone AI, прямо говорится, что самые передовые системы искусственного интеллекта могут, в худшем случае, «представить угрозу вымирания человеческому виду»

+1 / 0
картой
Ответить
раскрыть ветку (0)

Трампу все равно на нежелание Гренландии стать частью США. Это "их проблема"

Глава гренландского правительства Йенс-Фредерик Нильсен озвучил глас своего народа, что в условиях сложившегося политического кризиса на острове и выбора между Данией и США они выбирают Данию.

Не играй с жизнью

Русский народ любит экстрим и очень часто, под восторженные крики приятелей, делает опасные и несуразные вещи. И тут дело не в возрасте, а в задоре, в азарте и стремлении доказать всем, что я это смог.
00:22
Поделитесь этим видео

Теракт в Перми предотвратили!

Не смотря на активные действия нашей армии против украинских нацистов, действия террористов по указке украинских спецслужб не прекращаются. Так Федеральной службой безопасности задержан мужчина,...

Статья 1. Великие пророки о будущем России: Научный расчёт против «мусорных» гаданий

"Горизонт Пробуждения Россия на пороге Новой Эры", иллюстрация создана сетью Джемини В начале 2026 года интернет переполнен «сенсационными» предсказаниями о судьбе нашей страны. Чтобы не утонуть в этом шуме,...

Выгодно! Экономия на продуктах в ДИКСИ-доставке с Альфа-Банком🔷🔷🔷

Не секрет, что размер пенсий не радует многих пожилых россиян... Поэтому приходится крутиться и вертеться, чтобы сэкономить, так как не все пенсионеры по определённым причинам могут вести трудовую деятельность:...
Главная
Коллективные
иски
Добавить Видео Опросы