У мира есть два года, чтобы защитить человечество от ИИ.
Краткое содержание :
Мэтт Клиффорд, советник целевой группы по ИИ при премьер-министре Британии сравнивает с "моментом января 2020 года Ковида", когда "экспоненциальная" угроза нарастала внезапно.
У мира есть два года, чтобы остановить искусственный интеллект (ИИ), угрожающий человечеству, предупредил советник по этой технологии.
Существуют "всевозможные риски сейчас и в будущем" от "довольно страшной" технологии, и они должны быть "очень важными в повестке дня политиков".
Он сказал, что главным среди этих рисков является то, что "мы фактически создаем новый интеллект, превосходящий человеческий", и предупредил, что "сегодня ИИ можно использовать для создания новых рецептов биологического оружия или для проведения крупномасштабных кибератак".
Он сравнил нынешнюю ситуацию с "моментом января 2020 года Ковида", когда технология развивается "экспоненциальными" темпами, но многие относятся к ней благодушно, потому что "сегодня для многих это звучит так фантастично".
Регулировать их в глобальном масштабе
В мае руководители крупнейших в мире лабораторий ИИ опубликовали совместное заявление, подписанное более чем 350 руководителями и исследователями, в котором говорилось, что такие технологии, как ChatGPT, могут быть не менее опасны, чем ядерная война, и что "снижение риска вымирания от ИИ должно стать глобальным приоритетом".
Отвечая на вопрос в программе "Первый выпуск" на Talk TV с Томом Ньютоном Данном, согласен ли он с предупреждением Элона Маска о риске угрозы человеческой расе со стороны машин, г-н Клиффорд, который также возглавляет правительственное Агентство перспективных исследований и изобретений, сказал, что риск "не нулевой".
"Если вернуться к таким вещам, как биологическое оружие или кибернетическое, то можно получить действительно очень опасные угрозы для людей, которые могут убить многих людей, а не всех, просто от того, где, по нашим ожиданиям, модели будут находиться через два года", - сказал он.
"Я думаю, что именно на этом нужно сосредоточиться сейчас - как нам убедиться, что мы знаем, как контролировать эти модели, потому что сейчас мы этого не делаем, и как нам найти какой-то путь для их регулирования в глобальном масштабе, потому что, я думаю, недостаточно регулировать их на национальном уровне".
Что делать с ИИ
Проголосуйте, чтобы увидеть результаты