Соучредитель Google DeepMind Мустафа Сулейман предупреждает, что искусственный интеллект может вызвать следующую пандемию
Когда технологические гиганты предупреждают о виртуальных вирусах

БЫВШИЙ ГЕНЕРАЛЬНЫЙ ДИРЕКТОР GOOGLE И ПИОНЕР ИСКУССТВЕННОГО ИНТЕЛЛЕКТА МУСТАФА СУЛЕЙМАН ПРЕДУПРЕДИЛ О ПОТЕНЦИАЛЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА ДЛЯ МАНИПУЛИРОВАНИЯ ПАТОГЕНАМИ. ПОСКОЛЬКУ ГРАНИЦЫ МЕЖДУ БИОЛОГИЕЙ И ТЕХНОЛОГИЯМИ СТИРАЮТСЯ, МИР ТЕХНОЛОГИЙ ПЫТАЕТСЯ РАЗОБРАТЬСЯ В ЭТИКЕ И ПОСЛЕДСТВИЯХ СВОИХ ТВОРЕНИЙ. ЧТО ДАЕТ НАМ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ?
В мире, где мы все еще сталкиваемся с последствиями биологических пандемий, кто бы мог подумать, что нам также придется беспокоиться о цифровых пандемиях? Но технологические магнаты предупреждают нас о потенциальной опасности дикого искусственного интеллекта. Нет, мы не говорим о том, что ваша Siri внезапно отказывается устанавливать утренний будильник. Мы углубляемся в область, где искусственный интеллект встречается с биологией, и каков результат? Ну, они могут быть... заразными.
Соучредитель Google DeepMind: Искусственный интеллект становится все более опасным и угрожающим! Мустафа Сулейман
«У нас опасная работа» — это не фраза из трейлера научно-фантастического фильма, а строгое предупреждение пионера искусственного интеллекта и бывшего генерального директора Google Мустафы Сулеймана . В недавнем выпуске подкаста " Дневник генерального директора " Сулейман нарисовал довольно мрачную картину будущего. Представьте себе мир, в котором дикие системы искусственного интеллекта создают синтетические патогены, которые более опасны, чем все, что когда-либо создавала для нас природа. Более заразные и смертоносные. «Звучит как сюжет блокбастера , не так ли?» Но Сулейман считает, что это потенциальная реальность, с которой нам, возможно, придется столкнуться.
В чем суть проблемы? Демократизация технологий искусственного интеллекта. По мере того, как передовые инструменты искусственного интеллекта становятся все более широко используемыми, вероятность злоупотреблений возрастает в геометрической прогрессии. Это все равно, что дать всем рецепт опасного зелья и надеяться, что у всех добрые намерения. Сулейман выступал за «стратегию сдерживания» искусственного интеллекта, которую он сравнил со стратегией НАТО по созданию ядерного оружия. Короче говоря: не у каждого должны быть ключи от королевства.
Но Сулейман не единственный, кто предупреждает. Сообщество ИИ, в том числе такие, как Илон Маск и Марк Цукерберг , выразило обеспокоенность по поводу неконтролируемого роста и использования искусственного интеллекта. Выдержки из будущей биографии Маска показывают его попытки обсудить потенциальную опасность искусственного интеллекта с лидерами политики и технологий, хотя и с ограниченным успехом.
Пока мир технологий готовится к саммиту по искусственному интеллекту в Вашингтоне , округ Колумбия, повестка дня ясна: обратиться к слону в комнате. Или, в данном случае, на сервере находится потенциальный цифровой вирус. Объединив самые яркие умы в области технологий, мы можем только надеяться, что они смогут найти решение до того, как наше антивирусное программное обеспечение потребует обновления для борьбы с «патогенами, созданными ИИ».
Поскольку искусственный интеллект продолжает революционизировать наш мир, необходимо проявлять осторожность. В конце концов, как выразилась некая вымышленная паутинка-бабочка: «С большой силой приходит и большая ответственность». В эпоху искусственного интеллекта это утверждение как нельзя более справедливо.