Елена Владимировна
Елена Владимировна Подписчиков: 7051
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 2.1М

Управлять сверхразумным ИИ будет невозможно, ученые пришли к неутешительным выводам

30 дочитываний
5 комментариев
Эта публикация уже заработала 1,60 рублей за дочитывания
Зарабатывать

Инженеры всего мира работают над разработкой сверхразумного ИИ. Но ученые-компьютерщики, занятые в сфере теоретической информатики, считают, что человечество просто не сможет управлять сверхразумными машинами, когда они все-таки будут созданы. И это таит в себе большую опасность.

Ученые постоянно заняты разработкой сверхумных машин, которые могут управлять другими умными машинами. Гипотетический сверхразум, обладающий интеллектом, намного превосходящим разум самых ярких и одаренных людей, пугает некоторых специалистов. В научном мире давно ведется дискуссия о потенциально катастрофических рисках, связанных с неконтролируемым сверхразумным искусственным интеллектом.

При помощи теоретических расчетов команда ученых из Германии, Италии и других стран доказала, что, скорее всего, у человека не получится управлять сверхразумным ИИ. Также ученые изучили основные предложения по сдерживанию подобной системы и пришли к неутешительным выводам.

Представим сверхразумную систему ИИ, запрограммированную таким образом, чтобы она могла самостоятельно и независимо обучаться. Такая система при подключении к Интернету вполне может получить доступ ко всем данным, которые за все это время накопило человечество. В конечном итоге она будет способна заменить все ныне действующие программы и контролировать машины во всем мире.

Да, звучит как антиутопия (или все-таки утопия?), но ученые-компьютерщики решили исследовать эти риски при помощи теоретической информатики. Сможет ли ИИ излечить смертельные болезни, прекратить войны и предотвратить худшие сценарии климатической катастрофы? Или его создание уничтожит нас и машины захватят Землю, как в кино? Получится ли у нас вообще контролировать сверхразумные машины? Ведь нужны хоть какие-то гарантии, что они не будут угрожать человечеству.

В рамках своей теории ученые изучили разные подходы к управлению сверхразумным искусственным интеллектом.

В первую очередь, они рассматривали идею ограничения возможностей ИИ. Например, отрезать контакты с внешним миром — не давать ему доступ к Интернету и исключить связь с другими устройствами. Но это значительно бы уменьшило мощность системы и, возможно, она не смогла бы выполнять какие-то задания.

Вторая идея — с самого начала запрограммировать систему так, чтобы ее цели отвечали интересам человечества и, например, определенным этическим принципам. Однако и у этого подхода нашелся ряд ограничений.

В процессе исследования был разработан алгоритм сдерживания ИИ — фактически, это была гарантия невозможности причинить вред человечеству ни при каком развитии событий. В рамках этого алгоритма поведение ИИ моделируется таким образом, что он просто останавливается, когда становится опасным. Но анализ показал, что в существующей сейчас парадигме вычислений выстроить такой алгоритм принципиально невозможно.

Если рассмотреть проблему с точки зрения теоретической информатики, то выясняется: алгоритм, который мог бы дать ИИ задачу не уничтожать мир, способен случайным образом прекратить свои же операции. Если бы это случилось, то мы бы даже не знали, сработал ли алгоритм сдерживания опасного ИИ или еще ведется анализ угрозы.

То есть, фактически, любые алгоритмы сдерживания не работают и задача сдерживания ИИ невыполнима. Проще говоря, ни один алгоритм просто не способен определить, может ли ИИ нанести вред миру и человечеству, поэтому полное сдерживание ИИ в принципе невозможно из-за фундаментальных ограничений, присущих самим вычислениям.

Более того, исследователи говорят, что мы можем даже не знать, когда конкретно появятся сверхразумные машины. Точно по таким же причинам невозможно определить, превосходит ли интеллект той или иной машины человеческий разум.

Источник: https://clck.ru/U5zZg

Проголосовали: 12

Проголосуйте, чтобы увидеть результаты

5 комментариев
Понравилась публикация?
11 / 0
нет
0 / 0
Подписаться
Донаты ₽
Комментарии: 5
Отписаться от обсуждения Подписаться на обсуждения
Популярные Новые Старые

интересно.

+2 / 0
картой
Ответить
раскрыть ветку (0)

Разве может вообще ИИ заменить живого человека? Он может быть только помощником, но никак не главным.

+2 / 0
картой
Ответить
раскрыть ветку (0)

Очень прохладно относилась раньше к фантастике. Теперь меня поражает способность таких писателей-провидцев, и становится страшно! Конец этой цивилизации похоже наступит...

+2 / 0
картой
Ответить
раскрыть ветку (0)

Всё будет зависеть, от того, кто будет ХОЗЯИНОМ у ИИ,и какие цели будут перед ним поставлены, если как сейчас цель теневиков при помощи ковида, уничтожить как можно больше людей., то сами понимаете, что будет. :

+1 / 0
картой
Ответить
раскрыть ветку (0)

Дело в том, что никаким ученым не удастся создать сверхразумный искусственный интеллект. По очень простой причине - для этого как минимум надо иметь свой интеллект.

0
картой
Ответить
раскрыть ветку (0)

Частое развитие рака при определенной группе крови. Ученые провели исследование по выявлению склонности к онкологии молочной железы

После всех результатов, специалисты особо отметили факт того, что при наличии группы крови (рисковой) появление рака не обязательное. В ходе своих наблюдений, ученые назвали самую уязвимую группу крови - А(ll).

Учёные предупреждают: на Солнце возможны мощнейшие за 10 лет вспышки

Солнце демонстрирует тревожную активность. На его поверхности сформировалась одна из крупнейших за 10 лет групп пятен, способная породить вспышки экстремальной силы — уровня Х10 и выше. Специалисты подчёркивают,...

Таблеточка Виагры в помощь! Учёные предлагают пить мужской БАД для лечения глухоты

Милые мужчины, хорошая новость! Теперь достаточно прикинуться глухим, чтобы на законном основании употреблять знаменитый допинг для стимуляции потенции! Источник сообщает, что учёные из Чикаго и Майами,

Это момент, когда белуха возвращает телефон человеку, случайно уронившему его в воды гавани Норвегии

Киты-белухи считаются самыми интеллектуальными обитателями океана: они очень сообразительны, с удовольствием идут на контакт с человеком, легко обучаются самым невероятным трюкам.
00:20
Поделитесь этим видео

Синдром «цифрового выгорания»: почему вам лень посмотреть интересный фильм

Вы листаете ленту, видя анонс гениального фильма, но... вам лень его посмотреть. Вы заходите в книжный, но не можете себя заставить купить книгу. Это не лень и не депрессия. Это — синдром цифрового выгорания,...

Конец человечества близок. Ученые назвали пять реальных сценариев апокалипсиса

Кембриджский эксперт Уильям Хантер, кажется, всерьез обеспокоен нашим будущим. Daily Mail сообщает, что он представил пятерку самых вероятных сценариев гибели человечества, и, честно говоря, звучит эт...
Главная
Коллективные
иски
Добавить Видео Опросы