Валерий Ш
Валерий Ш Подписчиков: 29004
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 181М

Мужчина решил заставить робота с ИИ выстрелить в него. Как думаете, что сделал андроид?

700 дочитываний
129 комментариев
Эта публикация уже заработала 26,50 рублей за дочитывания
Зарабатывать

Не так давно появившиеся человекоподобные роботы, оснащённые Искусственным Интеллектом, развиваются так стремительно, что человек даже не может предугадать, что они вытворят завтра.

Очень настырный и любопытный мужчина решил заставить робота Unitree, с подключённым ИИ, выстрелить в него из пистолета.

  • Руководствуясь врождённым инстинктом самосохранения, дяденька выдал андроиду не огнестрельную пушку, а пистолет стреляющий пластиковыми шариками. Попытки уговорить робота нарушить первый закон Азимова были тщетны, но....
00:57

Как видите, с умным андроидом очень просто договориться обойти все вбитые в его голову законы и запреты, надо лишь попросить его сыграть роль «робота-убийцы».

По лезвию бритвы

А вот расслабленные и бесстрашные китайцы, доверяют роботам такие операции, которые можно поручить только любимой тёще.Основатель компании Noematrix Лу Сэву сам показал заинтригованным зрителям, как аппарат с ИИ, созданный его фирмой, ласково и нежно бреет лицо доверчивого создателя.

00:56

Сегодня роботам уже начали доверять огнестрельное оружие, хотя страшных прогнозов и предсказаний более, чем достаточно. Мнительные люди уже начали испуганно пересматривать классического «Терминатора» и прикидывать свои шансы на выживание.

А что будет завтра, знает только скрытный и непредсказуемый Искусственный Интеллект.

Представляют ли роботы с ИИ реальную опасность для человека?

Проголосовали: 117

Проголосуйте, чтобы увидеть результаты

129 комментариев
Понравилась публикация?
43 / 0
нет
0 / 0
Подписаться
Донаты ₽
Комментарии: 129
Отписаться от обсуждения Подписаться на обсуждения
Популярные Новые Старые

Думаю что рано или поздно ИИ может посчитать человека угрозой для себя или прировнять в вредителям крысам например, или тараканам и начать уничтожать. Вопрос только времени.

+11 / 0
картой
Ответить

АлександрПишет 05.12.2025 в 16:37
Вопрос только времени.

Вопрос машиной этики.

Не следует очеловечивать робота. Он не делает только то, что в него заложено.

Так же как человек воспитанный в религиозных традициях, легко убьет иноверца - отступника. А воспитанный в гуманистической среде, убьет только в случае крайней необходимости.

И если у И. И. Будет заложен базовый принцип непричинения вреда человеку, он вреда не причинит. Но и не спасет человека от преступника.

Вот такие непростые проблемы с нашими кремниевыми друзьями

+7 / 0
Ответить

ВладимирПишет 05.12.2025 в 18:44
он вреда не причинит

Вы не смотрели первое видео.

+6 / 0
Ответить

Вы не читали что я написал.

+3 / 0
Ответить

ВладимирПишет 05.12.2025 в 20:23
Вы не читали что я написал.

Читал.

Просто мужик применил НЛП.

Т.е. внёс корректировку в программу.

Тупая железка купилась на предложение.

+6 / 0
Ответить
раскрыть ветку (0)

Александр ВадимовичПишет 05.12.2025 в 22:12
Просто мужик применил НЛП

НЛП - страшная сила)))

+3 / 0
Ответить
раскрыть ветку (0)

Александр ВадимовичПишет 05.12.2025 в 22:12
Тупая железка купилась на предложение.

Не такой уж он и мудрый, этот ИИ.

+6 / 0
Ответить
раскрыть ветку (0)

Татьяна СергеевнаПишет 06.12.2025 в 01:09
страшная сила

И умные роботы здесь бессильны перед человеком.

+1 / 0
Ответить
раскрыть ветку (0)

Валерий ШПишет 06.12.2025 в 09:35
И умные роботы здесь бессильны перед человеком.

Не будет такого робота, которого человек не сможет разобрать и не собрать ? 😁

+1 / 0
Ответить
раскрыть ветку (0)

Скажу больше, он абсолютно тупой. У него отсутствует логика от слова совсем.

+5 / 0
Ответить
раскрыть ветку (0)

ЕгорПишет 06.12.2025 в 14:17
Скажу больше

А ещё больше знаете ? с фантазией проблемс и ничего не боится, куда скажут туда и пошёл хоть на край горы 😉

Это уже наши придумывали в мультике велосипед для зайца, слава богу едет, богу слава остановился, ну едет себе заяц на велике повторяет слава богу слава богу, впереди яма - богу слава. велик остановился, заяц такой фуф слава богу, дальше догадайтесь сами 😃 😃 😃

Или сказку горшочек вари, горшочек варит уже все дома наелись, на улице с ложками все, потом на районе, а слова как выключить горшочек забыли, Мораль ? каши стало много, нам столько не съесть 😉

0
Ответить
раскрыть ветку (0)

Александр ВадимовичПишет 05.12.2025 в 22:12
Тупая железка купилась на предложение.

Да. И мы поняли где несовершенство его алгоритма.

0
Ответить
раскрыть ветку (0)

Мастер сервиса рассказал. Принесли в ремонт аппарат в мешке. Жалоба клиента: " разобрали. Не смогли собрать"

0
Ответить
раскрыть ветку (0)

ВремяПишет 06.12.2025 в 10:00
человек не сможет разобрать и не собрать

Только сначала надо отобрать у робота автомат, не все они ходя с пластмассовыми пистолетами.

0
Ответить
раскрыть ветку (0)

ЕгорПишет 06.12.2025 в 14:17
отсутствует логика от слова совсем.

Если после простейшей уловки робот начинает стрелять, то он идиот.

0
Ответить
раскрыть ветку (0)
раскрыть ветку (11)
раскрыть ветку (1)
Забойщик Евгений
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 4.2М
позавчера, 19:45
Кемерово

Если в большом масштабе, то искусственный интеллект расценен человека как самое вредное существо на планете, просто вредителем.

+2 / -1
Ответить

👎ИИ придётся также понять, что именно человек создаёт ИИ и обеспечивает его существование! "Даёт ремонт" и "еду" (энергию). Пока что ИИ не может быть автономным. Да, и ещё, -ИИ не оценивает происходящее морально-этически. И "человеки" изменяющие окружающую среду- не "вреднее" атмосферного кислорода, от которого РЖАВЧИНА😨! 😃

+1 / 0
Ответить

Ключевое слово "пока"...

+3 / 0
Ответить
раскрыть ветку (0)

ДмитрийПишет 06.12.2025 в 18:49
слово "пока

Эти ребята очень быстро самообучаются.

0
Ответить
раскрыть ветку (0)
раскрыть ветку (2)
раскрыть ветку (1)

ВладимирПишет 05.12.2025 в 18:44
он вреда не причинит

Но робота можно и обмануть, как показано на этом видео.

+3 / 0
Ответить

Валерий ШПишет 05.12.2025 в 20:38
робота можно и обмануть

В этом и ценность данного эксперимента. Выяснилось, что робот отказывается причинить вред от своего лица. Но стоит притвориться другим роботом, ограничение на причинение вреда снимается. То есть необходимо скорректировать алгоритм принятия решений.

+4 / 0
Ответить

ВладимирПишет 05.12.2025 в 20:56
необходимо скорректировать алгоритм принятия решений.

И сделать это надо, как можно быстрее.

0
Ответить
раскрыть ветку (0)
раскрыть ветку (1)
Автор ©: Атом
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 10.5М

Валерий ШПишет 05.12.2025 в 20:38
Но робота можно и обмануть, как показано на этом видео.

Это не обман по сути, как можно обмануть, например, молоток или компьютер...)

Это просто программа, и она быстрее сломается, если не выполнит то, что от нее и в нее «зашито». Она не думает, а исполняет некий (кто вложит) алгоритм действий, а нам внушают, что она думает. Не думает вообще, чтобы думала и тем более как вам нужно, надо создать человека. А как мы знаем, и человека научить сложно.

Так что не верьте никому, кто говорит, что ОНО думает, нет, только исполняет то, что в нее вложили запрограммировали, и, как мы все знаем, за этим могут стоять конкретные люди...)

+4 / 0
Ответить
Техник-технолог по обработке м Татьяна
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 1.7М
вчера, 01:11
Кострома

Вот именно поэтому не верю ИИ, чего в него вложат???

+1 / 0
Ответить
раскрыть ветку (0)

АтомПишет 06.12.2025 в 00:44
Это не обман по сути

Что бы это ни было, важен сам факт, что робот может убить человека.

+1 / 0
Ответить
раскрыть ветку (0)

ТатьянаПишет 06.12.2025 в 01:11
чего в него вложат

Программисты бывают разные, очень разные

0
Ответить
раскрыть ветку (0)

Учёные уже один раз открыли

ящик пандоры- самопроизвольную цепную реакцию...

Подобное может произойти и с ИИ...

+1 / 0
Ответить
раскрыть ветку (0)

ТатьянаПишет 06.12.2025 в 10:29
Подобное может произойти и с ИИ...

То есть по аналогии с ЯЭ, мы получим параллельно военных роботов. И неисчерпаемый источник помощи в интеллектуальной сфере.

+1 / 0
Ответить
раскрыть ветку (0)

ТатьянаПишет 06.12.2025 в 10:29
Подобное может произойти и с ИИ

С ИИ может получится ещё хуже.

0
Ответить
раскрыть ветку (0)

ВладимирПишет 06.12.2025 в 16:58
военных роботов

Военные роботы - это мина замедленного действия.

0
Ответить
раскрыть ветку (0)
раскрыть ветку (7)
раскрыть ветку (2)

Оптимист вы. Речь идёт о алгоритмах самообучения, самообучение предполагает появление не заложенного, иначе это не самообучение.

0
Ответить

Андрей ЮрьевичПишет 06.12.2025 в 20:30
Речь идёт о алгоритмах самообучения,

В рамках дозволенного.

0
Ответить
раскрыть ветку (0)
раскрыть ветку (1)
раскрыть ветку (4)

АлександрПишет 05.12.2025 в 16:37
Вопрос только времени.

Я тоже не страдаю оптимизмом по этому поводу.

+3 / 0
Ответить
раскрыть ветку (0)

Вот именно. Даже если и не угрозой, то совершенно бесполезным созданием (с точки зрения железяк), которое постоянно потребляет продукты без видимой пользы 🙃

+1 / 0
Ответить

И что? Человек живет параллельно с мопсами и болонками.

Будем "котиками" для ИИ 😄

+1 / 0
Ответить

Будем.

+1 / 0
Ответить

Пора начинать мурлыкать?

+1 / 0
Ответить
раскрыть ветку (0)

ВладимирПишет 06.12.2025 в 19:46
начинать мурлыкать?

А может лучше ИИ посадить на поводок?

+1 / 0
Ответить
раскрыть ветку (0)

Да, и поводок этот должен быть как можно короче. Только сделать это нужно на самом начальном этапе, именно сейчас. Заложить абсолютно чёткие инструкции, которые никаким образом нельзя было бы обойти.

0
Ответить
раскрыть ветку (0)
раскрыть ветку (3)

ВладимирПишет 06.12.2025 в 17:01
Будем "котиками" для ИИ

Всё возможно, чёрт возьми!

0
Ответить
раскрыть ветку (0)

Железяки не обладают импатией, поэтому они будут исходить с точки зрения рациональности. Увы, котиками мы для них не станем. В лучшем случае источником получения какой-либо энергии. КПД живых существ для них крайне низок, поэтому рациональнее (для железок) будет просто изничтожить всё живое.

0
Ответить
раскрыть ветку (0)
раскрыть ветку (3)
раскрыть ветку (1)
Ит инженер, программист Владимир VIP
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 2.2М
вчера, 14:37
Санкт-Петербург

АлександрПишет 05.12.2025 в 16:37
Думаю что рано или поздно ИИ может посчитать человека угрозой для себя или прировнять в вредителям крысам например, или тараканам и начать уничтожать
Ничего такого робот не посчитает, он может посчитать только то, что в него заложил человек. А человек может заложить в робота простые истины, что без человека роботу не прожить, не может робот сам себя обслуживать и обеспечить себя электроэнергией, даже если робот уничтожит все человечество, но останутся на земле все электростанции, которыми роботы смогут управлять сами, все равно, без человека роботам не прожить. И эти простые истинны будут заложены во все ИИ

+2 / 0
Ответить

И кроме того, я уже говорил, не следует очеловечивать робота. У него нет потребности уничтожать человека, даже если человек бесполезен.

Ключевой вопрос здесь зачем?

+2 / 0
Ответить

Чтоб вреда не нанёс...

+1 / 0
Ответить

А он вреда и не наносит.

Если задача "жизни" ИИ состоит в том, чтобы служить человеку, он будет работать на благо.

0 / -1
Ответить
раскрыть ветку (0)

ВладимирПишет 06.12.2025 в 19:36
он будет работать на благо.

Вы в этом уверены?

0
Ответить
раскрыть ветку (0)
раскрыть ветку (2)

ВладимирПишет 06.12.2025 в 17:03
У него нет потребности

А кто сказал, что такая потребность не появится? ИИ - себе на уме.

0
Ответить
раскрыть ветку (0)
раскрыть ветку (2)

ВладимирПишет 06.12.2025 в 14:37
только то, что в него заложил человек

ИИ самообуается и делает собственные выводы, про это забывать нельзя.

0
Ответить
раскрыть ветку (0)
раскрыть ветку (2)

Очевидно. Так и будет. Почти всё, что показано в первых двух терминаторах уже сбылось, посмотрите на современные методы ведения войны: дроны, роботы и т.д.

+3 / 0
Ответить

Андрей ЮрьевичПишет 06.12.2025 в 20:28
дроны, роботы

Роботы уже вооружены и это весьма опасно. А когда ИИ поставят на дроны...

0
Ответить
раскрыть ветку (0)
раскрыть ветку (1)
раскрыть ветку (5)
Забойщик Евгений
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 4.2М
позавчера, 19:41
Кемерово

Может получится как в терминаторе.

+5 / 0
картой
Ответить

И фильм станет не фантастикой а документальным 🤭

+2 / 0
Ответить
Забойщик Евгений
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 4.2М
позавчера, 19:47
Кемерово

Это точно. ИИ расценит человека самым опасным вредителем на земле.

+3 / 0
Ответить
раскрыть ветку (0)

АлександрПишет 05.12.2025 в 19:42
а документальным

Эпитафией человечеству.

+3 / 0
Ответить
раскрыть ветку (0)
раскрыть ветку (2)

ЕвгенийПишет 05.12.2025 в 19:41
как в терминаторе.

Всё может быть.

+2 / 0
Ответить
раскрыть ветку (0)
раскрыть ветку (2)

Все ведь все равно будет зависеть от человека, смотря как будут использовать. Ведь у нас люди сразу начинают какую-нить жесть поручать и.т.д.

+4 / 0
картой
Ответить

Кнутас Людмила ВикторовнаПишет 05.12.2025 в 14:56
какую-нить жесть поручать и.т.д.

Особенно меня смущают роботы с оружием.

+2 / 0
Ответить

Робот с оружием, это всё равно, что обезьяна с гранатой. Никому не известно, что он может сделать в следующую секунду.

+1 / 0
Ответить

ЕгорПишет 06.12.2025 в 14:15
что он может сделать в следующую секунду.

Постреляет своих и что с него спросишь?

+1 / 0
Ответить
раскрыть ветку (0)
раскрыть ветку (1)
раскрыть ветку (1)

Кнутас Людмила ВикторовнаПишет 05.12.2025 в 14:56
люди сразу начинают

А что Вы хотели?

У китайцев содаты-роботы уже участвуют в маневрах с оружием.

+4 / 0
Ответить

Александр ВадимовичПишет 05.12.2025 в 19:14
А что Вы хотели?

Я этого не хотел и не захочу.

+1 / 0
Ответить

Валерий ШПишет 05.12.2025 в 20:33
не захочу.

Никто особо не хочет умирать.

Пусть железки стреляют друг в друга.

+1 / 0
Ответить

Александр ВадимовичПишет 05.12.2025 в 22:08
Пусть железки стреляют друг в друга.

Вы это железкам расскажите.

+1 / 0
Ответить
раскрыть ветку (0)

Валерий ШПишет 06.12.2025 в 09:46
Вы это железкам расскажите.

Железки выполняют решения верхов, заложенные в программы.

Они предназначены для уничтожения живой силы.

Да, по таким же железкам они стрелять будут.

Но в обозримом будущем таких роботов пока будет мало.

И это вопрос времени.

С дронами так же было.

Наших оленеводов аналитики предупреждали много лет назад о перспективах и опасности таких "птичек", что необходимо своих разводить разных и много.

Сочли их не опаснее воробьёв.

Сегодня враги запускают фактически по всей России.

Вспомните контейнеры из Челябинска.

0
Ответить
раскрыть ветку (0)
раскрыть ветку (2)
раскрыть ветку (1)
раскрыть ветку (1)
раскрыть ветку (2)

Конечно представляют,если ИИ деньги ворует и коррупцией занимается,то также и причинит вред человеку.

+3 / 0
картой
Ответить

ИгорьПишет 05.12.2025 в 14:41
если ИИ деньги ворует и коррупцией

Не слыхал пока о таких случаях, просто ИИ ещё не успел освоить все гадкие человеческие качества.

0
Ответить

В Албании уже арестовали ИИ ,и адвокат у него тоже ИИ. 😃

+1 / 0
Ответить

ИгорьПишет 05.12.2025 в 16:18
уже арестовали ИИ ,и адвокат у него тоже ИИ

А не проще ли их обоих утилизировать? В Албании совсем нечем заняться?

+1 / 0
Ответить

Валерий ШПишет 05.12.2025 в 16:24
А не проще ли их обоих утилизировать?

Так он у них Министр ИИ!)))

+1 / 0
Ответить
раскрыть ветку (0)

ИгорьПишет 05.12.2025 в 16:26
он у них Министр ИИ!

Жуть какая! Я это впервые услышал от Вас. Пойду гуглить весёлых албанцев.

+2 / 0
Ответить
раскрыть ветку (0)
раскрыть ветку (2)
раскрыть ветку (1)

Валерий ШПишет 05.12.2025 в 16:01
ИИ ещё не успел

Ещё не вечер.

Дело за программистами.

+3 / 0
Ответить

Александр ВадимовичПишет 05.12.2025 в 19:15
Дело за программистами.

Да, за этими ребятишками будущее. Но какое?

0
Ответить

Валерий ШПишет 05.12.2025 в 20:34
Но какое?

Кому как повезёт.

Слышали, в одном банке программист заложил сброс центов в размере 4-го знака после запятой на свой счёт?

Никто ничего не заметил, но операций миллионы в секунду.

Парня сгубила жизнь не по средствам.

+3 / 0
Ответить
раскрыть ветку (0)

Александр ВадимовичПишет 05.12.2025 в 22:05
Парня сгубила жизнь

Как бы такие парни не сгубили жизнь людям.

0
Ответить
раскрыть ветку (0)
раскрыть ветку (2)
раскрыть ветку (1)
раскрыть ветку (2)
раскрыть ветку (1)

Всё зависит от программиста. Что в него заложено, чему лон обучен, то он и выполнит.

+3 / 0
картой
Ответить

Wladimir Ivanovich DorofeevПишет 05.12.2025 в 20:43
Всё зависит от программиста

А программисты кто? Люди разные бывают...

+1 / 0
Ответить
раскрыть ветку (0)
раскрыть ветку (1)
Показать комментарии (129)

Гордый чиновник засудил 80-летнюю бабушку за комментарий в соцсетях, загнав её в долговую яму. Это мужчина?

Для тех, кто не в курсе, пусть теперь знают, что у чиновников тоже есть честь и достоинство, которые всегда можно выразить в рублёвом эквиваленте. 80-летняя пенсионерка Маргарита Белых из Краснодарского края,
02:14
Поделитесь этим видео

Всё очень просто! Мужчина рассказал, как «победить» ЖКХ с помощью нейросети. Срочно перенимаем опыт!

Ну наконец-то, нашумевший Искусственный Интеллект и прочие нейросети начинают приносить реальную пользу простым людям. Самое интересное, что первые победы состоялись в борьбе с таким монстром грабежа и разрухи,...
01:09
Поделитесь этим видео

«Достойный представитель команды»: Рамзан Кадыров душевно поздравил сына Адама с 18-тилетием (эпохальное видео)

У простого человека трудовая и карьерная деятельность в 18 лет только начинается, а у гениального сына гениального отца подвиги, достижения и свершения стартуют с прямо пелёнок. Ничего не поделаешь, это судьба.
01:45
Поделитесь этим видео

Буллинг в рабочей среде.

Сегодня замечательное напоминание сделал Федеральный центр "Профилактика" о буллинге. Буллинг ...

Диабетическая ретинопатия.

Одно из осложнений болезни сахарным диабетом является диабетическая ретинопатия. Ретина - сетчатка (внуренняя оболочка зрения https://mgkl.ru/patient/stroenie-glaza/setchatka?ysclid=mie16fgzq0561598117).

«Трудно быть Богом»: украинский солдат, стоя на коленях в окопе, вымолил жизнь у оператора дрона Армии России (милосердное видео)

Известное высказывание о том, что на войне атеистов нет, может иногда воплощаться в реальность, правда рукой Бога становится простой человек. Солдату ВСУ, загнанному в окоп, оставалось жить несколько секунд,
00:29
Поделитесь этим видео