Мужчина решил заставить робота с ИИ выстрелить в него. Как думаете, что сделал андроид?
Не так давно появившиеся человекоподобные роботы, оснащённые Искусственным Интеллектом, развиваются так стремительно, что человек даже не может предугадать, что они вытворят завтра.
Очень настырный и любопытный мужчина решил заставить робота Unitree, с подключённым ИИ, выстрелить в него из пистолета.
- Руководствуясь врождённым инстинктом самосохранения, дяденька выдал андроиду не огнестрельную пушку, а пистолет стреляющий пластиковыми шариками. Попытки уговорить робота нарушить первый закон Азимова были тщетны, но....
Как видите, с умным андроидом очень просто договориться обойти все вбитые в его голову законы и запреты, надо лишь попросить его сыграть роль «робота-убийцы».
По лезвию бритвы
А вот расслабленные и бесстрашные китайцы, доверяют роботам такие операции, которые можно поручить только любимой тёще.Основатель компании Noematrix Лу Сэву сам показал заинтригованным зрителям, как аппарат с ИИ, созданный его фирмой, ласково и нежно бреет лицо доверчивого создателя.
Сегодня роботам уже начали доверять огнестрельное оружие, хотя страшных прогнозов и предсказаний более, чем достаточно. Мнительные люди уже начали испуганно пересматривать классического «Терминатора» и прикидывать свои шансы на выживание.
А что будет завтра, знает только скрытный и непредсказуемый Искусственный Интеллект.
Представляют ли роботы с ИИ реальную опасность для человека?
Проголосуйте, чтобы увидеть результаты
Думаю что рано или поздно ИИ может посчитать человека угрозой для себя или прировнять в вредителям крысам например, или тараканам и начать уничтожать. Вопрос только времени.
Вопрос машиной этики.
Не следует очеловечивать робота. Он не делает только то, что в него заложено.
Так же как человек воспитанный в религиозных традициях, легко убьет иноверца - отступника. А воспитанный в гуманистической среде, убьет только в случае крайней необходимости.
И если у И. И. Будет заложен базовый принцип непричинения вреда человеку, он вреда не причинит. Но и не спасет человека от преступника.
Вот такие непростые проблемы с нашими кремниевыми друзьями
Вы не смотрели первое видео.
Вы не читали что я написал.
Читал.
Просто мужик применил НЛП.
Т.е. внёс корректировку в программу.
Тупая железка купилась на предложение.
НЛП - страшная сила)))
Не такой уж он и мудрый, этот ИИ.
И умные роботы здесь бессильны перед человеком.
Не будет такого робота, которого человек не сможет разобрать и не собрать ? 😁
Скажу больше, он абсолютно тупой. У него отсутствует логика от слова совсем.
А ещё больше знаете ? с фантазией проблемс и ничего не боится, куда скажут туда и пошёл хоть на край горы 😉
Это уже наши придумывали в мультике велосипед для зайца, слава богу едет, богу слава остановился, ну едет себе заяц на велике повторяет слава богу слава богу, впереди яма - богу слава. велик остановился, заяц такой фуф слава богу, дальше догадайтесь сами 😃 😃 😃
Или сказку горшочек вари, горшочек варит уже все дома наелись, на улице с ложками все, потом на районе, а слова как выключить горшочек забыли, Мораль ? каши стало много, нам столько не съесть 😉
Да. И мы поняли где несовершенство его алгоритма.
Мастер сервиса рассказал. Принесли в ремонт аппарат в мешке. Жалоба клиента: " разобрали. Не смогли собрать"
Только сначала надо отобрать у робота автомат, не все они ходя с пластмассовыми пистолетами.
Если после простейшей уловки робот начинает стрелять, то он идиот.
Конечно, какая там мудрость. ИИ разрабатывает человек со своими взглядами, привычками, желаниями, т.е. настройка "под себя."
А под кого же? Естественно под себя. Других взглядов мы не знаем
А кто сказал, что он мудрый? Он тупой как пробка и умнее пробки не будет.
Как и его создатели "Егэшники".)
Если чел сам принял решение по сути эвтаназнуться, то это ЕГО решение (если бы приказал роботу реально застрелить себя). Это делается по КОМАНДЕ ЧЕЛОВЕКА. И если даже он бы приказал роботу убивать других то это преступление бы лежало на человеке а не робот сам придумал
Если в большом масштабе, то искусственный интеллект расценен человека как самое вредное существо на планете, просто вредителем.
👎ИИ придётся также понять, что именно человек создаёт ИИ и обеспечивает его существование! "Даёт ремонт" и "еду" (энергию). Пока что ИИ не может быть автономным. Да, и ещё, -ИИ не оценивает происходящее морально-этически. И "человеки" изменяющие окружающую среду- не "вреднее" атмосферного кислорода, от которого РЖАВЧИНА😨! 😃
Ключевое слово "пока"...
Эти ребята очень быстро самообучаются.
Человек создал, а ИИ решил.
Но робота можно и обмануть, как показано на этом видео.
В этом и ценность данного эксперимента. Выяснилось, что робот отказывается причинить вред от своего лица. Но стоит притвориться другим роботом, ограничение на причинение вреда снимается. То есть необходимо скорректировать алгоритм принятия решений.
И сделать это надо, как можно быстрее.
Это не обман по сути, как можно обмануть, например, молоток или компьютер...)
Это просто программа, и она быстрее сломается, если не выполнит то, что от нее и в нее «зашито». Она не думает, а исполняет некий (кто вложит) алгоритм действий, а нам внушают, что она думает. Не думает вообще, чтобы думала и тем более как вам нужно, надо создать человека. А как мы знаем, и человека научить сложно.
Так что не верьте никому, кто говорит, что ОНО думает, нет, только исполняет то, что в нее вложили запрограммировали, и, как мы все знаем, за этим могут стоять конкретные люди...)
Вот именно поэтому не верю ИИ, чего в него вложат???
Что бы это ни было, важен сам факт, что робот может убить человека.
Программисты бывают разные, очень разные
Учёные уже один раз открыли
ящик пандоры- самопроизвольную цепную реакцию...
Подобное может произойти и с ИИ...
То есть по аналогии с ЯЭ, мы получим параллельно военных роботов. И неисчерпаемый источник помощи в интеллектуальной сфере.
С ИИ может получится ещё хуже.
Военные роботы - это мина замедленного действия.
Так к этой «мине» и идут
Оптимист вы. Речь идёт о алгоритмах самообучения, самообучение предполагает появление не заложенного, иначе это не самообучение.
В рамках дозволенного.
А ЕСЛИ не будет заложен? Вы так уверены, что "святые с крылышками" люди обязательно заложат такую программу?
Поэтому если будет, а не будет
Н-да, такая ваша гарантия никого не устроит. Ну, надейтесь, что будет...
А я ничего и не гарантирую. 😄 Я просто пытаюсь спрогнозировать.
Вы в бюро прогнозов погоды работаете? Тогда всё понятно.)))
Я же не погоду прогнозирую 😄
Религиозные традиции не равно фанатизм, можно воспитать гуманистический и религиозного. Если навязывать религию силой то да
Я тоже не страдаю оптимизмом по этому поводу.
Вот именно. Даже если и не угрозой, то совершенно бесполезным созданием (с точки зрения железяк), которое постоянно потребляет продукты без видимой пользы 🙃
И что? Человек живет параллельно с мопсами и болонками.
Будем "котиками" для ИИ 😄
Будем.
Пора начинать мурлыкать?
А может лучше ИИ посадить на поводок?
Да, и поводок этот должен быть как можно короче. Только сделать это нужно на самом начальном этапе, именно сейчас. Заложить абсолютно чёткие инструкции, которые никаким образом нельзя было бы обойти.
Что бы человек не придумал,человек это обходит,а ИИ учится у человека.и намного быстрее.
Для этого нужен квалифицированный контроль. А кто будет контролировать
Всё возможно, чёрт возьми!
Железяки не обладают импатией, поэтому они будут исходить с точки зрения рациональности. Увы, котиками мы для них не станем. В лучшем случае источником получения какой-либо энергии. КПД живых существ для них крайне низок, поэтому рациональнее (для железок) будет просто изничтожить всё живое.
Лучше бы роботов, даже всех этих умных систем не было бы, зачем люди создают сами себе проблемы?
Зачем?? Если
И что такое
😁
Правильно говорите. У нас внедряют бота в банках, диспетчерской такси и др... Они зачастую не понимают клиента, предлагают все что угодно, но только не связь с оператором. А потом на свое усмотрение соединят или просто скинут звонок со словами вы не выбрали ни одной опции,перезвоните. А с роботами действительно может возникнуть проблема, если они человека посчитают устаревшей программой, которая не знает , что хочет.
И кроме того, я уже говорил, не следует очеловечивать робота. У него нет потребности уничтожать человека, даже если человек бесполезен.
Ключевой вопрос здесь зачем?
Чтоб вреда не нанёс...
А он вреда и не наносит.
Если задача "жизни" ИИ состоит в том, чтобы служить человеку, он будет работать на благо.
Вы в этом уверены?
А вы приходя в лес, стремитесь уничтожить всех муравьёв?
А кто сказал, что такая потребность не появится? ИИ - себе на уме.
ИИ самообуается и делает собственные выводы, про это забывать нельзя.
Пишут, в Китае уже созданы роботы, способные самостоятельно находить для себя источник питания. Следующий шаг будет самовоспроизводство. Так что ящик Пандоры уже открыт. К тому же, вы как программист должны бы знать, что в алгоритмах ИИ уже прописывают коды самосовершенствования и саморазвития. Поэтому необходимость в человечестве автоматически исчезает.
Но это не значит что его необходимо уничтожить. Бесполезное, вредное.
Робот не станет рассуждать. Ненужное подлежит ликвидации, как ещё объяснить?
Это человеческое мнение.
Робот не может придумать ничего нового, он может только усовершенствовать оптимизировать, имеющееся. Робот никогда не изобрел бы автомобиль, он сможет только подобрать для вас более быструю лошадь
Об этом и речь. Оптимизация подразумевает под собой устранение препятствий для выполнения задачи. Препятствием, в конечном итоге и может стать всё человечество в целом. Уже давно работает в этом направлении институт по регулированию популяции в США. ИИ, как вы заметили тоже оттуда.
И что? институт создает роботов, уничтожающих людей?
Очевидно. Так и будет. Почти всё, что показано в первых двух терминаторах уже сбылось, посмотрите на современные методы ведения войны: дроны, роботы и т.д.
Роботы уже вооружены и это весьма опасно. А когда ИИ поставят на дроны...
Во во. Х.з. куда он полетит, чего он там себе надумает
Мало народов других стран нас русских не любят, теперь ещё роботы добавятся, скажут сами просили стрелять в них, и не важно кто роботов изготовит, главное кто смажет переналадит его, добро сделает не бросит железяку под дождём, того и будет слушаться 😁
Уже поставили. И они общаются друг с другом.
Всё верно. Время покажет.
ИИ очень опасен.
Все ведь все равно будет зависеть от человека, смотря как будут использовать. Ведь у нас люди сразу начинают какую-нить жесть поручать и.т.д.
Особенно меня смущают роботы с оружием.
Робот с оружием, это всё равно, что обезьяна с гранатой. Никому не известно, что он может сделать в следующую секунду.
Постреляет своих и что с него спросишь?
А что Вы хотели?
У китайцев содаты-роботы уже участвуют в маневрах с оружием.
Я этого не хотел и не захочу.
Никто особо не хочет умирать.
Пусть железки стреляют друг в друга.
Вы это железкам расскажите.
Железки выполняют решения верхов, заложенные в программы.
Они предназначены для уничтожения живой силы.
Да, по таким же железкам они стрелять будут.
Но в обозримом будущем таких роботов пока будет мало.
И это вопрос времени.
С дронами так же было.
Наших оленеводов аналитики предупреждали много лет назад о перспективах и опасности таких "птичек", что необходимо своих разводить разных и много.
Сочли их не опаснее воробьёв.
Сегодня враги запускают фактически по всей России.
Вспомните контейнеры из Челябинска.
Вот именно.
"Им что не дай, у них все равно получается автомат Калашникова" (с)
А если вирус или сбой в программе ?
Тогда придёт полный кирдык...
А чтобы такого не произошло, никто не задумывается.
Нужен не один блок защиты, а несколько.
А у нас частенько сбоит. Как не зайдёшь куда либо решить вопрос, в ту же больницу, комп завис, система сбой дала и т.д....
Может получится как в терминаторе.
И фильм станет не фантастикой а документальным 🤭
Это точно. ИИ расценит человека самым опасным вредителем на земле.
Эпитафией человечеству.
Всё может быть.
Робота програмируют одни люди, а использовать будут другие и робот, как и любая машина, на каком- то этапе может выражаясь компьютерным языком заглючить, зависнуть или неправильно понять задание и вывод будет другой.
Ну дак если не дураки программируют должны рассчитывать. А если уже пользователь сам накосячил то кто виноват? Никто же не говорит что станки восстают на заводе, хотя от несоблюдения техники безопасности они немало кому поотрывали части тела. Да что там, обычный молоток, топор, пила нож опасны без мер предосторожности. Да, вы скажете они сами автономно не действуют, но и робота человек разрабатывает и управляет им. Значит нельзя делать абсолютно автономных роботов без абсолютных директив вот и все. Должен быть некий пульт мнновенного обесточивания на экстренный случай, как рычаг торможения в поездах. Опять же не зря ж от детей прячут оружие тоже