Индийский ученый Шекхар Манде предупреждает об опасностях ИИ, включая вирусные вспышки, ядерную войну и ВЫМИРАНИЕ ЧЕЛОВЕЧЕСТВА

66 просмотров
3 дочитывания
0 комментариев
Эта публикация уже заработала 0,15 рублей за дочитывания
Зарабатывать

Ученый предупредил, что слишком комфортное использование искусственного интеллекта (ИИ) может представлять опасность для человечества .

Индийский ученый Шекхар Манде выступил с таким предупреждением во время лекции, заявив, что человечество должно быть готово к тому, что ИИ возьмет верх и создаст вирусные вспышки, ядерную войну и даже вымирание человечества. По мнению Манде – бывшего генерального директора Индийского совета научных и промышленных исследований – ИИ станет основной причиной вымирания человечества.

Эксперты в этой области предсказывают, что ИИ станет первой причиной вымирания человечества, за которым последуют ядерная война и вирусные вспышки. Его объяснение трех угроз, которые могут привести к вымиранию человечества, заставило задуматься о прекрасном балансе между прогрессом, безопасностью и сохранением человечества.

Индийский учёный — не первый человек, задумавшийся о проблемах, с которыми человечество сталкивается в связи с ИИ. Хотя люди добились прогресса в науке и технологиях, создав компьютеры, которые думают как люди, у них также возникают некоторые тревожные мысли. (По теме: ИИ, скорее всего, УНИЧТОЖИТ человечество, предупреждают исследователи Оксфорда и Google .)

Этот поворот в сторону ИИ не отвечает интересам человечества. Юваль Ной Харари, близкий советник Клауса Шваба из глобалистского Всемирного экономического форума, заявил, что ИИ собирается выполнить сложную задачу по контролю над классом рабов и сделать его устаревшим.

Аргументация Харари сосредоточена на том, что правящий класс использует эту технологию против класса рабов . Как только критическая масса рабского населения полностью осознает свое положение, машины сделают тяжелую работу за социопатов наверху.

Высокопоставленный чиновник США признает риски, связанные с ИИ

Между тем, высокопоставленный американский чиновник по кибербезопасности ранее предупредил, что человечество может оказаться под угрозой «вымирания», если технологические компании не смогут саморегулироваться и работать с правительством, чтобы контролировать мощь ИИ. Предупреждение исходило от Джен Истерли, директора Агентства кибербезопасности и безопасности инфраструктуры (CISA) при Министерстве внутренней безопасности США (DHS).

Замечания Истерли последовали за публикацией заявления в мае 2023 года с участием сотен технологических лидеров и общественных деятелей, которые сравнили экзистенциальную угрозу ИИ с пандемией или ядерной войной. «Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война», — говорится в заявлении, состоящем из одного предложения, опубликованном некоммерческой организацией Центр безопасности ИИ (CAIS) в Сан-Франциско.

Под заявлением подписались более 300 человек, в том числе генеральный директор Open AI Сэм Альтман и генеральный директор Google DeepMind Демис Хассабис. Заявление подписали и другие общественные деятели за пределами технологической индустрии, в том числе автор нейробиологии Сэм Харрис и музыкант Граймс.

В ответ на вопросы по поводу заявления CAIS Истерли попросил подписавших его лиц заняться саморегулированием и работать с правительством.

«Я бы попросил этих 350 человек и создателей ИИ – пока мы пытаемся создать нормативную базу – подумать о саморегулировании, подумать о том, что вы можете сделать, чтобы замедлить это, чтобы мы не вызвали событие вымирания человечества», — сказал Истерли.

«Если вы действительно думаете, что эти возможности могут привести к вымиранию человечества, давайте объединимся и что-нибудь с этим сделаем».

Со своей стороны, Альтман заявил сенаторам во время слушаний, что он поддерживает государственное регулирование как средство предотвращения вредного воздействия ИИ. Такие меры регулирования включают принятие лицензий или требований безопасности, необходимых для работы моделей ИИ.

«Если эта технология пойдет не так, она может пойти совсем не так», — сказал он. «Мы считаем, что регулирующее вмешательство со стороны правительств будет иметь решающее значение для смягчения рисков, связанных со все более мощными моделями».

Следите за новостями об искусственном интеллекте на FutureTech.news .

Посмотрите, как Юваль Ной Хараи объясняет, как ИИ может уничтожить человечество, ниже.

Это видео с канала Thrivetime Show на Brighteon.com .

Еще похожие истории:

Поглощение ИИ НЕИЗБЕЖНО: эксперты предупреждают, что искусственный интеллект станет достаточно мощным, чтобы контролировать человеческий разум и поведение.

ЭКСТРЕМАЛЬНЫЕ СЦЕНАРИИ: Искусственный интеллект может навсегда произвести революцию в технологическом секторе – или уничтожить человечество.

Исследователи: решения ИИ могут вызвать КАТАСТРОФУ «ядерного уровня».

Крупные технологические компании и глобалистские элиты объединяют усилия на секретной встрече, чтобы поговорить об искусственном интеллекте.

Илон Маск объявляет о создании новой компании в области искусственного интеллекта, потратив ГОДЫ на критику быстрого развития искусственного интеллекта.

https://depopulation.news/2023-08-23-scientist-ai-dangers-viral-outbreaks-war-extinction.html#

Подписаться
Донаты ₽
Шмидт Александр Александрович
Подписчиков 20675
вчера, 13:03
РейтингРейтингРейтингРейтингРейтинг14.9М
В соответствии с предложенным законопроектом от партии ЛДПР, женщины, воспитывающие ...
Подробнее
Неинтересно
02:59
Поделитесь этим видео
0
54
Корнилова Ирина Владимировна
Подписчиков 1426
вчера, 13:00
РейтингРейтингРейтингРейтингРейтинг5.1М
Здравствуйте, дорогие читатели сайта 9111.ru!
Подробнее
Неинтересно
0
79
Дедушка Геннадий
Подписчиков 5296
вчера, 17:09
РейтингРейтингРейтингРейтингРейтинг14.5М
Подробнее
Неинтересно
00:14
Поделитесь этим видео
0
32
Дедушка Геннадий
Подписчиков 5296
вчера, 17:03
РейтингРейтингРейтингРейтингРейтинг14.5М
Подробнее
Неинтересно
00:57
Поделитесь этим видео
0
24
Александр
Подписчиков 8836
вчера, 13:07
РейтингРейтингРейтингРейтингРейтинг14М
Жизнь прожить, говорят, не поле перейти. Поэтому иногда судьба не дает гладко ...
Подробнее
Неинтересно
0
45
Кадыров Руслан Олегович
Подписчиков 28500
вчера, 13:09
РейтингРейтингРейтингРейтингРейтинг7.8М
Все диалоги воспроизведены по транскрибации аудиозаписи заседанияТерпеливо выслушав перечитанный истцом иск,...
Подробнее
Неинтересно
0
43
Елена
Подписчиков 201
вчера, 13:06
РейтингРейтингРейтингРейтингРейтинг501.4к
Здравствуйте, дорогие друзья и гости сайта!Прошёл месяц с того момента, как я зарегистрировалась здесь.
Подробнее
Неинтересно
-1
58
Татьяна Сергеевна
Подписчиков 5806
вчера, 16:41
РейтингРейтингРейтингРейтингРейтинг9.4М
Впрочем этот вид бизнеса совсем не нов, ещё на заре вхождения Интернета в жизнь и появления таких понятий,...
Подробнее
Неинтересно
0
34