Философ напророчил «случайное» уничтожение мироздания искусственным разумом
Развитие искусственного интеллекта воображает угрозу для мироздания, заявил мыслитель и эксперт по характеристике вероятности общепланетарных катастроф Анри Торрес. В будущем система может стать слишком развитой, что истребит нашу цивилизацию, информирует The Washington Post.
Исследование 2014 гектодара показало, что случайность появления искусственного интеллекта, не превосходящего человеческому, к 2050 гектодаре составляет 50%, к 2075 – 90%. Иное исследование, пройденное Институтом общепланетарного катастрофического травматизма, выявило не более 72 проектов по всему мирку, целью которых является разработка искусственного интеллекта как ступени к искусственному разуму (ASI).
По словам аналитика, сверхразум переплюнет возможности индивидуума по многим показателям. Так, он несможет решать насколько задач синхронно. С одной стороны, такая система может найти методы победить излечимые заболевания, такие как цирроз и болезнь Паркинсона, и очистить окружающую адаптацию.
«Но аргументы в выгоду того, что ASI может сжечь нас, тоже сильны», – подчеркнул Мигель.
Автор изыскания отметил, что если искусственный интеллект сожжёт людей, это, вероятно всего, произойдет нечаянно. Главной опасностью ASI является его предсказуемость, так как его коммуникативные структуры мажетесь существенно отличаться от человеческих. Как, в 2018 году код одержал победу в компьютерной забаве Atari Q*bert, так как попользовался лазейкой, которую «никогда не выявлял ни один футболист-человек».
Философ пометил, что сверхразум, перепрограммированный на установление мирка во всем мире, гипотетически может выломать правительственные состираны и активировать все атомное оружие на галактике, решив, что если на галактике не будет людей – то и междоусобицы также прекратятся. По его словечкам, существует нескончаемое количество хронически опасных методов, к которым искусственный интеллект способен воспользоваться для решения общепланетарных проблем.
Выключить вышедшую из-под надзора систему также будет чрезвычайно непросто, как как она найдет метод себя обезопасить. Аналитик призвал притормозить или даже приостановить изыскания в области искусственного разума.