Lora
LoraПодписчиков: 458
РейтингРейтингРейтингРейтингРейтинг690.4к

Что особенного в модных ИИ ?

7 просмотров
1 дочитывание
1 комментарий
Эта публикация уже заработала 0,40 рублей за дочитывания
Зарабатывать

Что особенного в модных ИИ?


ChatGPT, Bard, Midjourney, Stable Diffusion… Алгоритмы, которые попадают в заголовки прессы и привлекают пользователей Интернета с 2022 года, имеют одну общую черту: все они представляют собой генеративный ИИ. Этот подтип позволяет создавать оригинальный контент, часто для творческих отраслей (кино, видеоигры, реклама и т. д.), желающих быстро и с небольшими затратами экспериментировать с концепциями.

Судя по всему, в их использовании есть что-то магическое, вроде обращения к джинну лампы. «Люди воображают, что машины изобретают вещи, но это совершенно неверно », — демистифицирует Карин Дешинкель. Мы те, кто дал ему алгоритмы и методы. »

Его преимущество в том, что он способен рождать то, чего не существует, но могло бы существовать. Так произошло с десятой симфонием Бетховена. В 2021 году под руководством инженеров и музыковедов алгоритм искусственного интеллекта, снабженный партитурами композитора, предложил полную версию симфонии, рассчитав для каждой последовательности, какая последовательность нот была наиболее вероятной, при отсутствии наиболее поэтичной. , учитывая уже существующие работы художника.

Предложение в этой области резко возросло с конца 2022 года. Само по себе это не является технологической революцией, поскольку этот тип ИИ существует уже около десяти лет в лабораториях технологических гигантов, но последние предпочитали не обнародовать свои исследования. , пока они потратили время на совершенствование этих инструментов. Это не относится к таким стартапам, как OpenAI. Благодаря этому произошла революция в использовании: поскольку эти ИИ стали общедоступными, любой пользователь Интернета может создавать стихи, рэп-песни, постеры к фильмам и т. д., используя программное обеспечение алгоритмического воображения. Но это только один тип ИИ.

Каковы различные применения ИИ?

Они становятся все больше и больше.

В Интернете многие поисковые системы, такие как Google или Bing, предоставляют персонализированные ответы на основе запросов пользователей, точно так же, как служба онлайн-сообщений Gmail прогнозирует вежливые фразы в электронных письмах. ИИ также стоит за таргетированной рекламой, автоматическим переводом и даже агентами общения или чат-ботами.

В повседневной жизни, благодаря своей вычислительной мощности, ИИ теперь используется для прогнозов погоды, анимации телефонных колл-центров, анализа профилей при наборе персонала, а также для прогнозирования дорожного движения, анализа медицинских изображений, управления запасами или даже автоматизированное написание коротких журналистских статей. Фармацевтическая промышленность также использует его для создания новых лекарств.

В медицинском мире искусственный интеллект специализируется на анализе и интерпретации «Это своего рода мигающий свет, предупреждение », — отмечает Лора Абенсур Вийом, специалист по неотложной медицинской помощи в CHR Мец-Тьонвиль. ИИ не работает лучше, чем врач, но пара ИИ-доктор справляется лучше, чем врач в одиночку. »

ИИ также может быть «встроен» : автономные автомобили, умные термостаты, подключенные объекты, промышленные роботы и т. д.

Действительно ли ИИ разумен?


Это великая фантазия, которую передает ее название, но по сей день это не совсем так. ИИ способен имитировать несколько функциональных аспектов человеческого интеллекта (восприятие окружающей среды, запоминание, язык, моторика, расчет, решение задач и т. д.), но по сути в однозадачном режиме. У него нет способности чувствовать, переживать эмоции, проявлять любопытство, покидать поле, для которого оно было создано, а также иметь какую-либо форму осознания самого себя.

Можно выделить три основных теоретических уровня ИИ:

--- Сверхинтеллект, который превысит человеческие когнитивные способности и приведет к технологической сингулярности, то есть к непредсказуемому перевороту в ходе событий. Как персонаж Скайнета в «Терминаторе» или Матрица в «Матрице» , это научная фантастика.

--- Сильный ИИ, который будет предлагать универсальность, сложность и уровень осведомленности, сравнимый с человеческим, и сможет решать проблемы в сложных средах. Именно это и имели в виду пионеры этой области. Воспринимаемая как философская точка зрения, она в настоящее время недостижима из-за отсутствия достаточно мощных суперкомпьютеров, а также понимания и точного моделирования человеческого интеллекта.

--- Слабый ИИ или узкий ИИ, ИИ инженеров, который имитирует определенные аспекты человеческого мышления ограниченным и сверхспециализированным способом. Это касается практически всех ИИ, находящихся в обращении сегодня.

Функционально они способны анализировать контекст вмешательства, решать проблемы, предпринимать действия с поставленной перед ними целью и в определенной степени адаптироваться к ситуации, но не выходить за свои рамки.

Даже слабый ИИ, строго говоря, не является «разумным». На основе гигантских баз данных, на которых они «обучены», они делают выводы, чтобы дать наиболее вероятный ответ на запрос пользователя. Как объяснил в 2019 году об алгоритме игры го AlphaGo франко-американский инженер Люк Джулия, разработчик голосового помощника Apple Siri: «Здесь нет никакого интеллекта, просто масса данных и немного статистики. »

Являются ли ИИ непогрешимыми?


Конечно, нет. Современные ИИ имеют несколько серьезных недостатков.

Галлюцинации. ИИ, особенно генеративные, обычно делают совершенно выдуманные утверждения в безапелляционном тоне. В 2023 году юридическая фирма получила выговор от нью-йоркского судьи за то, что опубликовала написанную ChatGPT записку, в которой алгоритм в особенно убедительно утвердительном тоне подсунул шесть судебных решений, на самом деле совершенно фиктивных.

В Google считали, что уменьшение этих галлюцинаций в настоящее время является «фундаментальной» задачей для генеративного ИИ. Таким образом, региональная ежедневная газета извлекает общие уроки из экспериментального использования ChatGPT для названия и редактирования статей: если руководство было удовлетворено экономией времени, то журналисты отмечали многочисленные приближения и ошибки, противоречащие этике новостного издания. Журнал.

Предубеждения. Поскольку ИИ «обучаются» на базах данных, они должны содержать только предвзятости, чтобы алгоритм мог их воспроизвести. В 2016 году Microsoft пришлось быстро отключить от сети Тая, разговорного ИИ, который делал негативные комментарии. «Многие люди говорят нам, что это показывает, что у ИИ есть предубеждения ».Но нет. Это показывает, что у нас есть предубеждения и что ИИ их учит. » Таким образом, использование искусственного интеллекта в видеонаблюдении демонстрирует этническую предвзятость. Компьютерный инженер Джой Буоламвини, основательница Лиги алгоритмической справедливости — организации, стремящейся бороться с предвзятостью в процессах принятия решений в области программного обеспечения, — показала в 2018 году, что ее уровень ошибок при идентификации составлял 1% для белого мужчины и от 35% до 38% для женщины цвет.

Лазейки. Наконец, злонамеренные пользователи могут отвлечь ИИ от их первоначального использования, либо играя с инструкциями, либо «отравляя» их базу данных. Вот как так называемый «бабушкин» недостаток позволил пользователям Интернета заставить ChatGPT объявить рецепт бомбы.

Представляет ли ИИ риски?


Конечно. Они связаны как с чувствительностью областей, в которых они используются, так и с ошибками или злонамеренными действиями в человеческом контроле. При неправильном использовании ИИ на самом деле может использоваться для рассылки заманчивого спама, фишинга для получения личных данных, создания вводящих в заблуждение веб-сайтов, создания изображений насилия, расизма или сексизма (например, для создания ложных порнографических фотографий знаменитостей; для одевания женщин на фотографии, одежда которых считается слишком свет). Оно также может иметь недемократическое применение. В России ИИ обучают идентифицировать участников антипутинских протестов.

Его дисфункции и статистические искажения также могут иметь серьезные последствия, особенно потому, что алгоритмы ИИ используются в мире правосудия, здравоохранения и даже в армии — американская армия успешно протестировала боевые действия, управляемые ИИ. Расследование независимого израильского сайта +972 показывает, что армия еврейского государства слишком уверенно полагается на ИИ Лаванду для определения целей своих бомбардировок, несмотря на ошибки идентификации, отмеченные в 10% случаев атак.

«Мы должны быть очень осторожны, чтобы не использовать методы искусственного интеллекта бездумно и не доверять им чрезмерно », — предупреждает Жан-Габриэль Ганасия. В марте 2024 года Организация Объединенных Наций в своей резолюции призвала к установлению четких международных правил, регулирующих использование ИИ.

1 комментарий
Понравилась публикация?
2 / 0
нет
Подписаться
Донаты ₽

Опрос дня:Пост о Работе

Комментарии: 1
Отписаться от обсужденияПодписаться на обсуждения
ПопулярныеНовыеСтарые
Рассылка 9111.ru
Подписчиков 1891
17.04.2024, 15:30
РейтингРейтингРейтингРейтингРейтинг1.2М
Поскольку для участия в ежедневном конкурсе публикаций не требуется абсолютная грамотность,...
Подробнее
Неинтересно
-1
110
Сальникова Татьяна Спартаковна
Подписчиков 1586
26.02.2024, 14:05
РейтингРейтингРейтингРейтингРейтинг732.9к
Оказывается, и такое бывает. И тому подтверждением является история, которая произошла совсем недавно.
Подробнее
Неинтересно
-2
35
Плетус Валерий
Подписчиков 45
25.04.2024, 15:57
РейтингРейтингРейтингРейтингРейтинг25.4к
В современном мире медицина сталкивается с множеством вызовов, среди которых ...
Подробнее
Неинтересно
0
1
Рассылка 9111.ru
Подписчиков 1891
17.04.2024, 15:30
РейтингРейтингРейтингРейтингРейтинг1.2М
Поскольку для участия в ежедневном конкурсе публикаций не требуется абсолютная грамотность,...
Подробнее
Неинтересно
-1
110