Mihall65
Mihall65 Подписчиков: 963
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 63.8к

ChatGPT. Вся правда о больших языковых моделях. Кому они служат и кому могут навредить. Часть 1

8 дочитываний
2 комментария
Эта публикация уже заработала 0,50 рублей за дочитывания
Зарабатывать

Антропоморфизация моделей машинного обучения, таких как ChatGPT, призвана убедить нас в том, что даже если эти технологии не являются полностью безопасными и безвредными, они, по крайней мере, нейтральны. Для того чтобы нам было сложнее увидеть вред, который они могут нанести

ChatGPT и другие большие языковые модели,LLM, от Large Language Models, похоже, понимают, о чем их спрашивают, и способны давать осмысленные, интересные ответы. Midjourney и подобные инструменты генерируют изображения на заданную тему и в заданном стиле. С помощью ИИ смартфоны могут распознавать текст на изображениях и переводить его на любой язык. У ИИ был большой успех и отличная пресса.

ChatGPT. Вся правда о больших языковых моделях. Кому они служат и кому могут навредить. Часть 1

Однако стоит внимательнее присмотреться к заложенным в них предубеждениям и к тому, кому они служат и кому они могут навредить.

Трудно не согласиться с профессором Александрой Пшегалинской, которая утверждает, что ChatGPT , это своего рода прорыв, как в технологическом, так и в социальном смысле. Ответы, выдаваемые этим инструментом на поставленные вопросы, удивительно убедительны, а широкий доступ к нему привел к тому, что он в мгновение ока стал пользоваться необычайной популярностью.

То же самое произошло с Midjourney или DALL-E , инструментами, которые генерируют изображения на основе заданных запросов.

Как грибы после дождя, появляются сервисы, пытающиеся использовать эти модели в контекстах, где они никогда не применялись ранее. Но, как пишет доктор Дэн Макмиллан, автор книги "Сопротивление ИИ": "Привычка заботиться о "балансе" при освещении предполагаемого положительного потенциала ИИ должна быть заменена признанием того, что его положительные социальные эффекты все еще остаются лишь предположениями, а вред, который он наносит, уже был эмпирически продемонстрирован".

"Хотя ChatGPT выглядит эффектно, не очень понятно, к чему его можно применить на практике", - говорит профессор Петр Гаврисяк из Варшавского технологического университета в интервью порталу "Наука в Польше".

"Обучение", обслуживание и использование алгоритмов машинного обучения имеет специфические затраты и несет специфические риски, которые редко упоминаются в восторженных сообщениях СМИ и рекламных материалах компаний разработчиков.

Однако, чтобы иметь возможность говорить о них, мы должны сначала разобраться с языком.

Искусственный интеллект или что?

Такой вид "искусственного интеллекта", а точнее, модели (в смысле математической модели), использующей машинное обучение, не является чем-то новым. Различные их реализации, в конце концов, используются уже много лет в самых разных областях: от фильтрации спама и предложения окончания написанного нами запроса в поисковой системе до распознавания лиц, объектов и чтения регистрационных номеров на записях городских камер наблюдения.

Такие инструменты, как DALL-E или ChatGPT, используют так называемое глубокое машинное обучение.

Глубокое машинное обучение - это математика: статистика, вероятность, линейная алгебра и дифференциальное исчисление. Плюс данные для "обучения" модели.

Хорошие (хотя и краткие) объяснения того, как это работает, можно найти в Интернете, но для наших целей достаточно знать, что все такие модели являются вероятностными и требуют "обучения" на огромных объемах данных.

Насколько огромных?

Коллекция ImageNet, часто используемая для обучения моделей распознавания образов, составляет около 150 Гигабайт.

Архив Common Crawl, используемый для обучения GPT-3 (предшественник модели, на которой основан ChatGPT), - это уже петабайты (тысячи терабайт) данных.

Для разных приложений создаются разные модели.

Модели, используемые текстовыми инструментами, отличаются от моделей, используемых для распознавания изображений (например, система, используемая в некоторых Frogs), и они отличаются от моделей, используемых для генерации изображений на заданную тему (например, Midjourney или DALL-E).

Однако основы остаются теми же: математика и множество данных на входе, вероятностные результаты на выходе.

Бессмысленные ответы

На самом базовом уровне задача языковых моделей (таких как ChatGPT) состоит в том, чтобы, получив текст, найти наиболее вероятное следующее слово, следующую фразу, следующее предложение.

Мы используем языковые модели уже много лет. Простые, повседневные приложения включают, например, подсказку слов при наборе текста на клавиатуре смартфона или предложение возможных окончаний для запроса, который мы только что ввели в поисковую систему. Экранные клавиатуры смартфонов часто "учатся" на том, что мы набираем, так что со временем мы получаем все более качественные подсказки.

ChatGPT - это, конечно, более продвинутая модель, "обученная" на гораздо большем количестве данных, поэтому она может более эффективно "угадывать", каким может быть следующее слово или предложение. Настолько, что даже длинные тексты, созданные с ее помощью, выглядят разумно.

Это не меняет того факта, что

На этом фундаментальном уровне даже ChatGPT остается просто машиной для вычисления вероятности того, что данное слово или фраза появится (или должна появиться) дальше.

И это в корне отличается от реального ответа на заданный вопрос - ведь для этого нужно понять, что мы спрашиваем, а не обрабатывать текст, который мы ввели, на уровне строк символов, организованных в слова.

Модель не "понимает" наших запросов (или ответов), точно так же, как онлайн-словарь не понимает слов, которые мы в нем ищем, а экранная клавиатура смартфона не понимает сообщения, которое мы собираемся набрать.

Предоставляя ответ, ChatGPT также не пытается "сказать" нам что-либо (в смысле намеренно, сознательно передать какое-то содержание). Система просто вероятностно обрабатывает текст, возвращая последовательность слов или предложений, которые оцениваются как наиболее вероятные.

Таким образом, можно сказать, что ответы ChatGPT (и других языковых моделей), бессмысленны.

Они могут быть полезными и интересными для нас, но пытаться найти в них смысл - все равно что пытаться найти животных в форме облаков.

Субъективность модели

Термин "машинное обучение" - это метафора, помогающая нам построить некоторые интуитивные представления о том, как работают эти системы. Однако реальное обучение требует преднамеренности, субъективности, любопытства, которых нет и просто не может быть даже у самых лучших, самых продуманных моделей.

Существует разница между наблюдением, переживанием, обучением, размышлением о чем-то, как это делают люди, и тем видом "обучения", которое делают компьютеры".

Можно, конечно, настаивать на том, что искусственный интеллект в виде таких моделей, как GPT-3.5 (на которой основан ChatGPT), обладает субъективностью, может действовать намеренно и действительно может учиться - но тогда, ради последовательности, придется серьезно обсудить этические вопросы, например: квалифицируется ли возможное удаление такой модели так же, как убийство животного в эксперименте?

Если это звучит абсурдно, то язык, олицетворяющий эти системы, должен звучать столь же абсурдно.

Этот язык имеет значение. "Один из самых больших ранних успехов исследователей ИИ в этой области заключается в том, как мы говорим об ИИ сегодня - а именно, используя этот индивидуализирующий, персонифицирующий язык. Если бы мы честно и безэмоционально говорили о создании больших динамических компьютерных моделей с использованием наборов данных и не позволяли бы вкрадываться никаким персонифицирующим терминам, он хочет верить, что нам было бы гораздо легче увидеть сквозь чепуху, которую люди пытаются навязать нам в этом контексте".

Продолжение следует.

Источник: wikipedia

2 комментария
Понравилась публикация?
11 / 0
нет
0 / 0
Подписаться
Донаты ₽
Комментарии: 2
Отписаться от обсуждения Подписаться на обсуждения
Популярные Новые Старые

Статья интересная!

+2 / 0
картой
Ответить
раскрыть ветку (0)
Автор статей Mihall65
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 63.8к
03.03.2023, 10:41
Калининград

Спасибо!

0
картой
Ответить
раскрыть ветку (0)

Новое "супероружие" Путина. Британцы в панике от русских голубей биодронов

В Британии пришли в ужас от нового "супероружия" Путина. Как рассказывают агенты разведки Лондона в России образованы целые "боевые" крылатые эскадрильи, которые были якобы созданы по личному приказу Путина.

Искусственный интеллект и виртуальная реальность: главные интернет-тренды ноября 2025

В ноябре 2025 года в интернете продолжают активно обсуждать темы искусственного интеллекта и виртуальной реальности. Массовое внедрение генеративных нейросетей, которые теперь создают не только тексты,

Новое "супероружие" Путина. Британцы в панике от русских голубей биодронов

В Британии пришли в ужас от нового "супероружия" Путина. Как рассказывают агенты разведки Лондона в России образованы целые "боевые" крылатые эскадрильи, которые были якобы созданы по личному приказу Путина.

Звёздное сияние Ижоры в Межстоличьи /Статья третья незапланированная /Интермедия.

У меня есть невыполненное обязательство перед собой. "Звездное сияние Ижоры в Межстоличьи. Часть вторая "Жар-птица"" Я действительно нашёл несколько статей, и они постоянно «висят» на экране моего монитора,...