Что такое генеративный ИИ?
OpenAI - далеко не единственный игрок в игре ATG. Генеративный ИИ (или, более кратко, gen-AI) - это практика использования алгоритмов машинного обучения для создания нового контента - будь то текст, изображения, аудио или видео - на основе обучающего корпуса помеченных баз данных примеров. Это стандартный режим обучения без подкрепления, на котором обучаются AlphaGo от Google, системы рекомендаций песен и видео по всему интернету, а также системы помощи водителю автомобиля. Конечно, если такие модели, как Stability AI от Stability Diffusion или Imagen от Google, обучаются преобразовывать в изображения все более высокого разрешения шаблоны случайных точек, то такие ATG, как ChatGPT, переделывают отрывки текста, взятые из обучающих данных, для создания подозрительно реалистичной, хотя зачастую и пешеходной, прозы.
"Они обучаются на очень большом количестве входных данных", - сказал Engadget доктор Питер Крапп, профессор кафедры кино и медиа в Калифорнийском университете в Ирвайне. "В результате получается более или менее... усредненный результат. Оно никогда не поразит нас своей исключительностью, особой меткостью, красотой или мастерством. Он всегда будет в какой-то степени компетентным - в той степени, в какой мы все вместе в какой-то степени компетентны в использовании языка для выражения своих мыслей".
Генеративный ИИ уже является большим бизнесом. В то время как яркие события вроде того, что на создателя Stable Diffusion подали в суд за соскабливание обучающих данных с Meta** или ChatGPT удалось пробить себе дорогу в медицинскую школу (да, в дополнение к Уортону), привлекают внимание, компании из списка Fortune 500, такие как NVIDIA, Facebook****, Amazon Web Services, IBM и Google, спокойно используют генеративный ИИ в своих интересах. Они используют его во множестве приложений, от улучшения результатов поисковых систем и предложения компьютерного кода до написания маркетингового и рекламного контента.
Секрет успеха ChatGPT
Как отмечает доктор Крапп, попытки заставить машины общаться с нами так же, как мы общаемся с другими людьми, начались в 1960-х и 70-х годах, причем лингвисты были одними из самых первых. "Они поняли, что некоторые разговоры можно смоделировать таким образом, что они будут более или менее самодостаточными", - объясняет он. "Если я могу вести разговор со стереотипным среднестатистическим терапевтом, это значит, что я могу запрограммировать компьютер на роль терапевта". Вот так Элиза стала пасхальным яйцом НЛП, спрятанным в Emacs, популярном текстовом редакторе Linux.
