ChatGPT — это не большой скачок вперед, это дорогая сделка с дьяволом
Новый чат-бот вызывает много ажиотажа, но было бы неплохо учесть его человеческие и экологические издержки.

Иногда те, кто хочет забыть историю, обречены на ее повторение. Для тех из нас, у кого долгая память, нынешняя суета — нет, истерия — вокруг ChatGPT (и « генеративного ИИ » в целом) звонит в колокольчик.
Мы уже были здесь раньше: в январе 1966 года, если быть точным. Это был момент, когда Джозеф Вейценбаум, специалист по информатике из Массачусетского технологического института, представил Eliza , которую можно было бы назвать первым в мире чат-ботом, если бы этот термин существовал в то время. Вейценбаум написал программное обеспечение (на языке программирования с интригующим названием MAD-SLIP), чтобы продемонстрировать, что общение между людьми и компьютерами неизбежно поверхностно. Он сделал это, предоставив текстовое поле, в котором можно было обмениваться печатными сообщениями с машиной. Внутри программы был сценарий (названный Вейценбаумом ДОКТОРОМ), который пародировал диалог пациента с психотерапевтом, практикующим личностно-ориентированную терапию. Впервые был предложен Карлом Роджерсом. (Название программы произошло от Элизы Дулиттл, девушки кокни, которую научили «говорить правильно» в пьесе Шоу « Пигмалион » .)
Это работает следующим образом: программа принимает то, что вы набрали, и обрабатывает его для получения ответа. Предположим, вы напечатали (как я только что сделал): «Меня немного угнетает политика Великобритании». Элиза: «Ты думаешь, приход сюда поможет тебе не впадать в депрессию?» Я: «Надеюсь». Элиза: Вы говорите, что надеетесь на это по какой-то особой причине? Вы поняли суть, но вы можете попробовать сами: просто зайдите на сайт masswerk.at/elizabot/ .
Вейценбаум написал программу, чтобы показать, что, хотя машины, по-видимому, могут копировать человеческое поведение, на самом деле это было похоже на то, как фокусник вытаскивает кролика из шляпы: иллюзия. И как только вы узнаете, как делается трюк, подумал Вейценбаум, он перестанет быть иллюзией. В Элизе не было ничего секретного: если вы читали код, то могли понять, как он работает. Что застало врасплох его создателя, так это то, что даже если люди знали, что это всего лишь программа, они, похоже, относились к ней серьезно. Есть известная история о том, как его секретарь попросила его выйти из комнаты, пока она «разговаривала» с Элизой. Люди были совершенноочарован этим. (Я видел это сам, когда однажды запустил его на ПК на дне открытых дверей в моем университете, и мне пришлось оторвать людей от машины, чтобы другие в очереди могли попробовать.)
После публикации статьи Вейценбаума об Элизе некоторые люди (в том числе некоторые практикующие психиатры) вскоре начали говорить, что если машина может делать такие вещи, то зачем нужны психотерапевты? Вейценбаум был потрясен этим так же, как сегодняшние педагоги и художники — современным рабством над инструментами генеративного ИИ. Для него, как выразился один проницательный комментатор,«В отношениях между человеком и его терапевтом было что-то такое, что по сути было похоже на встречу двух людей. Языком, который временами напоминал формулировку Мартина Бубера «Я и ты», Вейценбаум по-прежнему зацикливался на важности взаимодействия между людьми». В этом смысле он был не только выдающимся ученым-компьютерщиком, но и известным гуманистом.
Это гуманистическое негодование подпитывало его пожизненную оппозицию технологическому детерминизму «искусственной интеллигенции». И это послужило основой для его книги 1976 года « Мощность компьютера и человеческий разум », которая подтвердила его роль занозы в боку толпы ИИ и поставила его в один ряд с книгой Норберта Винера « Человеческое использование человеческих существ » в изложении оговорок технологического инсайдера относительно направления. Пути человечества к «автоматизации всего».
Интригующим эхом Элизы в размышлениях о ChatGPT является то, что люди считают его волшебным, хотя и знают, как он работает — как «стохастический попугай » (по словам Тимнита Гебру, известного исследователя) или как машину для « высокотехнологичный плагиат » (Ноам Хомский). Но на самом деле мы еще не знаем и половины этого — ни выбросов CO 2, возникающих при обучении базовой языковой модели, ни углеродного следа всех тех приятных взаимодействий, которые люди испытывают с ней. Или, в погоне за Хомским, что технология существует только благодаря несанкционированному присвоению творческого труда миллионов людей, который случайно завалялся в сети? Какова бизнес-модельза этими инструментами? И так далее. Ответ: мы не знаем.
В одной из своих лекций Вейценбаум отметил, что с помощью этой технологии мы постоянно заключаем фаустовские сделки. В таких контрактах обе стороны что-то получают: дьяволу достается человеческая душа; люди получают услуги, которые нас радуют. Иногда компромисс работает для нас, но с этим материалом, если мы в конце концов решим, что это не так, будет слишком поздно. Это сделка, которую теперь предлагает генеративный ИИ. Готовы ли мы к этому?