ChatGPT может иметь необратимые последствия для обучения и принятия решений. Станут ли люди продолжением своих машин?
Мы уже полагаемся на цифровые костыли во многих аспектах нашей жизни – будем ли мы делегировать ИИ даже наши основные способности?

Современная траектория человечества была определена несколькими точками перегиба. Изобретение электричества, электрической лампочки, телеграфной системы, компьютера и Интернета, среди прочего, ознаменовало новые необратимые вехи в нашем образе жизни.
Однако недавнее внедрение ChatGPT может оказаться чем-то большим, чем просто точкой перегиба. Ит и подобные им модели искусственного интеллекта могут стать постоянным нарушителем нашего образа жизни, несмотря на их ляпы и истерики Wokist.
Чат GPT в настоящее время является самым быстрорастущим потребительским приложением в истории. За два месяца с момента своего запуска в ноябре 2022 года ChatGPT удалось привлечь более 100 миллионов пользователей. Его разработчик OpenAI, который начинал с 375 сотрудников и незначительной выручки, сейчас оценивается в 30 миллиардов долларов и продолжает подсчитывать.
Как это работает? ChatGPT агрегирует данные, полученные из Интернета (хотя он не подключен напрямую к Интернету в режиме реального времени) и синтезирует ответы на запрос в течение нескольких секунд. В настоящее время это самая универсальная и стабильная из новых моделей больших языков на базе искусственного интеллекта. Он может сочинять музыкальные ноты, писать программный код, решать математические уравнения, писать романы, эссе и диссертации, а также множество других задач. Он может быть использован учеными для перевода их оригинальных работ, написанных на родном языке, на английский. По мере развития инструментов искусственного интеллекта, таких как ChatGPT, они могут вытеснить человеческую деятельность в широком, но неисчислимом спектре. На карту могут быть поставлены сотни миллионов рабочих мест.
Однако его наиболее непосредственное воздействие будет оказано в области обучения людей и принятия решений.
Человеческое обучение
Человеческое обучение - это процесс на протяжении всей жизни, формируемый множеством факторов. К ним относятся (но не ограничиваются ими) опыт, инстинкт, взаимодействия, ошибки (и исправления), самоанализ, личная тревога, смелость, опека, текстовые данные и индивидуальная психика. Большинство из этих предварительных условий чужды ChatGPT. Аксиома человеческого обучения и развития “нет боли - нет выгоды” к нему неприменима.
Инструменты искусственного интеллекта также не подвержены влиянию человеческих ограничений, таких как нехватка времени, усталость, “выходные дни” и недомогания. Эти ограничения - это то, что в конечном итоге может заставить людей делегировать свою экзистенциальную потребность думать и учиться машинам. Неумолимая оцифровка уже научила нас понимать, где и как искать информацию, вместо того, чтобы учиться сохранять эту самую информацию.
В результате цифровой костыль теперь необходим для навигации по дорогам (например, Waze, Google Maps), приготовления пищи (кулинарные видеоканалы), починки бытовой техники (каналы DIY) и множества других повседневных занятий. Наши ежедневные задачи быстро становятся все более механистичными, вытесняя нашу способность создавать что-то новое или менять правила игры. Мы становимся продолжением наших машин, а не наоборот. В результате человечество сталкивается с эпохой коллективного оцепенения и конформизма.
Нет лучшего способа оценить, как инструменты искусственного интеллекта могут повлиять на наши способности к мышлению и обучению, чем наблюдать за влиянием ChatGPT на глобальный сектор образования. Как студенты, так и преподаватели теперь используют ChatGPT в качестве дополнения, инструмента для обмана или цифровой опоры
Недавний опрос, проведенный Фондом семьи Уолтон и Impact Research, показал, что большинство учителей (51%) и многие учащиеся уже используют ChatGPT в школах. Другой опрос, в котором приняли участие 1000 колледжей США, показал, что 30% студентов использовали ChatGPT для письменных заданий, при этом 60% из них использовали его "более чем в половине своих заданий". ChatGPT сдал множество экзаменов высокого уровня, включая экзамен Wharton MBA, экзамен на медицинское лицензирование в США, несколько юридических экзаменов и выпускной в Стэнфордской медицинской школе.
Бумажные фабрики также могут использовать ChatGPT для изготовления научных статей и отчетов. Исследователи, которые используют его данные (помните, что искусственный интеллект “иногда может давать неправильные ответы”) или которые намеренно фальсифицируют процесс исследования с помощью генеративного искусственного интеллекта, могут в конечном итоге продвигать политику и продукты, наносящие ущерб обществу. Мир не может позволить себе еще один коронапишоз!
В целом, как студенты, так и преподаватели все больше пугаются всемогущего искусственного интеллекта. Искусственный интеллект поднимает планку для студентов, профессоров и множества профессионалов. Сортировать подлинные артефакты также становится все труднее. Как недавно отметил Кристофер Канан, адъюнкт-профессор компьютерных наук в Университете Рочестера: “Становится все труднее разобраться, кто что знает и кому помогают такие сервисы, как ChatGPT”. В результате несколько школ в Нью-Йорке, Гонконге, Бангалоре и других местах запретили учащимся используют ChatGPT в своих заданиях из-за опасений по поводу плагиата, мошенничества и дезинформации.
Хотя ChatGPT - отличный инструмент для изучения сложных концепций и направлений интеграции знаний, на самом деле он может превратить большинство пользователей в послушных потребителей данных, генерируемых искусственным интеллектом. Длительная пассивность, опосредованная цифровыми технологиями, атрофирует способность к мышлению.
Еще одним недостатком ChatGPT является его потенциал для расширения широко обсуждаемого цифрового разрыва. Заявления о приеме на работу, продвижении по службе, стипендиях и т.д. будет в подавляющем большинстве отдавать предпочтение цифровым “имущим” перед цифровыми “неимущими”, особенно после того, как для доступа потребуется абонентская плата.
Педагоги на данный момент не в состоянии определить этические границы ChatGPT и в настоящее время занимают выжидательную позицию. Сама этическая основа может быть написана с помощью таких инструментов, как сам ChatGPT, или с их помощью. Айни Сюзана Ариффин, доцент кафедры политических исследований Технологического университета Малайзии, убеждена, что педагогам не нужно беспокоиться. “Этическая основа для генеративных инструментов искусственного интеллекта, таких как ChatGPT, позволит разобраться в том, что усиливает процесс обучения, а что ему препятствует. Это может занять время и повлечет за собой много дискуссий, но нам лучше начать сейчас”.
Человеческое принятие решений
Правительство Сингапура недавно объявило, что его государственные служащие начнут использовать ChatGPT для облегчения своей рабочей нагрузки. Это имеет смысл, поскольку повторяющиеся или рутинные задачи могут быть ускорены с помощью инструментов искусственного интеллекта. Однако по мере того, как генеративные инструменты искусственного интеллекта становятся экспоненциально более интеллектуальными и эффективными, комплекс управления может постепенно быть узурпирован машинами. Эта формирующаяся форма социального устройства называется “алгократия”; та, в которой алгоритмы, особенно искусственный интеллект и блокчейн, применяются по всему спектру государственного управления. Алгократия неизбежно влечет за собой прогнозирующее управление. Полиция Берлина уже внедрила зачаточную форму алгократии в свою прогностическую полицейскую систему. Столкнемся ли мы в ближайшем будущем с обществом отчетов меньшинства?
ChatGPT также ускоряет поток информации на высшие уровни принятия решений в правительстве или организации - минуя традиционные роли привратников бюрократии на промежуточных уровнях. Хотя это может быть воспринято как отрадное событие в борьбе с бюрократией, отсутствие традиционных сдержек и противовесов может привести к безапелляционным решениям с печальными социально-экономическими последствиями. Представьте себе внедрение такого алгократического процесса в инфраструктуру ядерного оружия военной сверхдержавы.
ChatGPT также подвержен риску нарушения конфиденциальности и утечки персональных данных в таких секторах, как банковское дело и здравоохранение. Эффективность инструментов генеративного искусственного интеллекта подпитывается постоянно растущим объемом данных, которые постоянно закольцовываются обратно в их нейронные сети. Это стремление к точности, эффективности и скорости может привести к компрометации личных данных в процессе машинного обучения.
В области здравоохранения информированное согласие на медицинское обслуживание с использованием искусственного интеллекта может быть сведено к минимуму, поскольку пациенты могут либо не понимать, на что они соглашаются, либо чрезмерно доверять “интеллектуальной и беспристрастной” машинной системе. Это становится еще более зловещим, когда в критических ситуациях необходимо применять сортировку. Традиционно сортировка определяется добросовестностью и навыками присутствующего медицинского персонала, а также ресурсами, доступными на месте. Алгоритм, однако, может беспристрастно организовать сортировку на основе “ценности пациента для общества”; предполагаемой продолжительности жизни на основе данных; и затраты, связанные со спасением жизни пациента.
В конце концов, будут ли этические рамки искусственного интеллекта заблокированы техническими титанами, которые могут определять дизайн, параметры и цели генеративных инструментов искусственного интеллекта? Или наши избранные лидеры попытаются добиться синергетического сосуществования между искусственным интеллектом и людьми?
Навряд ли люди будут продолжения машин, но технологий нервы сети будут пользоваться очень активно
Большое количество людей могут оказаться ненужными.
ИИ не может заниматься творчеством. Занимайтесь творчеством, в любой сфере и всегда будете востребованы.
Да, теперь попробуй отличить знающего от невежды, умного от дурака. Есть одно спасение - личное общение. Тогда все станет ясно
Это точно. Но, я думаю, всё не так печально. Будут методы отличать.
Само всё решится!
Да, человеческий мозг просто так не сдаст позиции.
Согласен!