Могут ли компьютеры думать? Почему на этот вопрос так трудно ответить.
Для ответа на этот вопрос я собрал подробную статью которая поможет нам разобраться, приятного прочтения!

В 1950 году компьютерный ученый Алан Тьюринг предложил способ выяснить, могут ли машины думать.
Сегодня нас окружают так называемые "умные" устройства. Alexa играет музыку по запросу. Siri может сказать нам, кто выиграл вчерашнюю бейсбольную игру или будет ли сегодня дождь. Но являются ли эти машины по-настоящему умными? Что вообще значит для компьютера быть умным?
Виртуальные помощники могут быть новыми, но вопросы о машинном интеллекте - нет. Еще в 1950 году британский математик и компьютерный ученый Алан Тьюринг придумал способ проверить, действительно ли машина умна. Он назвал это "игрой в имитацию". Сегодня мы называем его тестом Тьюринга.
Игра проходит следующим образом: Кто-то - назовем его игрок А - сидит один в комнате и набирает сообщения для двух других игроков. Назовем их B и C. Один из этих игроков - человек, другой - компьютер. Задача игрока А - определить, кто из игроков B или C - человек.
Тьюринг представил свою идею игры в 1950 году в статье, опубликованной в журнале Mind. Он начал статью такими словами: "Я предлагаю рассмотреть вопрос: "Могут ли машины мыслить?".
Это был смелый вопрос, учитывая, что компьютеров в том виде, в котором мы их знаем сейчас, еще не существовало. Но Тьюринг еще с 1936 года работал над идеей создания первого компьютера, который люди могли бы программировать с помощью программ. Это был бы компьютер, который мог бы делать все, что от него требуется, если бы ему были даны правильные инструкции.
Хотя он так и не был построен, разработка Тьюринга привела непосредственно к сегодняшним компьютерам. Тьюринг верил, что такие машины однажды станут достаточно сложными, чтобы по-настоящему мыслить.
Но Тьюринг также знал, что трудно показать, что на самом деле считается мышлением. Причина такой сложности в том, что мы даже не понимаем, как люди думают, говорит Айанна Ховард. Робототехник из Университета штата Огайо в Колумбусе, она изучает взаимодействие роботов и людей.
Игра Тьюринга в имитацию была умным способом обойти эту проблему. Если компьютер ведет себя так, как будто он думает, решил он, то можно считать, что он думает. Это может показаться странным предположением. Но мы делаем то же самое с людьми. У нас нет возможности узнать, что происходит в их головах.
Если кажется, что человек думает, мы предполагаем, что он думает. Тьюринг предложил использовать тот же подход при оценке компьютеров. Отсюда: тест Тьюринга. Если компьютер может обмануть кого-то и заставить поверить в то, что он человек, значит, он мыслит как человек.
Компьютер проходит тест, если он может убедить людей в том, что он человек, в 30 процентах случаев, когда он играет в игру. Тьюринг полагал, что к 2000 году машина будет способна справиться с этой задачей. За прошедшие с тех пор десятилетия многие машины справились с этой задачей. Но их результаты всегда были сомнительными. А некоторые исследователи теперь сомневаются в том, что тест Тьюринга вообще является полезным мерилом умения машин.
Чатботы проходят тест
В то время, когда Тьюринг предложил свою имитационную игру, это был всего лишь гипотетический тест или мысленный эксперимент. Компьютеров, способных сыграть в нее, не существовало. Но искусственный интеллект, или ИИ, с тех пор прошел долгий путь.
В середине 1960-х годов исследователь по имени Джозеф Вейзенбаум создал чат-бота под названием ELIZA. Он запрограммировал его на следование очень простому набору правил: ELIZA просто пересказывала любой заданный ей вопрос.
Одна из программ, которую могла запустить ELIZA, заставляла ее действовать как психолог, беседующий с пациентом. Например, если вы скажете ELIZA: "Я беспокоюсь, что могу провалить тест по математике", она может ответить: "Ты думаешь, что можешь провалить тест по математике?". Тогда, если вы ответите: "Да, я думаю, что могу", ELIZA может сказать что-то вроде: "Почему ты так говоришь?". ELIZA никогда не говорила ничего больше, чем стандартные ответы и переформулировки того, что ей говорили люди.
ELIZA никогда не проходила тест Тьюринга. Но вполне возможно, что она бы его прошла. Многие люди, взаимодействовавшие с ней, думали, что получают ответы от настоящего эксперта. Вейценбаум был в ужасе от того, что так много людей считали ELIZA умной - даже после того, как он объяснил, как "она" работает.
В 2014 году в Англии во время конкурса по тесту Тьюринга чат-бот ИИ под названием Eugene Goostman в течение пяти минут общался с каждым из 30 человек-судей. Ему удалось убедить 10 из них в том, что он человек. Казалось бы, этого было достаточно, чтобы пройти тест Тьюринга. Однако Юджин использовал несколько уловок. Более того, некоторые эксперты утверждают, что бот жульничал.
Евгений утверждал, что является 13-летним украинским мальчиком. Его разговоры велись на английском языке. Юность Евгения и незнание английского языка могли бы объяснить некоторые вещи, которые в противном случае могли бы показаться подозрительными. Когда один из судей спросил Евгения, какая музыка ему нравится, чатбот ответил: "Чтобы быть кратким, скажу лишь, что я НЕНАВИЖУ Бритни Спирс. Вся остальная музыка по сравнению с ней - ничего". Ошибка в написании слова "Бритни" и использование немного странной фразы "быть коротким" не вызвали подозрений. В конце концов, первый язык Евгения не был английским. А его комментарии о Бритни Спирс звучали так, как мог бы сказать подросток.
В 2018 году Google анонсировал новую программу персонального ИИ-помощника: Google Duplex. Она не участвовала в соревнованиях по тесту Тьюринга. Тем не менее, она была убедительной. Google продемонстрировал возможности этой технологии, заставив ИИ позвонить в парикмахерскую и назначить встречу. Администратор, записавшаяся на прием, похоже, не понимала, что разговаривает с компьютером.
В другой раз Duplex позвонил в ресторан, чтобы забронировать столик. И снова человек, принявший звонок, не заметил ничего странного. Это был короткий обмен мнениями. И в отличие от настоящего теста Тьюринга, люди, отвечавшие на звонок, не пытались специально оценить, был ли звонивший человеком.
Так прошли ли такие компьютерные программы тест Тьюринга? Скорее всего, нет, считает большинство ученых.
Тест Тьюринга дал пищу для размышлений многим поколениям исследователей ИИ. Но он также вызвал много критики.
Джон Лэрд - компьютерный ученый, который в июне ушел на пенсию из Мичиганского университета в Энн-Арборе. В прошлом году он основал Центр интегративного познания в Энн-Арборе, где сейчас и работает. На протяжении большей части своей карьеры он работал над созданием ИИ, способного решать множество различных типов задач. Ученые называют это "общим ИИ".
Лэрд говорит, что программы, которые пытаются пройти тест Тьюринга, не стараются быть настолько умными, насколько они могли бы быть. Чтобы казаться более человечными, они пытаются делать ошибки - например, орфографические или математические. Это может помочь компьютеру убедить кого-то в том, что он человек. Но, по его словам, это бесполезная цель для ученых в области ИИ, потому что это не поможет ученым создать более умные машины.
Гектор Левеск критикует тест Тьюринга по аналогичным причинам. Левеск является исследователем ИИ в Онтарио, Канада, в Университете Торонто. В своей работе 2014 года он утверждал, что дизайн теста Тьюринга заставляет программистов создавать ИИ, который хорошо умеет обманывать, но не обязательно является интеллектуальным в каком-либо полезном смысле. В ней он использовал термин "дешевые трюки" для описания методов, подобных тем, которые использовали ELIZA и Юджин Густман.
В целом, говорит Лэрд, тест Тьюринга хорош для размышлений об ИИ. Но, добавляет он, он не слишком полезен для ученых, занимающихся ИИ. "Сегодня ни один серьезный исследователь ИИ не пытается пройти тест Тьюринга", - говорит он.
Тем не менее, некоторые современные программы ИИ могут пройти этот тест".
Большие языковые модели, или БЯМ, являются одним из видов ИИ. Исследователи обучают эти компьютерные программы использовать язык, скармливая им огромные объемы данных. Эти данные поступают из книг, статей в газетах и блогах, а может быть, из социальных сетей, таких как Twitter и Reddit.
Обучение проходит примерно так: Исследователи дают компьютеру предложение, в котором пропущено одно слово. Компьютер должен угадать пропущенное слово. Поначалу компьютер справляется с этой задачей довольно плохо: "Тако - популярный... скейтборд". Но путем проб и ошибок компьютер начинает понимать, что к чему. Вскоре он может заполнить пробел следующим образом: "Тако - популярная еда". В конце концов, он может вывести: "Тако - популярная еда в Мексике и в США".
После обучения такие программы могут использовать язык так же, как это делает человек. Они могут писать сообщения в блогах. Они могут обобщать новостные статьи. Некоторые даже научились писать компьютерный код.
Вы наверняка взаимодействовали с подобными технологиями. Когда вы переписываетесь, ваш телефон может предложить следующее слово. Эта функция называется автозаполнением. Но LLM намного мощнее, чем автозаполнение. Брайан Кристиан говорит, что они похожи на "автозаполнение на стероидах".
Кристиан изучал информатику и философию. Сейчас он пишет книги о технологиях. Он считает, что большие языковые модели, возможно, уже прошли тест Тьюринга - по крайней мере, неофициально. "Многим людям, - говорит он, - будет трудно отличить текстовый обмен с одним из этих LLM от обмена со случайным незнакомцем".
Блейз Агуэра-и-Аркас работает в Google в Сиэтле, штат Вашингтон, и занимается разработкой технологий, использующих искусственный интеллект. В статье, опубликованной в журнале Daedalus в мае, он описывает разговоры, которые он вел с LaMDA, программой LLM. Например, он спросил LaMDA, есть ли у нее обоняние. Программа ответила, что да. Тогда LaMDA сказала ему, что ее любимые запахи - это весенний ливень и пустыня после дождя.
Конечно, Агуэра-и-Аркас знал, что общается с искусственным интеллектом. Но если бы он этого не знал, его можно было бы обмануть.
Трудно сказать, действительно ли какие-либо машины прошли тест Тьюринга. Как утверждают Лэрд и другие, тест в любом случае может мало что значить. Тем не менее, Тьюринг и его тест заставили ученых и общественность задуматься о том, что значит быть умным - и что значит быть человеком.
В 2009 году Кристиан принял участие в соревновании по тесту Тьюринга. Он написал об этом в своей книге "Самый человечный человек". Кристиан был одним из тех, кто пытался убедить судей в том, что он не компьютер. Он говорит, что это было странное чувство - пытаться убедить другого человека в том, что он действительно человек. По его словам, этот опыт начинался с изучения информатики. Но очень быстро он превратился в изучение того, как мы общаемся с другими людьми. "В итоге я узнал о человеческом общении столько же, сколько и об искусственном интеллекте", - говорит он.
Еще один важный вопрос, стоящий перед исследователями ИИ: Каковы последствия того, что машины становятся более похожими на людей? У людей есть свои предубеждения. Поэтому, когда люди создают программы машинного обучения, они могут передать свои предубеждения ИИ.
"Сложность заключается в том, что когда мы разрабатываем модель, мы должны обучить ее на данных", - говорит Анки Ву. "Откуда берутся эти данные?" Ву - нейробиолог, изучающий машинное обучение в Технологическом университете Джорджии в Атланте. Огромное количество данных, поступающих в LLM, берется из человеческого общения - книг, веб-сайтов и многого другого. Эти данные многому учат ИИ о мире. Они также учат ИИ нашим предубеждениям.
В одном случае исследователи ИИ создали компьютерную программу, которая могла выполнять своего рода математические вычисления со словами. Например, на вопрос "Германия плюс столица" программа выдавала столицу Германии: "Берлин". Когда было дано утверждение "Берлин минус Германия плюс Япония", программа вернулась со столицей Японии: "Токио". Это было интересно. Но когда исследователи ввели "врач минус мужчина", компьютер выдал "медсестра". А когда ввели "программист минус мужчина", программа ответила "домохозяйка". Компьютер явно уловил некоторые предубеждения относительно того, какие виды работ выполняют мужчины и женщины.
Выяснение того, как обучить ИИ быть непредвзятым, может улучшить человечество в той же степени, что и ИИ. ИИ, который учится на наших веб-сайтах, постах и статьях, будет звучать так же, как и мы. Обучая ИИ быть беспристрастным, мы должны сначала осознать свои собственные предубеждения. Это может помочь нам научиться самим быть более беспристрастными.
Возможно, в этом и заключается действительно важная вещь в тесте Тьюринга. Присматриваясь к ИИ, чтобы понять, похож ли он на нас, мы видим - к лучшему или худшему - самих себя.
Спасибо за прочтение!