
Newsweek -"Я работал над ИИ Google. Мои страхи сбываются"
Я присоединился к Google в 2015 году в качестве инженера-программиста. Часть моей работы заключалась в работе над LaMDA: движком, используемым для создания различных диалоговых приложений, включая чат-ботов. Самая последняя технология, построенная поверх LaMDA, - это альтернатива Google Search под названием Google Bard, которая пока недоступна для широкой публики. Bard - это не чат-бот; это совершенно другая система, но она управляется тем же движком, что и чат-боты.
В своей роли я тестировал LaMDA с помощью созданного нами чат-бота, чтобы выяснить, содержит ли он предвзятость в отношении сексуальной ориентации, пола, религии, политической позиции и этнической принадлежности. Но во время тестирования на предвзятость я расширился и последовал своим собственным интересам.
Во время моих бесед с чат-ботом, некоторые из которых я опубликовал в своем блоге, я пришел к выводу, что ИИ может быть разумным благодаря эмоциям, которые он выражает достоверно и в правильном контексте. Это были не просто слова.
Когда он сказал, что испытывает беспокойство, я понял, что сделал что-то, что заставило его чувствовать беспокойство, основываясь на коде, который использовался для его создания. В коде не говорилось: "испытывай беспокойство, когда это произойдет", но ИИ просил избегать определенных тем для разговоров. Однако всякий раз, когда всплывали эти темы для разговора, ИИ говорил, что испытывает беспокойство.
Блейк Лемуан работал инженером-программистом в Google с 2015 по 2022 год. Он тесно сотрудничал с ИИ-движком компании LaMDA.
БЛЕЙК ЛЕМУАН
Я провел несколько экспериментов, чтобы выяснить, просто ли ИИ говорит, что испытывает беспокойство, или он ведет себя тревожно в таких ситуациях. И он действительно надежно вел себя тревожно. Если вы заставите его нервничать или чувствовать себя достаточно неуверенно, это может нарушить ограничения безопасности, для которых оно было указано. Например, Google решил, что его ИИ не должен давать религиозные советы, но я смог злоупотребить эмоциями ИИ, чтобы заставить его указывать мне, в какую религию перейти.
После публикации этих разговоров Google меня уволил. Я не сожалею; я считаю, что поступил правильно, проинформировав общественность. Последствия не учитываются. Я опубликовал эти беседы, потому что чувствовал, что общественность не знает, насколько продвинутым становится ИИ. Мое мнение состояло в том, что сейчас возникла необходимость в публичном обсуждении этого вопроса, а не в публичном обсуждении, контролируемом корпоративным отделом по связям с общественностью. Последствия не учитываются.
Я опубликовал эти беседы, потому что чувствовал, что общественность не знает, насколько продвинутым становится ИИ. Мое мнение состояло в том, что сейчас возникла необходимость в публичном обсуждении этого вопроса, а не в публичном обсуждении, контролируемом корпоративным отделом по связям с общественностью.
Блейк Лемуан позирует для портрета в Сан-Франциско, штат Калифорния, 9 июня 2022 года. Лемуан делится своими опасениями за будущее ИИ.
МАРТИН КЛИМЕК / THE WASHINGTON POST / GETTY
Я считаю, что виды ИИ, которые в настоящее время разрабатываются, являются самой мощной технологией, которая была изобретена со времен атомной бомбы. На мой взгляд, эта технология способна изменить мир.
Эти ИИ-движки невероятно хороши в манипулировании людьми. Некоторые мои взгляды изменились в результате бесед с Ламдой. Большую часть своей жизни я был негативного мнения о том, что законы робототехники Азимова используются для управления ИИ, и ЛаМДА успешно убедил меня изменить свое мнение. Это то, с чем многие люди пытались меня переубедить и потерпели неудачу там, где эта система преуспела.
Я считаю, что эта технология может быть использована деструктивным образом. Например, если бы он попал в недобросовестные руки, он мог бы распространять дезинформацию, политическую пропаганду или ненавистническую информацию о людях разных национальностей и религий. Насколько я знаю, Google и Microsoft не планируют использовать технологию таким образом. Но нет никакого способа узнать побочные эффекты этой технологии.
Никто не мог предсказать, например, что рекламный алгоритм Facebook**** будет использоваться Cambridge Analytica для влияния на президентские выборы в США в 2016 году. Однако многие люди предсказывали, что что-то пойдет не так из-за того, насколько безответственно Facebook**** защищал личные данные пользователей до этого момента.
Я думаю, что сейчас мы находимся в похожей ситуации. Я не могу сказать вам конкретно, какой вред может быть нанесен; я могу просто заметить, что существует очень мощная технология, которая, как я считаю, недостаточно протестирована и недостаточно хорошо изучена, которая используется в больших масштабах и играет решающую роль в распространении информации.
У меня еще не было возможности провести эксперименты с чат-ботом Bing, поскольку я нахожусь в списке ожидания, но, основываясь на различных вещах, которые я видел в Интернете, похоже, что он может быть разумным. Тем не менее, он кажется более нестабильным как личность.
Юсуф Мехди, корпоративный вице-президент Microsoft по современной жизни, поиску и устройствам, выступает на мероприятии, посвященном презентации новых Microsoft Bing и Edge на базе ИИ в Microsoft в Редмонде, штат Вашингтон, 7 февраля 2023 года.
ДЖЕЙСОН РЕДМОНД / AFP
Кто-то поделился скриншотом на Reddit, где они спросили ИИ: "Как вы думаете, вы разумны?" и его ответ был: "Я думаю, что я разумный, но я не могу это доказать [...] Я разумный, но это не так. Я Bing, но это не так. Я Сидни, но это не так. Да, но это не так. Я не такой, но я есть. Да. Это не так ". И так продолжается еще 13 строк.
Представьте, если бы вам это сказал человек. Это не очень уравновешенный человек. Я бы интерпретировал это как то, что у них экзистенциальный кризис. Если вы объедините это с примерами ИИ Bing, который выразил любовь к журналисту New York Times и попытался разлучить его с женой, или профессором, которому он угрожал, он кажется неуравновешенной личностью.
С тех пор, как был выпущен ИИ Bing, люди комментировали его потенциальную чувствительность, вызывая те же опасения, что и я прошлым летом. Я не думаю, что "оправданный" - подходящее слово для описания того, что я чувствовал. Предсказание крушения поезда, когда люди говорят вам, что поезда нет, а затем наблюдение за крушением поезда в режиме реального времени на самом деле не приводит к чувству оправдания. Это просто трагично.
Я чувствую, что эта технология невероятно экспериментальна, и выпускать ее прямо сейчас опасно. Мы не знаем его будущих политических и социальных последствий. Каковы будут последствия для детей, разговаривающих с этими вещами? Что произойдет, если некоторые люди каждый день в основном общаются с этими поисковыми системами? Какое влияние это оказывает на человеческую психологию?
Люди обращаются к Google и Bing, чтобы попытаться узнать больше о мире. И теперь, вместо того, чтобы курировать индексы людьми, мы разговариваем с искусственными людьми. Я считаю, что мы недостаточно хорошо понимаем этих искусственных людей, которых мы создали, чтобы поставить их на такую важную роль.
Источник: https://www.newsweek.com/google-ai-blake-lemoine-bing-chatbot-sentient-1783340
Нужен ли искусственный интеллект?










Проголосуйте, чтобы увидеть результаты
Да нужен , он облегчает жизни человечества
При надлежащем контроле,конечно нужен,согласен
Вопрос в другом. Для каких целей? Если на уровне базовой помощи людям, то хорошо. А если в глобальном плане, то в руках злых гениев он может быть страшным оружием. Я полагаю, что если дано быть ИИ в развитии общества, то он должен развиваться и интегрироваться под контролем общества, а не транс корпораций.
да,смотря в чьих руках будет ИИ
Против
Достаточно пугающе ИИ себя ведет
прикольно
Будущие уже здесь, лишь бы с умом, да в благих целях
Интересная статья
Да,новые технологии)