Искусственный интеллект становится все более мощным
Могут ли исследователи создать алгоритмы искусственного интеллекта, которые являются этичными сегодня — и будут безопасными в будущем?

Вскоре после того, как Алан Тьюринг в 1936 году начал изучать информатику, он начал задаваться вопросом, сможет ли человечество однажды создать машины с интеллектом, сравнимым с человеческим. Искусственный интеллект, современная область, занимающаяся этим вопросом, с тех пор прошла долгий путь. Но по-настоящему интеллектуальные машины, способные независимо выполнять множество различных задач, еще предстоит изобрести. И хотя научная фантастика уже давно воображает, что однажды искусственный интеллект примет злобные формы, такие как аморальные андроиды или смертоносные терминаторы, сегодняшних исследователей искусственного интеллекта часто больше беспокоят повседневные алгоритмы искусственного интеллекта, которые уже вошли в нашу жизнь, и проблемы, которые уже стали с ними связаны.
Несмотря на то, что современный искусственный интеллект способен автоматизировать только определенные конкретные задачи, он уже вызывает серьезные опасения. За последнее десятилетие инженеры, ученые, разоблачители и журналисты неоднократно документировали случаи, когда системы искусственного интеллекта, состоящие из программного обеспечения и алгоритмов, причиняли или способствовали причинению серьезного вреда людям. Алгоритмы, используемые в системе уголовного правосудия, могут несправедливо рекомендовать отказать в условно-досрочном освобождении. Каналы социальных сетей могут направлять токсичный контент в сторону уязвимых подростков. Военные беспилотники, управляемые искусственным интеллектом, могут убивать без каких-либо моральных обоснований. Кроме того, алгоритм искусственного интеллекта, как правило, больше похож на непостижимый черный ящик, чем на часовой механизм. Исследователи часто не могут понять, как эти алгоритмы, основанные на непрозрачных уравнениях, включающих миллиарды вычислений, достигают своих результатов.
Проблемы с искусственным интеллектом не остались незамеченными, и академические исследователи пытаются сделать эти системы более безопасными и этичными. Компании, создающие продукты, ориентированные на искусственный интеллект, работают над устранением вреда, хотя они, как правило, не обеспечивают достаточной прозрачности своих усилий. “Они были не очень откровенны”, - говорит Джонатан Стрей, исследователь искусственного интеллекта из Калифорнийского университета в Беркли. Известные опасности искусственного интеллекта, а также его потенциальные риски в будущем стали основными движущими силами новых исследований в области искусственного интеллекта. Даже ученые, которые сосредоточены на более абстрактных проблемах, таких как эффективность алгоритмов искусственного интеллекта, больше не могут игнорировать социальные последствия своей области. “Чем более мощным становится искусственный интеллект, тем больше люди требуют, чтобы он был безопасным и надежным”, - говорит Паскаль Фунг, исследователь искусственного интеллекта из Гонконгского университета науки и технологий. “По большей части, за последние три десятилетия, что я работал в сфере искусственного интеллекта, людям было на самом деле все равно”.
Опасения возросли по мере того, как искусственный интеллект стал широко использоваться. Например, в середине 2010-х годов некоторые компании, занимающиеся поиском в Интернете и социальными сетями, начали внедрять алгоритмы искусственного интеллекта в свои продукты. Они обнаружили, что могут создавать алгоритмы, позволяющие предсказывать, какие пользователи с большей вероятностью перейдут по каким объявлениям, и тем самым увеличивать свою прибыль. Достижения в области вычислительной техники сделали все это возможным благодаря значительным улучшениям в “обучении” этих алгоритмов — заставляя их учиться на примерах для достижения высокой производительности. Но по мере того, как искусственный интеллект неуклонно внедрялся в поисковые системы и другие приложения, наблюдатели начали замечать проблемы и поднимать вопросы. В 2016 году журналисты-расследователи выдвинули обвинения в том, что определенные алгоритмы, используемые при оценке условно-досрочного освобождения, были предвзятыми по расовому признаку.
Выводы этого отчета были оспорены, но разработка справедливого и непредвзятого искусственного интеллекта в настоящее время рассматривается исследователями искусственного интеллекта как центральная проблема. Опасения возникают всякий раз, когда искусственный интеллект используется для составления прогнозов о людях из разных демографических групп. Справедливость сейчас приобретает еще большее значение, поскольку искусственный интеллект внедряется во все большее число процессов принятия решений, таких как отбор резюме на работу или оценка заявок арендаторов на квартиру.
За последние несколько лет использование искусственного интеллекта в приложениях для социальных сетей стало еще одной проблемой. Многие из этих приложений используют алгоритмы искусственного интеллекта, называемые механизмами рекомендаций, которые работают аналогично алгоритмам показа рекламы, чтобы решать, какой контент показывать пользователям. Сотни семей в настоящее время судятся с компаниями социальных сетей из-за обвинений в том, что управляемые алгоритмами приложения направляют детям токсичный контент и вызывают проблемы с психическим здоровьем. Государственные школы Сиэтла недавно подали иск, утверждая, что продукты социальных сетей вызывают привыкание и эксплуатацию. Но разобраться в истинном влиянии алгоритма непросто. Платформы социальных сетей публикуют мало данных об активности пользователей, которые необходимы независимым исследователям для проведения оценок.
“Одна из сложных особенностей всех технологий заключается в том, что всегда есть затраты и выгоды”, - говорит Страй, чьи исследования сосредоточены на рекомендательных системах. “Сейчас мы находимся в ситуации, когда трудно понять, каковы на самом деле негативные последствия”.
Природа проблем, связанных с искусственным интеллектом, также меняется. За последние два года было выпущено множество продуктов с “генеративным искусственным интеллектом”, которые могут создавать текст и изображения замечательного качества. Все большее число исследователей искусственного интеллекта теперь верят, что мощные системы искусственного интеллекта будущего могут опираться на эти достижения и однажды представлять глобальные, катастрофические опасности, по сравнению с которыми текущие проблемы могут померкнуть.
Какую форму могут принять такие угрозы в будущем? В статье, размещенной в хранилище препринтов arXiv.org в октябре исследователи из DeepMind (дочерней компании материнской компании Google Alphabet) описали один катастрофический сценарий. Они представляют себе инженеров, разрабатывающих искусственный интеллект, генерирующий код, основанный на существующих научных принципах, и которым поручено заставить людей-программистов использовать его материалы в своих проектах по кодированию. Идея заключается в том, что по мере того, как искусственный интеллект делает все больше и больше заявок, а некоторые из них отклоняются, обратная связь с человеком поможет ему научиться кодировать лучше. Но исследователи предполагают, что этот искусственный интеллект, с его единственной целью — добиться принятия своего кода, потенциально может разработать трагически несостоятельную стратегию, такую как достижение мирового господства и принуждение к принятию своего кода - ценой разрушения человеческой цивилизации.
Исследователи признают, что общая теория настройки искусственного интеллекта по-прежнему отсутствует.
“На самом деле у нас нет ответа на вопрос, как мы выстраиваем системы, которые намного умнее людей”, - говорит Лейке. Но независимо от того, находятся ли худшие проблемы искусственного интеллекта в прошлом, настоящем или будущем, по крайней мере, самым большим препятствием на пути к их решению больше не является отсутствие попыток.
Некоторые ученые используют подходы к настройке искусственного интеллекта, которые они считают более практичными и связанными с настоящим. Рассмотрим последние достижения в технологии генерации текста: ведущие примеры, такие как Chinchilla от DeepMind, PaLM от Google Research, OPT от Meta** AI и ChatGPT от OpenAI, могут создавать контент, который является предвзятым по расовому признаку, незаконным или вводящим в заблуждение - проблема, которую признает каждая из этих компаний. Некоторые из этих компаний, включая Open AI и Deep Mind, считают такие проблемы проблемами неадекватного согласования. Сейчас они работают над улучшением выравнивания в ИИ, генерирующем текст, и надеются, что это даст представление о выравнивании будущих систем.