Большой брат следит за тобой. "1984 Наши дни"
Раньше за слова "большой брат следит за нами" - человека могли упрятать в психушку, ну или подумать что он кукухой съехал. Эх, золотое время было.
Сейчас же все кардинально изменилось. С приходом технического прогресса
государства получили беспрецедентные возможности в области видеонаблюдения. Где-то эти возможности помогают вычислять опасных преступников, что приносит пользу обществу.

Ну а где-то этим пользуются диктаторские режимы для выявления и наказания
оппозиционно-настроеных граждан (че, Расеюшку вспомнили? 😉 Не, я про Китай).
Ведь именно протестующие Гонконга отлично продемонстрировали уязвимости
"глаз большого брата" используя маски, зонты, банданы и спец. Мэйкап.
Все бы ничего, но учитывая такие уязвимости, разработчики спецслужб каждый
день тратят на создание новых систем наблюдения и деанона. Система видеонаблюдения SenseVideo от китайской SenseTime Group — один из самых дорогих стартапов в области компьютерного зрения. Система не только
определяет и классифицирует объекты, но и автоматически распознает пешеходов. Сейчас в Китае работает больше 200 миллионов камер, а к 2020 году их число должно достигнуть 400 миллионов.
Пытается не отставать от Китая и правительство Москвы. В июне 2019-го мэр
столицы Сергей Собянин заявил, что в ближайшее время более 200 тысяч
видеокамер по всему городу подключат к системе идентификации личности по
лицам. В конкурсе на ее разработку участвуют компании IVA Cognitive и NTechLab.
Последняя широко известна своим алгоритмом и (ныне закрытым для обычных
пользователей) сервисом FindFace.
Эксперименты по применению системы распознавания лиц в столице,
проводившиеся департаментом информационных технологий Москвы (ДИТ)
совместно с МВД, уже показали впечатляющие результаты. По словам полицейских, с 2017 года благодаря установке тысячи камер возле подъездов жилых домов задержали более 90 преступников, находившихся в розыске.
Использование видеомониторинга и системы идентификации по лицам на нескольких станциях московского метро ежемесячно приводит к пяти-десяти задержаниям. Однако распознавание лиц не обязательно должно быть привязано к стационарным камерам. Системы, способные определять нужных людей в толпе, могут быть мобильными. Например, в том же Китае портативные системы распознавания, напоминающие умные очки Google Glass, тестируются с начала 2018 года. Функционально похожие, но существенно менее футуристичные мобильные системы в скором времени получат и российские полицейские: в мае 2019-го компания Zhejiang Dahua Technology и входящая в «Ростех» NTechLab
предложили силовикам носимую камеру с функцией распознавания лиц. Решение
довольно практичное: на борту камеры-видеорегистратора операционная система
Android 6.0.1, детекция лиц происходит внутри самого устройства, а на сервер для
идентификации отправляются уже вырезанные «портреты» с дополнительными
метаданными. По словам источника «Ведомостей», тестирование устройств
полицией уже началось, аналогичные устройства анонсировали и конкуренты
NTechLab — компания VisionLabs.
Внедрение таких систем может иметь далеко идущие последствия для участников
массовых акций. По статистике, представленной в рамках тестирования тех же
пилотных проектов департамента информационных технологий и МВД, одни только фиксированные камеры позволили идентифицировать и задержать на массовых мероприятиях более полутора сотен преступников «в бегах»; если к ним
прибавятся данные с портативных камер, задержанных может стать гораздо
больше.
Как работает распознавание?

Технология распознавания человека по лицу состоит из двух отдельных и очень
разных по сложности этапов: детекции и собственно распознавания. На первом из
них компьютерный алгоритм анализирует видеоряд и пытается найти на
изображении область, где находится лицо. В принципе, сделать это можно и
вручную — если есть снимок конкретного подозреваемого, которого требуется
«пробить по базе». Однако в большинстве случаев системы распознавания
работают со сплошным видеопотоком, поэтому для поиска лица в кадре
используются простые автоматические алгоритмы.
Главный из них — созданный еще в 2001 году метод Виолы — Джонса, который
сейчас встроен в каждый смартфон и во многие фотоаппараты. Алгоритм обращает внимание на соотношение ярких и темных участков на картинке и ищет в ней такие области, где взаимное расположение участков похоже на лицо. Это очень простой метод — его простота, с одной стороны, делает алгоритм очень быстрым и экономным к вычислительным ресурсам, но с другой — позволяет легко обманывать автоматику и уходить от детекции. Сделать это можно с помощью макияжа (который изменяет положение на лице ярких и темных пятен), глубокого капюшона, надвинутой на глаза шапки и прочих простых средств.
Получится обмануть Виолу — Джонса или нет, легко проверить самому: достаточно
попробовать сделать селфи на телефоне или загрузить снимок в социальную сеть — автоматически детектированное лицо обычно выделяется рамкой. Однако даже
если детекция не сработает, важно помнить, что ваше лицо может быть вырезано из кадра вручную. И тогда оно все равно отправится на следующий этап —
распознавание. После детекции области лица изображение сперва конвертируется из цветного в серое (матрицу яркости), затем определяется расположение глаз, обрезается по контуру лица (фактически особенности контура не играют никакой роли для опознания, поэтому в систему подгружаются стандартные «овалы»). Наконец, это уже достаточно схематическое изображение превращается в числовой вектор — последовательность, содержащую максимум несколько сотен параметров, которые отличают лицо одного человека от другого.
Преобразование изображения лица в числовой вектор — самый сложный этап
технологии. Его обычно поручают сверточным нейросетям, задача которых —
нивелировать различия в освещенности, ракурсе, мимике и прочих особенностях
конкретной фотографии и свести изображение человека к набору признаков,
максимально похожих для разных снимков одного человека и максимально
различающихся для разных людей.
После того как этот набор признаков найден, задача распознавания становится
тривиальной: полученные значения сравниваются с другими векторами,
хранящимися в базе данных, и среди них находится самый близкий. Если близость
превышает некоторый заранее заданный порог, система сигнализирует о
совпадении, а затем выдает пользователю идентификатор и привязанный к нему
файл с личным делом.
Чтобы система могла обнаружить человека, в базе данных уже должны быть
загружены его фотографии и созданы специфические для них векторы признаков.
Чем больше таких фотографий, тем точнее полученный вектор — и тем проще
системе вас распознать. Лучшие источники для их поиска — соцсети, базы МВД,
ФСБ, ФМС или компаний. Огромными базами фотографий лиц владеют
букмекерские конторы (для регистрации требуется сделать селфи с паспортом в
руках); банки, предлагающие услугу «платить лицом»; сервисы для подбора
причесок и макияжа; приложения вроде Msqrd или FaceApp.
Методы противодействия: Лазеры и балаклавы.

Если ваших снимков нет и никогда не было ни в одной базе данных, вас не смогут
идентифицировать. Но для этого необходимо совсем не оставлять за собой
цифровых следов, что практически невозможно — хотя бы потому, что для этого
придется, например, отказаться от получения паспорта. Можно ли при этом
попытаться защитить себя от установления личности?
Методы противодействия идентификации условно можно поделить на две группы:
первые не позволяют алгоритмам детектировать лицо на видео, вторые не дают его правильно распознать.
Так, участники недавних протестов в Гонконге придумали два простых и по-
китайски практичных способа избежать детекции лиц. Один из них — надевать
балаклавы и маски для лица. Важно отметить, что обычные марлевые повязки для
рта и носа не помогут, поскольку ключевая информация для алгоритмов связана с
областью глаз, надбровных дуг, бровей и верхней части переносицы. Не выручат и
стандартные темные очки. При ношении этих аксессуаров по отдельности системы
успешно определяют личность бунтовщиков. Однако их совмещение и
использование капюшона позволяет в ряде случаев избежать автоматической
детекции и идентификации — по крайней мере с помощью современных
промышленных систем.
Впрочем, для российских протестующих этот метод с некоторых пор неприменим:
согласно закону Российской Федерации «О собраниях, митингах, демонстрациях,
шествиях и пикетированиях», их участникам запрещено использовать «маски,
средства маскировки, иные предметы, специально предназначенные для
затруднения установления личности».
Другой метод — засветка объективов с помощью лазерных указок. В Гонконге их
используют даже против полицейских, светя в глаза и мешая, например,
прицеливаться. Действенность этого способа «Медузе» на условиях анонимности
подтвердил эксперт по видеоаналитике из одной московской фирмы,
разрабатывающей автоматизированные системы работы с клиентами в банках и
ритейле. По его словам, даже простая засветка ярким солнечным светом в погожий летний день сбивает алгоритмы с толку. А использование лазеров дает вместо нормального кадра с изображением лишь несколько расплывчатых световых пятен на темном фоне.
Косвенное подтверждение эффективности простой засветки есть и в конструкции
систем автоматической классификации транспортных средств (АКТС): при въездах
на платные трассы камеры всегда дублируются с двух сторон, чтобы избежать
ошибки из-за лобовой засветки при восходящем или заходящем солнце.
Методы противодействия: Спец. Мейкап и Украшения.

Помимо явно запрещенных в России масок, а также лазерных указок,
использование которых может трактоваться как неподчинение или даже нападение на полицейских, существуют и другие методы снизить вероятность своей идентификации — которые находятся в «серой» правовой зоне. К ним можно
отнести использование грима, париков, очков, яркого макияжа — словом, все то, что в области компьютерного зрения называется disguised face identification. В отличие от «обычного» распознавания, в этом случае пока нет хорошо отработанных, высокоточных и готовых к внедрению промышленных систем. Разные команды инженеров тестируют различные подходы, и порой они дают очень разные результаты.
Современный уровень качества детекции промышленными системами позволяет
оценить, например, отчет российской компании «Видеомакс», в котором
специалисты протестировали пакет аналитических программ для распознавания
лиц «Face-Интеллект» (разработка компании Axxon, подразделения британской
ITV-Group). Выяснилось, что никакие накладные усы, бороды, темные и прозрачные
очки не смогли обмануть алгоритмы. А вот ношение объемного парика снижало
точность опознания почти вдвое. Совместное же использование парика с длинными волосами, головного убора, наклеивание пластырей и имитация синяков на лице позволяли системе идентифицировать пользователя с точностью лишь в 51%.
Как ни странно, самый впечатляющий результат достигнут при использовании
патриотического грима: нанесение на лицо цветов российского триколора под
углом 45 градусов и использование кепки с надписью «Россия» напрочь исключали даже обнаружение лица на кадре. Система просто ничего не видела.
Относится ли к средствам маскировки патриотический грим, пока неясно — в определении Конституционного суда использование грима на лице допускается, но только в агитационных целях, а не в целях сокрытия личности.
В том же 2017 году, когда тестировался «Face-Интеллект», директор по
распространению технологий «Яндекса» Григорий Бакунов придумал гораздо
более сложный метод противодействия идентификации. Он учел принципы работы
нейросетей при опознании специфических особенностей лиц и предложил
наносить макияж в виде нескольких, на первый взгляд, хаотически расположенных линий и точек. Его метод не только помогал избегать идентификации, но и позволял подсунуть системе другое лицо. Определенные схемы макияжа обманывали алгоритм, и он считал, что это лицо совсем другого человека. Сервис на основе придуманной технологии Бакунов и его коллеги тогда решили не делать — ссылаясь на то, что «слишком уж велик шанс использовать его не для добра, а вовсе с другими целями».
По словам самого Бакунова, у метода две слабости. Во-первых, такой макияж
довольно трудно подобрать и правильно нанести. А во-вторых, он выглядит
настолько странно и нелепо, что может привлечь излишнее внимание.
Схожий с макияжем подход удалось пару лет назад придумать польским
дизайнерам из компании Nova. Они разработали так называемые украшения для
лица, позволяющие сбить с толку системы идентификации. Самое популярное их
изделие состоит из подобия оправы для очков, к нижним дугам которой
прикреплены два закрывающих скулы медных круга, а над переносицей поперек
лба возвышается медный рог. Этот эстетичный аксессуар практически не закрывает лицо для человека, но блокирует систему распознавания лиц — по крайней мере ту, которую использовал Facebook**** на момент тестирования дизайнерами.
Метод противодействия: очки и катафоты.
Одним из самых перспективных подходов к противодействию идентификации
личности по лицу может стать использование специальных высокотехнологичных
очков. Некоторые выглядят довольно эстетично и не привлекают лишнего внимания.
Человек в них не вызовет подозрений у полиции, их можно носить на митингах и
пикетах. А вот эффективность таких очков в ряде случаев очень высока, особенно
против камер наблюдения с инфракрасной подсветкой области обзора.
Так, инженеры из японского Национального института информатики (National
Institute of Informatics) еще в 2015 году испытали очки, в которые был встроен набор инфракрасных светодиодов, невидимых для человеческого глаза, но способных засветить область вокруг глаз и носа для объективов светочувствительных видеорегистраторов. Этот простой трюк лишил систему возможности даже просто обнаружить лицо в кадре.

Схожий подход использует инженер и дизайнер Скотт Урбан. В разработанных им
очках Reflectacles Ghost и Phantom в оправу помещено множество катафотов. Они
отражают инфракрасные лучи, испускаемые многими моделями камер наблюдения (особенно предназначенных для ночного режима), и превращают лицо в большое ярко светящееся пятно. В другой модели очков от Reflectacles (IRPair) применяется обратный принцип: в них встроены особые фильтры, не позволяющие инфракрасному излучению достичь лица и подсветить его для камеры. Кроме того, они предотвращают сканирование радужки глаз и трехмерное картирование лица.
На каждое действие имеется равное по силе противодействие.

Не только государство может применять системы идентификации по лицам против
своих граждан. Некоторые участники массовых акций в последнее время начали
использовать видео-и фотоматериалы с протестных акций, чтобы
деанонимизировать полицейских, превышающих полномочия. В ответ на это
силовики сами стали массово использовать балаклавы, использование которых
простыми гражданами на митингах запрещено. Кажется, что это - гарантированный способ сохранить свою анонимность. Но так ли это на самом деле — сложный технический вопрос. Если исходить из результатов последних
соревнований в области машинного зрения, складывается впечатление, что ответ
скорее отрицательный.
Прежде чем говорить об этих результатах, надо внести ясность с понятием т. н.
точности распознавания, вокруг которой обычно идет разговор при обсуждении
алгоритмов. К сожалению, сама по себе «точность», то есть суммарное число
ложноположительных и ложноотрицательных срабатываний системы, деленное на
число ее испытаний, почти ничего не говорит о том, справится ли данный алгоритм
с конкретной задачей. Для этого нужно как минимум знать объем выборки людей,
среди которых требуется найти обладателя лица на снимке (а еще лучше понимать
цену ошибки и представлять площадь под ROC-кривой).
Проще говоря, если речь идет о наблюдении за миллионами людей в сплошном
потоке, — например, о системах видеонаблюдения в метро или на массовой акции,
— то доля ложных срабатываний в таких системах должна быть очень низкой (а
«точность» — высокой) — иначе общая стоимость реагирования на каждое срабатывание будет слишком высокой. Если же число людей, среди которых
система проводит поиск, можно каким-то образом значительно снизить (например,
искать не среди всех граждан, а среди представителей известной профессии, пола,
возраста и так далее), то и требования к точности будут принципиально более
низкими.