Защита ваших фотографий от редактирования нейросетями
Этот метод вносит почти невидимые "возмущения", чтобы сбить с толку алгоритмические модели.

Dall-E и Стабильная диффузия были только началом. По мере распространения генеративных систем искусственного интеллекта и работы компаний над отличием своих предложений от предложений конкурентов чат—боты по всему Интернету получают возможность редактировать изображения, а также создавать их, причем лидируют такие компании, как Shutterstock и Adobe. Но с этими новыми возможностями искусственного интеллекта возникают знакомые подводные камни, такие как несанкционированное манипулирование или прямая кража существующих онлайн-работ и изображений. Методы нанесения водяных знаков могут помочь смягчить последнее, в то время как новый "PhotoGuard" методика, разработанная MIT CSAIL, могла бы помочь предотвратить первое.
PhotoGuard работает, изменяя выбранные пиксели на изображении таким образом, что они нарушают способность искусственного интеллекта понимать, что это за изображение. Эти "возмущения", как называет их исследовательская группа, невидимы человеческому глазу, но легко читаемы машинами. Метод атаки "кодировщик" для внедрения этих артефактов нацелен на скрытое представление целевого изображения алгоритмической моделью — сложную математику, которая описывает положение и цвет каждого пикселя в изображении, — по сути, не позволяя ИИ понять, на что он смотрит.
Более продвинутый и требующий больших вычислительных затрат метод атаки "диффузия" маскирует изображение в глазах искусственного интеллекта под другое изображение. Он определит целевое изображение и оптимизирует возмущения в его изображении таким образом, чтобы оно напоминало свою цель. Любые изменения, которые искусственный интеллект попытается внести в эти "иммунизированные" изображения, будут применены к поддельным "целевым" изображениям, в результате чего сгенерированное изображение будет выглядеть нереалистично.
"Атака кодировщика заставляет модель думать, что входное изображение (подлежащее редактированию) - это какое-то другое изображение (например, серое изображение)", - сказал Engadget докторант Массачусетского технологического института и ведущий автор статьи Хади Салман. "Принимая во внимание, что диффузионная атака заставляет диффузионную модель вносить изменения в некоторое целевое изображение (которое также может быть каким-либо серым или случайным изображением)". Этот метод не является надежным, злоумышленники могут использовать его для обратного проектирования защищенного изображения, потенциально добавляя цифровой шум, обрезая или переворачивая изображение.
“Совместный подход с участием разработчиков моделей, платформ социальных сетей и политиков обеспечивает надежную защиту от несанкционированного манипулирования изображениями. Работа над этим насущным вопросом сегодня имеет первостепенное значение”, - сказал Салман в пресс-релизе. “И хотя я рад внести свой вклад в создание этого решения, необходимо проделать большую работу, чтобы сделать эту защиту практичной. Компаниям, разрабатывающим эти модели, необходимо инвестировать в разработку надежной защиты от возможных угроз, создаваемых этими инструментами искусственного интеллекта ".
Ох уж этот ИИ, что он только не умеет делать