Fe_rus
Fe_rusПодписчиков: 62
РейтингРейтингРейтингРейтингРейтинг4682

Люди способны распознать искусственно созданную речь только в 73% случаев

58 просмотров
4 дочитывания
0 комментариев
Эта публикация уже заработала 0,20 рублей за дочитывания
Зарабатывать

Новое исследование, проведенное в Калифорнийском университете, показало, что люди способны распознать искусственно созданную речь только в 73% случаев, причем с одинаковой точностью как на английском, так и на мандаринском языках.

Исследование, опубликованное в журнале PLOS ONE, является первым, в котором оценивается способность человека распознавать искусственно созданную речь на других языках, кроме английского.

Искусственные подделки - это синтетические носители информации, призванные создать сходство с голосом или внешностью реального человека. Они относятся к категории генеративного искусственного интеллекта (ИИ) - разновидности машинного обучения (МОО), при котором алгоритм обучается закономерностям и характеристикам набора данных, например видео- или аудиозаписи реального человека, чтобы затем воспроизвести оригинальный звук или изображение.

Если ранним алгоритмам глубокой подделки речи для создания оригинального звука требовались тысячи образцов голоса человека, то новейшие алгоритмы с предварительным обучением могут воссоздать голос человека, используя всего лишь трехсекундный ролик его речи. Алгоритмы с открытым исходным кодом находятся в свободном доступе, и, хотя для их создания потребуются определенные знания, человек может обучить их в течение нескольких дней.

Компания Apple недавно анонсировала программное обеспечение для iPhone и iPad, позволяющее создать копию своего голоса на основе 15-минутной записи.

Исследователи из Калифорнийского университета использовали алгоритм преобразования текста в речь (TTS), обученный на двух общедоступных наборах данных - английском и мандаринском - для создания 50 образцов искусственной речи на каждом языке. Эти образцы отличались от тех, которые использовались для обучения алгоритма, чтобы исключить возможность воспроизведения им исходного текста.

Эти искусственно сгенерированные и настоящие образцы были проиграны 529 участникам, чтобы проверить, смогут ли они отличить настоящую речь от поддельной. Участники смогли распознать поддельную речь только в 73% случаев, что лишь немного улучшилось после того, как они прошли обучение распознаванию отдельных аспектов поддельной речи.

Кимберли Май (Kimberly Mai, UCL Computer Science), первый автор исследования, отметила: "Наши результаты подтверждают, что люди не способны надежно распознать поддельную речь, независимо от того, прошли ли они обучение, помогающее им распознавать искусственный контент. Стоит также отметить, что образцы, которые мы использовали в данном исследовании, были созданы с помощью относительно старых алгоритмов, что заставляет задуматься о том, смогут ли люди хуже распознавать поддельную речь, созданную с использованием самых совершенных технологий, доступных сейчас и в будущем".

Следующим шагом исследователей станет разработка более совершенных автоматических детекторов речи в рамках продолжающихся усилий по созданию средств обнаружения для противодействия угрозе искусственно созданных аудио- и изображений.

Несмотря на то, что генеративные аудиотехнологии с искусственным интеллектом имеют определенные преимущества, например, они могут стать более доступными для тех, чья речь ограничена или кто потерял голос из-за болезни, растут опасения, что такие технологии могут быть использованы преступниками и государствами для нанесения значительного ущерба людям и обществам.

Среди задокументированных случаев использования преступниками фальшивой речи можно назвать инцидент 2019 года, когда генеральный директор британской энергетической компании был убежден перевести сотни тысяч фунтов стерлингов лжепоставщику с помощью фальшивой записи голоса своего начальника.

Профессор Льюис Гриффин (UCL Computer Science), старший автор исследования, сказал: "Поскольку технологии генеративного искусственного интеллекта становятся все более совершенными, а многие из этих инструментов находятся в открытом доступе, мы стоим на пороге появления как многочисленных преимуществ, так и рисков. Разумеется, правительствам и организациям было бы разумно разработать стратегии борьбы со злоупотреблениями этими инструментами, но мы должны также признать и положительные возможности, которые открываются на горизонте".

Понравилась публикация?
11 / 0
нет
Подписаться
Донаты ₽