Ivan
Ivan Подписчиков: 142
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 31

Мошенничество с клонированием голоса ИИ «придет в Австралию» — так как же от него защититься?

1 дочитывание
0 комментариев
Эта публикация уже заработала 0,05 рублей за дочитывания
Зарабатывать

Следующий телефонный звонок, который вы получите от любимого человека, на самом деле может быть не от вашего любимого человека.

Это предупреждение от австралийского эксперта по искусственному интеллекту, который сказал, что алгоритмы клонирования голоса становятся все более изощренными и все чаще используются мошенниками.

9news.com.au исследовал доступность, простоту использования и эффективность инструментов клонирования голоса с помощью ИИ, и нам удалось убедительно воссоздать голос одного из наших журналистов с помощью онлайн-инструмента клонирования голоса.

Вы можете послушать два голоса — настоящий и сгенерированный ИИ — в видео выше.

Итак, как на самом деле работает технология?

Мошенничество с клонированием голоса ИИ «придет в Австралию» — так как же от него защититься?

Модели ИИ могут воссоздать «достаточно качественный голосовой клон» из относительно короткого голосового клипа. (Гетти Изображений/iStockphoto)

Доктор Дьеп Нгуен, доцент Школы электротехники и обработки данных Сиднейского технологического университета, сказал, что модели искусственного интеллекта могут воссоздавать вокальные частоты из относительно короткого голосового клипа и фрагментов строк в связные предложения.

«Некоторым моделям и алгоритмам ИИ требуется всего минута или даже меньше для записи», — сказал он 9news.com.au.

«Этого достаточно, чтобы синтезировать голосовой клон достаточно высокого качества.

« (Но) чем больше человек говорит, тем лучше».

Нгуен добавил, что передовые модели искусственного интеллекта и алгоритмы могут так хорошо синтезировать голос, что «обычному человеку трудно отличить клонированный голос от настоящего».

«Некоторые модели/алгоритмы ИИ могут похвастаться точностью до 99% по сравнению с аутентичным голосом», — сказал он.

"Не сомневаюсь, что это было бы возможно.

«С этой разницей в один процент людям было бы очень трудно распознать разницу».

Рост мошенничества с клонированием голоса ИИ

Мошенники все чаще используют новые технологии, чтобы выманивать у жертв крупные суммы денег.

« (Было) много случаев за границей, в Соединенном Королевстве, Объединенных Арабских Эмиратах, Гонконге», — сказал Нгуен.

«Несомненно, это произойдет в Австралии.

Я считаю, что Австралия уязвима для многих кибератак, и клонирование голоса, безусловно, представляет собой высокий риск».

Мошенничество с клонированием голоса ИИ «придет в Австралию» — так как же от него защититься?

Дженнифер ДеСтефано получила мошеннический звонок о семейной опасности или фиктивном похищении с использованием голосового клона. (КТВК/КПХО)

Мать из США заявила, что в прошлом месяце чуть не стала жертвой голосового мошенничества с искусственным интеллектом после того, как в панике позвонила якобы ее дочь, которая сообщила, что ее похитили.

15-летняя девушка, которая была на лыжной прогулке, никогда не говорила ни слова из того, что слышала Дженнифер ДеСтефано.

На что обратить внимание

Нгуен сказал, что мошенники теоретически могут использовать существующие видеоролики в социальных сетях и запускать их через клонировщик голоса AI, чтобы воссоздать голос.

«Все, чем мы делимся в Интернете через Facebook****, TikTok, YouTube, включая наш голос, фотографии и видео, потенциально может быть использовано технологиями глубокого подделки для обучения моделей ИИ для целей клонирования», — сказал он.

«С постоянно быстрым развитием моделей искусственного интеллекта будет требоваться все меньше и меньше данных для обучения, чтобы синтезировать голоса, достаточно близкие к аутентичным, для мошеннического поведения.

«Поэтому будьте осторожны с вашим личным цифровым «профилированием/данными», которыми вы можете поделиться».

Мошенничество с клонированием голоса ИИ «придет в Австралию» — так как же от него защититься?

Нгуен сказал, что видеоконтент из социальных сетей можно использовать для клонирования голоса. (Гетти)

Он добавил, что люди должны начать сомневаться в любом звонке, который делает запрос на денежный перевод; будь то от любимого человека или нет.

«Лучшее, что могут сделать люди, — это сказать «большое спасибо» и повесить трубку», — сказал Нгуен.

«Тогда перезвоните человеку, который якобы только что звонил вам, чтобы подтвердить.

«Допустим, это от моей мамы, я должен позвонить маме и спросить: «Ты мне только что звонила?» и если она подтвердит, то да, наверное, все в порядке».

Можно ли в ближайшее время ожидать телефонного мошенничества с помощью ИИ в России?

Проголосовали: 0

Проголосуйте, чтобы увидеть результаты

Понравилась публикация?
10 / 0
нет
0 / 0
Подписаться
Донаты ₽
* * * * Instagram/Facebook принадлежит компании Meta, признанной экстремистской организацией и запрещенной в РФ

Нейросети: угроза или помощник? Что на самом деле думают россияне

Нейросети сегодня у всех на слуху. Одни их боятся, другие не могут без них работать. А как на самом деле к ним относится большинство? Ответ даёт масштабный опрос ФОМ. Оказывается, в обществе — тихий раскол:...

На пороге Новый год!

Праздник Новый год, как всегда с подарками и поздравлениями. Куда занесет нас русская птица-тройка по безбрежным российским просторам? Помчит ли по наезженной колее государства специальной справедливости,...
Главная
Коллективные
иски
Добавить Видео Опросы