Календарь

Апрель 2026

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

   |  →

15:25, 04.07.2023

Преступники научились использовать клон голоса

В России преступники могут использовать клон голоса человека для вымогательства денег. О новой мошеннической схеме с использованием искусственного интеллекта предупредило Роскачество.

- Благодаря имеющимся уже технологиям хакерам достаточно всего лишь 20-секундного фрагмента с разговором, взятым из социальной сети, для создания клона голоса любого человека. Идентичность поражает настолько, что даже мать не сможет отличить голос своего ребенка от робота, - акцентировали внимание специалисты.

Схема обмана та же, но инструменты более прогрессивные. Искуственный интеллект звонит и просит перевести деньги. Преступники заставляют жертв думать, что они разговаривают с родственником, которому вдруг понадобились деньги, например, на возмещение ущерба в результате ДТП.

Сейчас нейросеть можно обучить языкам, и она с легкостью осваивает любые акценты, чтобы умело вести диалог. «Нужно срочно расплатиться! Вот номер продавца, скинь ему деньги», - теперь сможет услышать ни о чем не подозревающий человек на том конце провода.

Эксперты рекомендуют не поддаваться эмоциям, а сразу перезвонить своим родным и знакомым, от которых вы якобы получили срочную или тревожную просьбу. А еще лучше придумайте кодовое слово, для своих. Прямо как в банке. И таким образом, вы будете знать, что звонят действительно родные и близкие, а не мошенники с нейросетью.

- Подделать можно не только голос, но и образ. При помощи методики синтеза медиаконтента, основанной на искусственном интеллекте, удается наложить ненастоящие изображение или видео на реальные, - рассказали специалисты.

Технология именуется «дипфейк» (от англ. deepfake - подделка). Ее продукты можно видеть в сети уже сейчас, часто в качестве пародий и розыгрышей.

За рубежом злоумышленники опробовали дипфейки при устройстве на удаленную работу в сфере IT для получения доступа к базам данных. Однако созданные видеоклоны пока еще выдают свою искусственность темпом речи, асинхронностью и неестественными эмоциями.

Новейшие технологии используются не только передовыми IT-компаниями, но и вовсю группами мошенников. По оценке специалистов, до России технология тоже непременно дойдет в ближайшее время. Она будет работать по схеме звонков якобы родственников, например, пожилым людям. Тем самым не за горами момент, когда обманы со звонками от силовых ведомств и сотрудников банка будут полностью осуществляться программными алгоритмами на базе нейросетей.

В Роскачестве объяснили, как распознать дипфейк:

  •  Неестественная мимика - движения губ не попадают в такт с произносимыми словами, одно и то же выражение глаз, не видно смены эмоций.
  •  Низкое разрешение, пикселизация или нечеткость изображения, особенно в областях с активной мимикой - брови, уголки рта.
  • Звук опережает картинку или не успевает за движениями персонажа.

Распознавать подделки помогают и сами нейросети. Технологии создания и обнаружения дипфейков будут усиленно развиваться в будущем. В целом, для обычного пользователя лучший способ защититься от дипфейков - быть бдительным, обращаться к надежным источникам информации и следить за развитием информационных технологий.

В России телефонные мошенники обзванивают целые семьи, чтобы выудить деньги, сообщала ранее «Живая Кубань».

Самые важные новости теперь в нашем Telegram-канале. Подписывайтесь, чтобы не пропустить: https://t.me/live_kuban.

Ключевые слова: Наука и технологии
Источник: Живая Кубань
просмотров: 59
Для повышения удобства сайта мы используем cookies. Оставаясь на сайте, вы соглашаетесь с политикой их применения