Календарь

Июль 2024

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

   |  →

13:26, 24.01.2024

Что за схема мошенничества при помощи видеосвязи в мессенджерах?

Эксперты спрогнозировали появление нового опасного вида интернет-мошенничества.

Мошенники в будущем усовершенствуют схему обмана с помощью технологии дипфейков. Они начнут подделывать не только голосовые сообщения, но и будут обманывать пользователей соцсетей и мессенджеров через видеосвязь. Об этом рассказал РИА Новости главный эксперт «Лаборатории Касперского» Сергей Голованов.

Что за мошенничество с помощью дипфейков сейчас распространено?

Дипфейк (от англ. deepfake: deep learning — «глубинное обучение» и fake — «подделка») — это метод создания поддельных изображений, видео или аудио, основанный на искусственном интеллекте. Он заключается в соединении и наложении изображений (видео или аудио) друг на друга при помощи GAN (Generative Adversarial Network — генеративно-состязательные нейросети). Например, при создании дипфейк-видео лицо и часть мимики человека переносится на какой-либо ролик и получается фейковое видео, которое внешне очень похоже на настоящее.

Мошенники уже научились пользоваться этой технологией для обмана интернет-пользователей. По словам Голованова, они отправляют жертвам голосовые сообщения в мессенджере, подделывая голос их знакомого или руководителя, и просят перевести деньги.

Однако, как отметил эксперт, у этой схемы есть несовершенства, и жертвы зачастую распознают сгенерированные сообщения.

«Интонация, с которой идут все голосовые сообщения, роботизирована: перепад голоса, отсутствие разговорных частиц и фонового шума. Это все очень настораживает человека, несмотря на то, что тембр голоса действительно похож на тембр реального человека», — рассказал Голованов.

Как мошенники могут модернизировать эту схему?

По словам эксперта, ожидается, что злоумышленники научатся генерировать дипфейки в режиме реального времени при осуществлении видеозвонка в мессенджерах.

«Мошенники будут просто брать картинку с экрана, и это будет, собственно говоря, твое лицо. Ты ставишь перед собой камеру, и на выходе получается изображение другого человека. Ты говоришь губами, а вот этот аватар повторяет. Злоумышленники доберутся до этого через несколько лет», — отметил Голованов.

По его словам, жертвы будут сильнее доверять таким видео, так как общение происходит в режиме реального времени. При этом распознать использование нейросетей на слух уже не получится.

Автор: Мария Волуйская
Ключевые слова: Наука и технологии
Источник: АиФ
просмотров: 50

Аккредитация

Компания или частное лицо может получить аккредитацию для публикации новостей на нашем портале.