Эльдар Муртазин отметил, что пока обманы с помощью копирования голоса не происходят массово.
Мошенники начали подделывать голоса с помощью искусственного интеллекта, что позволяет обманывать людей, копируя голос их родственников, сообщил аналитик Эльдар Муртазин интернет-изданию «Абзац».
Напомним, ранее в ГД внесли законопроект, который позволяет использовать запись со сгенерированным с помощью искусственного интеллекта голосом человека только при его согласии.
Документ предполагает охрану голоса как объекта личных неимущественных прав гражданина.
«Мошенники освоили эту технологию для того, чтобы обманывать людей. Мол, звонит родственник, близкий человек, и таким образом вызывать доверие и выманивать деньги», - пояснил Муртазин.
Аналитик добавил, что пока такие мошеннические действия не носят массовый характер, но некоторые люди уже были обмануты подобным образом.
Ранее пресс-секретарь президента России Дмитрий Песков заявил, что сталкивался с телефонными мошенниками.