Речь идет о случаях злоупотребления технологиями ИИ и созданными с его помощью фото/видео изображениями, а также голосовыми файлами.
Эта неделя началась в ГД РФ с обсуждения законодательных инициатив, которые, по замыслу авторов, позволят поставить еще один заслон кибер-мошенничеству. Речь идет о дипфейках — широко распространившейся методике синтеза изображения (в том числе видео) или голоса, основанной на искусственном интеллекте. Эти технологии нередко используются, к сожалению, для клеветы и мошенничества (для убеждения потенциальных жертв им показывают или дают прослушать родных, начальников, сотрудников спецслужб и тп), но наказания за факт использования ИИ в этих целях на данный момент нет. «Например, ранее злоумышленники подделывали фотографии для распространения клеветы, однако нейросети и искусственный интеллект (технологии «дипфейк», «цифровые маски» и т. д.), позволяют создавать подделки, которые почти нельзя отличить от реальных. С помощью этих технологий также можно воспроизводить другие биометрические данные», — пишет «Коммерсант». Наказание, которое предлагают авторы законопроекта, огромное — до 1,5 млн рублей за клевету посредством созданного ИИ изображения или голоса с использованием его биометрических данных. В перечне наказаний также — арест на срок до трех месяцев либо лишение свободы до двух лет. Проект отправлен на доработку, хотя, как отмечают эксперты, число преступных схем с использованием дипфейков выросло в 30 раз, а убытки россиян от кибермошенничества по итогам 12 месяцев могут составить 300 млрд рублей. Второй проект касается защиты голоса. Предлагается ввести охрану голоса как объекта личных неимущественных прав, а его использование и любое публичное действие не может производиться без согласования с хозяином голоса или с родственников хозяина голоса. Исключение предлагается делать для государственных, общественных или иных публичных интересов.