Внимание! Мошенники выдают себя за сотрудников исследовательских центров, чтобы записать голос жертв для создания дипфейков
Им достаточно 20 секунд чистой записи для клонирования голоса, сообщают РИА-новости.
Затем аудио дорабатывают — добавляют шумы или имитируют плохую связь, чтобы усложнить распознавание подделки. Такие записи используют в фейковых аккаунтах мессенджеров и соцсетей, сочетая с дипфейковым видео.
Подделки становятся настолько реалистичными, что обманывают даже IT-специалистов.
Хотя использование ИИ в мошенничестве скоро станет отягчающим обстоятельством, это сработает лишь в случае поимки преступников.






































