Появление ИИ-моделей наподобие китайской OmniHuman-1, которые могут создавать реалистичные видео, может привести к увеличению количества кибератак с использованием дипфейков, сгенерированных в режиме реального времени, а ИИ-видеозаписи будет сложно отличить от реальных, рассказал РИА Новости технический лидер направления антиспуфинга MTS AI Станислав Приходько.
"Компания ByteDance, которая владеет TikTok, продемонстрировала новую систему искусственного интеллекта OmniHuman-1, которая может генерировать одни из самых реалистичных дипфейк-видео на сегодняшний день... Запуск таких моделей, как OmniHuman-1, может привести к кратному росту атак на пользователей и корпоративный сектор. В том числе это означает, что в скором времени качество дипфейков, которые создают в реальном времени, также значительно вырастет и их будет ещё сложнее отличить от настоящих видео", - рассказал Приходько.
Для того, чтобы сгенерировать видео через OmniHuman-1, необходимы лишь одна картинка и аудиодорожка хорошего качества. "На презентации модели исследователи показали, как Тейлор Свифт поёт на японском, а Альберт Эйнштейн читает лекцию. Оба видео сгенерированные при помощи нейросетей", - добавил эксперт.
Он отметил, что создать поддельный голос еще проще: для этого нужно несколько секунд записи голоса. Как объяснил Приходько, сгенерировать такие характерные черты, как тембр и интонация голоса, проще, чем мимику лица - поэтому для видео необходимы большие мощности.
"Специализированное программное обеспечение позволяет в 2025 году создавать дипфейки в реальном времени. Такие атаки уже фиксируются в мире и в России, как правило, с целью похищения крупных сумм денег, потому для них требуются более мощные устройства и продвинутые технологии", - сказал Приходько.