Китай хочет запретить «дипфейки» — поддельные видео, созданные при помощи нейросетей

В Сети все больше распространяются ролики, якобы записанные с участием известной личности — однако ей не известные. Поддельные ролики демонстрируют человека в ситуации, которой никогда не существовало, и отличить подделку порой кажется невозможным. Такие ролики создаются с участием нейросетей (генеративно-состязательная сеть) практически из ничего: достаточно фотографии, скачанной в Интернете. Китай решил положить конец распространению таких «дипфейков» ().

Китай запрещает поддельные ролики

Китай планирует законодательно запретить «дипфейки» — и это первая страна, которая серьезно отнеслась к манипуляциям искусственного интеллекта с и рассматривает их как угрозу. В субботу высший законодательный орган Китая предложил объявить незаконными «искажения изображения другого человека или имитацию голоса с использованием технологий», говорится в материале, опубликованном в государственной газете China Daily.

Газета цитирует старшего законодателя Шэня Чуньяо, который говорит, что «неправильное использование технологии искусственного интеллекта не только наносит вредит правам человека на изображение, но также вредит национальной безопасности и общественным интересам».

Читайте также:  Революционный язык программирования: на 90% меньше кода

«Глубокие подделки», или «дипфейки», становятся все более изощренными — вместо того, чтобы просто заменять человеку лицо, кодеры научились заменять целое тело. Это значит, что любой, владеющий техническим ноу-хау, может преобразовать кого угодно в цифровую марионетку.

Если вам непонятно, чем это может быть опасно, в 2018 году появился поддельный ролик с выступлением бывшего президента США Барака Обамы, где он предупредил, что «мы вступаем в эпоху, в которой наши враги могут сделать так, чтобы кто угодно сказал что угодно в любой момент времени». Само видео с этим заявлением является подделкой, в этом и казус.

Deepfake — конкатенация слов «глубинное обучение» (англ. Deep learning) и «подделка» (англ. Fake), методика синтеза изображения человека, основанная на искусственном интеллекте. Она используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики.

Deepfake может быть использован для создания фальшивых порнографических видео со знаменитостями или для порно-мести. Deepfake-порнография появилась в Интернете в 2017 году, в частности на Reddit, и была запрещена сайтами, включая Reddit , Twitter и Pornhub. Deepfake может быть использован для создания поддельных новостей и вредоносных обманов.

Непорнографические deepfake-ролики можно легко найти на популярных сайтах потокового видео, таких как YouTube или Vimeo. Популярной программой является FakeApp, использующая TensorFlow.

Методы выявления жестов и превращения в целевое видео, которое похоже на целевое лицо, были представлены в 2016 году и позволяют создавать поддельные мимические изображения в существующем 2D-видео в режиме реального времени.

По материалам: hi-news.ru

Читайте также:  В Саратове изобрели новую систему навигации

Похожие статьи:

Оставить ответ

Ваш e-mail не будет опубликован. Обязательные поля помечены *