Что такое дипфейк простыми словами
Перейти к содержимому

Что такое дипфейк простыми словами

  • автор:

Что такое дипфейк. Объясняем простыми словами

Дипфейк — реалистичная подмена фото-, аудио- и видеоматериалов, созданная с помощью нейросетей.

Когда вы смотрите видео, где у модели Dior лицо мистера Бина, а все роли во «Властелине колец» играет Арнольд Шварценеггер, знайте — это и есть дипфейк. Само название deep fake объединяет в себе «машинное обучение» (machine learning) и «подделку» (fake). Компьютерные алгоритмы научились «оживлять» фотографии, синтезировать голос человека, заменять лица на видео. В итоге появляется контент, внешне (почти) неотличимый от настоящего.

Например, в феврале 2021 года в TikTok появился пародийный аккаунт deeptomcruise, в котором выкладывают дипфейки с Томом Крузом. Ролики записывает пародист актёра Майлз Фишер. Его персонаж движется, говорит, поёт без видимых следов наложения одного изображения на другое. В 2020 году приобрёл популярность дипфейк, в котором Илон Маск спел песню «Трава у дома» вместо солиста группы «Земляне».

Пример употребления на «Секрете»

«Помимо фейкньюс мы стоим на пороге новой угрозы — дипфейка, это очень страшная штука. Вот я стою, и вместо меня на компьютере можно вставить другую голову, другой голос. Если всё это оказывается в руках и головах других ребят, вы представляете, сколько они могут наделать вреда?»

(Пресс-секретарь президента России Дмитрий Песков — об опасности дипфейков.)

Нюансы

Для создания дипфейков используют генеративно-состязательные нейросети (GAN). Это алгоритмы на базе машинного обучения, которые генерируют новый контент на основе заданного набора. Например, сети изучают тысячу фотографий Анджелины Джоли и создают новую с чертами и мимикой актрисы. Или накладывают её лицо на видео с другой женщиной.

При этом один алгоритм создаёт видео, а второй пытается определить, настоящее оно или нет. Если второй алгоритм смог обнаружить фальшивку, первый начинает сначала, узнав от алгоритма-напарника о причинах отбраковки. Пара нейросетей действует снова и снова, пока не выдаст результат, который сочтёт достаточно реалистичным.

История

В 2014 году технологию разработал студент Стэнфордского университета Иэн Гудфэллоу. В 2017 году она стала широко известной благодаря пользователю Reddit с ником deepfake, который начал с её помощью заменять лица порноактрис лицами знаменитостей. Вскоре появилась программа, сильно упрощавшая процесс, и порноролики со «звёздами кино» заполнили интернет.

Критика

Технологию критикуют, из-за того что её можно использовать для мошенничества и манипуляций общественным мнением. Например, в 2019 году в США распространилось видео с «пьяной» Нэнси Пелоси — спикером палаты представителей и одним из лидеров Демократической партии. Для видео речь политика замедлили, а затем подключили нейросети, чтобы сделать голос естественным.

В начале 2020 года Facebook объявил об ужесточении борьбы с дипфейками, созданными для введения пользователей в заблуждение. А МВД России в мае 2021 года опубликовало тендер на разработку новой системы распознавания лиц. Программа «Зеркало» должна будет также выявлять дипфейки.

Дипфейки: что это за технология и почему она опасна

Фото: Kayla Velasquez / Unsplash

Технологией создания дипфейков раньше владели лишь эксперты по искусственному интеллекту и спецэффектам. Новейшие программы и распространение машинного обучения упростили процесс создания фальшивых, потому опасных видео

Слово deepfake появилось несколько лет назад. Оно объединяет в себе два понятия: глубокое обучение (deep learning), то есть обучение нейросетей, и подделку (fake). Технология дипфейков заключается в синтезе ИИ человеческих изображений: алгоритм объединяет несколько фото, на которых человек изображен с разным выражением лица, и делает из них видео. При этом ИИ анализирует большое количество снимков и учится тому, как может выглядеть и двигаться конкретный человек. Об этом пишет американское издание Forbes.

С распространением дипфейков появились случаи «дискредитации» публичных личностей, чьих изображений много в открытом доступе. Например, весной 2019 года в Сети было опубликовано дипфейк-видео со спикером палаты представителей конгресса США Нэнси Пелоси. Автор ролика с помощью ИИ изменил речь Пелоси так, что она плохо выговаривала слова, и пользователи, посмотревшие видео, посчитали, что политик пьяна. Ситуация вылилась в громкий скандал, и лишь спустя некоторое время было доказано, что речь Пелоси была сгенерирована ИИ.

Правозащитник Сэм Грегори рассказывает изданию Wired о том, что собой представляют дипфейки

Этот дипфейк был сделан достаточно просто. Но есть и сложные алгоритмы. Они не просто меняют тембр голоса или замедляют речь, а генерируют такие видео, на которых человек делает то, чего никогда не совершал, или говорит то, чего никогда не говорил. Со временем дипфейки будут становиться все более реалистичными, пишет американское издание Forbes. Уже сейчас технология претендует на то, чтобы влиять на политику, а в дальнейшем такие видео и вовсе смогут стать угрозой национальной безопасности.

Что такое дипфейки, для чего их используют и чем они опасны

Фото: Unsplash

В январе 2024 года стало известно, что Госдума работает над законопроектом о запрете дипфейков. Хотя эту технологию можно использовать во вред, она также может принести много пользы людям. Разбираемся на примерах

Что такое дипфейки

Дипфейк — это технология, представляющая собой фотореалистичное объединение изображений с помощью ИИ: алгоритм анализирует большое количество снимков и учится тому, как может выглядеть и двигаться конкретный человек. Нейросеть собирает из интернета фотографии человека с разными выражениями лица и создает из них новое изображение или видео. Сам термин deepfake демонстрирует смысл технологии через объединение двух понятий: глубокое обучение [нейросетей] (deep learning) и фальшивка (fake).

Какой вред могут принести дипфейки

С момента появления дипфейков в 2017 году их часто использовали в преступных целях. Вот в чем была замешана эта технология.

Порно и кибербуллинг

Дипфейки часто использовали для создания фальшивого порно с «участием» известных людей. Получившимся видео их могли шантажировать или просто пытаться скомпрометировать. Лица женщин вырезали из фотографий, найденных в сети, и интегрировали в порнографические видео. Эксперт по технологии Генри Аждер приводит конкретные данные: 96% дипфейков в интернете — порнография, причем в абсолютном большинстве из них используются женские лица и образы.

Политические манипуляции

Весной 2019 года в интернете опубликовали дипфейк со спикером Палаты представителей США демократкой Нэнси Пелоси. В видео она медленно говорила, за счет чего создавалась иллюзия, что она сильно пьяна. Республиканские эксперты и политики немедленно принялись критиковать спикера, почти начался скандал. Лишь через несколько дней оказалось, что речь Пелоси была сгенерирована ИИ.

Во время выборов в Великобритании в 2019 году художник Билл Постерс выпустил фейковое видео, в котором Борис Джонсон (тогдашний глава Консервативной партии Великобритании) говорил, что британцы должны голосовать за Джереми Корбина (в то время — лидера соперничающей с консерваторами Лейбористской партии).

Фото:youtube.com

Чем полезны дипфейки

Несмотря на все скандалы, не стоит клеймить технологию как абсолютно зло. Это всего лишь инструмент, который можно использовать и во вред, и во благо. Вот какую пользу могут приносить дипфейки.

Помогать людям с отсутствием воображения

Инженеры-исследователи Кейт Глазко и Ивэй Чжэн используют дипфейки для помощи людям с афантазией. В этом состоянии у человека нет воображения, и он не может создавать абстрактные образы в своей голове. Ученые с помощью дипфейков воспроизводят разные жизненные обстоятельства, в которые может попасть такой человек. Это помогает людям с афантазией прорепетировать потенциально стрессовую ситуацию и за счет этого снизить тревогу.

Способствовать политическим и общественным преобразованиям

Политические дипфейки способны быть инструментом позитивных преобразований в обществе. Например, родители Хоакина Оливера, погибшего из-за стрельбы в школе во Флориде в 2018 году, использовали эту технологию и внедрили образ мальчика в эмоциональное видео, призывающее к контролю за ношением оружия в США.

Фото:The Next Rembrandt / YouTube

Рассказывать об искусстве

В музее Дали во Флориде дипфейковая версия сюрреалиста встречает посетителей, рассказывая о художнике и его искусстве. Исследователь Михаэла Михайлова отмечает, что это дает посетителям ощущение непосредственности, близости и персонализации. Deepfake Dali даже предлагает сделать с ним селфи.

Повышает концентрацию студентов

Дипфейки могут помогать лучше учиться. В Шанхае доцент Цзян Фэй заметил, что во время онлайн-пар внимание его студентов ослабло. Чтобы помочь им сосредоточиться, он использовал аниме-версию себя для цифрового обучения. Цзян Фэй подчеркивает: «Энтузиазм студентов на занятиях и улучшение качества домашних заданий говорят о том, что удалось добиться очевидного прогресса».

Дипфейк — технология для творчества, лишающая уверенности в подлинности

Чтобы изменить внешность, ещё десять лет назад нужны были грим, маска или пластическая операция. Сейчас достаточно нескольких кликов — и Илон Маск поёт: «Земля в иллюминаторе…», на месте Шарлиз Терон в рекламе духов появляется мистер Бин, портрет Моны Лизы оживает, и её фирменная улыбка вдруг теряет уверенность. Всё это стало возможным благодаря технологии deepfake, которая напрочь лишает уверенности в подлинности любого видео, зато открывает необыкновенный простор для творчества и приключений вашего цифрового клона в виртуальных мирах будущего.

shuttersv / Shutterstock

Наивные вопросы

Дип… что?

Дипфейк — это видеоролик, в котором лицо одного человека подменяется другим при помощи алгоритмов машинного обучения. В этом слове соединены два понятия: глубокое обучение нейросетей (deep learning) и подделка (fake).

Глубокие (состоящие из многих слоёв) нейросети позволяют строить многоэтапные алгоритмы обработки информации. В результате развития этой технологии машины обрели способность к самообучению.

Как эта штука работает?

Есть несколько способов создать «обманку», но их объединяет общий принцип. Имя ему — GAN, генеративно-состязательная сеть (Generative adversarial network). Это алгоритм машинного обучения, построенный на соревновании двух нейросетей. Одна зовётся Генератор, она создаёт фальшивки. Другая, Дискриминатор, выступает в роли эксперта, который пытается отличить подделку от оригинала. Чем лучше Генератор обманывает Дискриминатора, тем правдоподобнее выглядит дипфейк.

Кто создал первый дипфейк?

Пращуром дипфейков стал в конце ХХ века цифровой клон актёра — понятие, пришедшее из киноиндустрии. Внешность и голос умершего или живого актёра воссоздавали с помощью донейросетевой технологии CGI (computer-generated imagery — изображения, сгенерированные компьютером), получая виртуальную модель человека.

Технология CGI помогла превратить актёра Билла Найи в настоящего морского дьявола

Считается, что эра дипфейков началась в конце 2017 года, когда пользователь с ником DeepFakes выложил на Reddit несколько видео с контентом 18+. На них актрисам из видео для взрослых были «приделаны» лица голливудских звёзд. Технология быстро разошлась в интернете и запустила волну по созданию похожего контента. В недавнем исследовании нидерландская компания по кибербезопасности Deeptrace выявила, что ролики 18+ составляют 96% от общего числа дипфейков: на момент исследования их было около 15 тысяч во всей Сети.

Как простому человеку сделать дипфейк?

Это не так уж сложно. В сделанных с помощью алгоритма Face2Face видеороликах пользователи примеряют на себя лица знаменитостей. «Обманка» создаётся в режиме реального времени и искажает мимику выбранной звезды вслед за мимикой пользователя. В соцсети Reddit в январе 2018 года появилась похожая технология — приложение FakeApp. Российская разработка DeepFaceLab и приложение Reface позволяют вставлять лицо в видео, менять движение губ и саму речь.

Дипфейки опасны?

Кажется, уже да. Первые подобные видеоролики были плохого качества, и подделки легко распознавались, но технология быстро эволюционирует.

По мере совершенствования дипфейков расширялось их применение в криминальной сфере. Теперь мошенники генерируют голос для звонков по телефону и создают компрометирующие видеоролики для шантажа. А в будущем? По прогнозам экспертов, дипфейки могут стать угрозой национальной безопасности. Повсеместный сбор биометрических данных создаёт дополнительные риски: фейковое изображение можно будет использовать вместе с фейковыми отпечатками пальцев или следами ДНК.

В марте 2019-го гендиректор британского филиала крупной энергетической компании принял звонок от босса из Германии. Тот со своим обычным немецким акцентом пробормотал срочное поручение: в течение часа отправить средства венгерскому поставщику. Британец положил трубку, перевёл на указанный счёт 220 тысяч евро и вскоре попал во все газеты как первый известный человек, облапошенный с помощью искусственного интеллекта. Ему звонила нейросеть, научившаяся с помощью GAN имитировать голос начальника-немца на основе аудиозаписей его выступлений. Страховой компании пришлось покрыть убытки, а остальным — задуматься о будущем.

Кто же нас спасёт?

Социальные сети — Twitter, Facebook, TikTok, Reddit — уже разрабатывают и применяют политику по защите пользователей от фальшивок. В некоторых странах вопрос с подделками решают на законодательном уровне. В Китае такие ролики маркируются, в некоторых штатах США, например в Калифорнии, запрещено распространять дипфейки с политиками перед выборами. Во Франции ввели санкции за монтаж речи или изображения человека без его согласия.

GAN: самоучитель для нейросетей

Как была создана и где применяется важнейшая из новых технологий машинного обучения

Однажды вечером докторант Монреальского университета Ян Гудфеллоу поспорил с друзьями за кружкой пива. Приятели поделились с ним идеей: они хотели создать нейросеть, которая будет придумывать лица никогда не существовавших людей. Получалось не очень. На сгенерированных изображениях не хватало то ухо, то носа, а чаще все детали были на месте, но портрет больше походил на шизоидную аппликацию из вырезанных частей лица со странными пропорциями, чем на нормальную физиономию. Разработчики планировали исправить болезненный творческий стиль нейросети, заставив её анализировать огромное число реальных фотографий. Но Гудфеллоу их высмеял. Для этого потребовались бы такие вычислительные мощности, которых у его приятелей просто не было. Так что у них ничего не получится, если только… Если только не создать вторую нейронную сеть, которая будет критиковать первую, а потом не стравить их, заставляя спорить, пока они не станут выдавать изображения нужного качества.

На этот раз снисходительно улыбнулись уже друзья Гудфеллоу: какая только чушь не приходит в голову к концу вечера в знаменитом монреальском кабаке «Три пивовара»! На том и разошлись.

Но вместо того чтобы лечь спать и наутро забыть своё пьяное озарение, Ян Гудфеллоу пришёл домой и уселся за компьютер.

Вскоре на свет появился алгоритм, который наделил машины даром воображения. Благодаря глубокому обучению они уже были способны видеть, слышать и распознавать. Дайте сети достаточное количество изображений, и она научится, скажем, отличать на снимках пешехода, который собирается перейти дорогу. Так появились автопилоты и Siri с Алисой. Но как насчёт творчества — создания новой картины или симфонии? До GAN искусственный интеллект не был способен к творчеству.

Новый алгоритм освободил человека от необходимости быть наставником для машин: благодаря соперничеству между двумя нейросетями система учится сама у себя. Это диалог антагонистов, работающих в одной команде, как если бы фальшивомонетчик всё более искусно подделывал купюры, а полицейский выискивал всё более тонкие способы опознать подделку. Обучение продолжается, пока алгоритм не начнёт путаться, где фальшивка, а где оригинал. Это означает, что машина научилась создавать нечто уникальное, но при этом неотличимое от реальности. Например, лицо никогда не существовавшего человека, которое вы не отличите от фото реальных людей. Разве не это называют творчеством?

Картинками и картинами, созданными искусственным интеллектом с помощью GAN, уже никого не удивить. Самая известная из них была продана на знаменитом лондонском аукционе Christie»s за 432,5 тысячи долларов. В названии «шедевра» — портрета некоего Эдмона Белами — угадывается привет отцу GAN: на французском bel ami означает «хороший друг». Примерно так переводится с английского фамилия Гудфеллоу.

Детище Гудфеллоу помогло заработать не только художникам, но и специалистам по компьютерным спецэффектам. Раньше, чтобы создать вымышленную реальность, им требовались миллионы долларов, 3D-сканирование актёров и большие компьютерные мощности. Но чтобы поменять местами лица каскадёра и актёра, довольно ноутбука.

С помощью GAN можно серьёзно улучшить качество изображения: нейросеть «додумывает» недостающие фрагменты, благодаря чему мы смотрим старые мультфильмы в HD-качестве, а медики могут во всех деталях разглядеть снимок, сделанный в плохом разрешении.

В 2017 году компания NVIDIA обучила нейронную сеть менять погоду и время суток на видео. Исследователи из Университета Карнеги — Меллона создали алгоритм, способный наложить мимику одного человека на лицо другого. А специалисты Вашингтонского университета научили нейросеть следить за тем, как человек на видео шевелит губами, сопоставлять его мимику со звуками, а затем превращать аудиозаписи в реалистичное видео. То есть голосового сообщения теперь достаточно, чтобы получить видео человека, который произносит эту речь. Разработчики из Facebook AI Research и вовсе обучили свою нейросеть распознавать движущегося человека на видео и произвольно менять его движения: управлять героем на видео можно так же, как персонажем в компьютерной игре. А можно ещё и фон вокруг поменять.

GAN умеет работать в том числе с голосом: нейросетям достаточно послушать несколько минут записи, чтобы максимально достоверно подделать речь человека. Так мы и попали в дивный мир deepfake, в котором ничему нельзя верить. Пока ещё нейросеть оставляет массу цифровых следов, и специальные фильтры могут отличить оригинал от подделки. Но с каждым днём алгоритмы совершенствуются.

И всё-таки главное, что делает GAN, — это не перерисовывание лиц, а создание более самостоятельных машин. Пока ещё ИИ-программистам приходится подбирать нейросетям материал для обучения — например, сообщать, какие изображения содержат пешеходов, пересекающих дорогу, а какие нет. Но очень скоро нужда в этом отпадёт. Компьютеры будут гораздо лучше справляться с необработанными данными и смогут сами понять, чему им надо научиться. Недаром Ян Лекун, глава лаборатории искусственного интеллекта в Facebook, назвал GAN самой крутой идеей глубокого обучения за последние 20 лет.

Способность воображать и размышлять над различными сценариями — часть того, что делает нас людьми. И в этом смысле GAN приближает искусственный интеллект к человеческому.

Фальшивые звёзды

Что заставили делать и говорить знаменитостей создатели дипфейков — и как это меняет мир

Николас Кейдж

Когда: 2018.

Автор: Пользователи YouTube.

Сюжет: Любители подделок поместили актёра в фильмы, в которых он никогда не снимался. Дон Корлеоне из «Крёстного отца», Нео из «Матрицы», Мария из «Звуков музыки»… Для Кейджа нет невозможного!

Последствия: Другие актёры тоже стали появляться в нетипичных для них ролях. Джим Керри попал в «Сияние» и «Джокера», Сильвестр Сталлоне отметился в «Терминаторе», а Арнольд Шварценеггер перевоплотился сразу во всех персонажей трилогии «Властелин колец». Список продолжает пополняться.

Нэнси Пелоси

Когда: 2019.

Автор: Портал Politics WatchDogs.

Сюжет: Пелоси, спикер палаты представителей конгресса США, произносит речь, но плохо выговаривает слова. Пользователи даже посчитали, что оппонентка президента Дональда Трампа (тогда между ними было личное противостояние) пьяна.

Последствия: Пелоси назвала видео «сексистским мусором». По её требованию YouTube удалил ролик, но в интернете остались его многочисленные копии.

Досталось и самим Трампу с Обамой: в 2017-м Барак назвал Дональда «засранцем» (deep shit), а «помогли» ему в этом режиссёр Джордан Пил и издание BuzzFeed.

Джефф Безос

Когда: 2019.

Автор: Билл Постерс (известный мастер дипфейков).

Сюжет: В тизере вымышленного телевизионного проекта глава Amazon пытается привлечь внимание к горящим лесам Амазонии. Мнимый Безос делает акцент на том, что «одолжил название лесов для своей компании». Именно это, говорит двойник миллиардера, позволило ему «стать самым богатым человеком на Земле».

Последствия: Ролик получил свою порцию славы, как и прошлые работы Постерса с фейковыми Морганом Фрименом или Дональдом Трампом. Вдохновлённый успехом, Постерс с соавторами покусился на великого и ужасного Марка Цукерберга: в дипфейк-видео основатель Facebook рассказывал о безграничной власти соцсети над новостями. В ответ на это руководство Facebook объявило войну подделкам. А вот Безос не обиделся: по его мнению, запреты на дипфейки — один из видов цензуры.

Сальвадор Дали

Когда: 2019 (к 115-му дню рождения).

Автор: Музей Дали во Флориде и компания Goodby Silverstein & Partners из Сан-Франциско.

Сюжет: Дали приветствует гостей на специальном экране в одном из залов. Модель создавали на основе архивных материалов и видео с современными актёрами, похожими на художника. Голос Дали подарил артист с характерным испанским акцентом.

Последствия: Виртуальный Дали сопровождал посетителей музея на выставке Dali Lives. Мэтр жестикулировал, рисовал, шутил, рассказывал истории, общался со всеми желающими и делал с ними селфи. Чтобы добиться такого результата, создателям понадобилось более 6000 кадров с изображением художника и 1000 часов машинного обучения.

Хоакин Оливер

Когда: 2020.

Автор: Некоммерческая организация Change the Ref.

Сюжет: На видео в Twitter погибший американский подросток призывает поддержать политиков, которые предлагают ввести контроль за оборотом оружия. «Выборы в ноябре — первые, на которых я мог бы проголосовать. Но я уже не смогу выбрать, в каком мире хочу жить. Поэтому вы должны проголосовать за меня», — говорит парень, убитый во время массовой стрельбы в феврале 2018 года в школе Марджори Стоунман Дуглас.

Последствия: За несколько дней ролик набрал миллионы просмотров, но это не помешало пользователем назвать видео «неэтичным» и «пугающим», обвинив его создателей в «цифровой некромантии».

Люк Скайуокер

Когда: 2020.

Автор: Lucasfilm.

Сюжет: В финальном эпизоде второго сезона сериала «Мандалорец» появляется молодой Люк, который забирает с собой Малыша Йоду.

Последствия: Известный в YouTube дипфейкер Shamook решил посоревноваться с Disney и создал более правдоподобную версию помолодевшего Люка. Студия оценила его талант и предложила сотрудничество. С помощью умельца в очередной части «Звёздных войн» вернули к жизни и нестареющую принцессу Лею.

Когда: 2021.

Авторы: Майлз Фишер (имитатор актёра) и Крис Юме (специалист по визуальным эффектам).

Сюжет: В серии роликов в TikTok Круз здоровается с пользователями, ударяет по мячу на поле для гольфа, рассказывает о встрече с Горбачёвым и показывает фокус с монеткой.

Последствия: Видео набрали 8 миллионов просмотров, а алгоритмы не опознали их как подделки. Впрочем, до этого Майлз успешно копировал Круза и без технологических ухищрений. Например, в 2019 году он записал шуточное обращение от лица актёра на выборах.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *