Русская Википедия:Дипфейк

Материал из Онлайн справочника
Перейти к навигацииПерейти к поиску

Шаблон:Значения Дипфейк (Шаблон:Lang-en от deep learning «глубинное обучение» + fake «подделка»)[1] — методика синтеза изображения, основанная на искусственном интеллекте.

Мето́дика си́нтеза изображе́ния используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики. В подавляющем большинстве случаев для создания таких видео используют генеративно-состязательные нейросети (GAN). Одна часть алгоритма учится на реальных фотографиях определённого объекта и создаёт изображение, буквально «состязаясь» со второй частью алгоритма, пока та не начнёт путать копию с оригиналом[2].

История

Дипфейк используют для замены определённых элементов изображения на желаемые образы, в частности для создания фальшивых порнографических видео со знаменитостями или для порно-мести[3]. Среди всех видео с применением данной технологии порно-дипфейки составляют 96 %, причём 99 % из них делаются с участием популярных актрис и певиц[4]. Дипфейк-порнография появилась в Интернете в 2017 году, в частности на Reddit[5], и была запрещена многими сайтами, включая сам Reddit, Twitter и Pornhub[6][7][8][9]. Технология дипфейк также может быть использована для создания поддельных новостей и вредоносных обманов[10][11].

Дипфейк-ролики можно легко найти на популярных сайтах потокового видео, таких как YouTube или Vimeo. Популярной программой является FakeApp[12], использующая TensorFlow[13].

Методы выявления движения и превращения в целевое видео, которое похоже на целевой образ, были представлены в 2016 году и позволяют создавать поддельные мимические изображения в существующем 2D-видео в режиме реального времени[14] . 1 сентября 2020 года компания Microsoft анонсировала свою новую разработку — Microsoft Video Authenticator, программное обеспечение, которое позволяет определить вмешательство в видео[15].

Технология дипфейк использовалась в музейном пространстве: например, в Музее Сальвадора Дали во Флориде в честь 115-летия известного художника была организована специальная выставка Dalí Lives («Дали жив»). По словам кураторов проекта, на этом мероприятии «искусство встречает искусственный интеллект». Они использовали сгенерированный искусственным интеллектом прототип художника, который общался с посетителями музея, рассказывал им истории о своих картинах и жизни, а также делал селфи и присылал фотографии на почту посетителей[16].

В 2020 году британский телеканал Channel 4 выпустил фейковое рождественское поздравление от королевы Елизаветы II с использованием технологии дипфейк[17]. Руководство телеканала объяснило произошедшее предупреждением о том, что с помощью данной технологии можно вводить людей в заблуждение, но некоторые люди всё равно осудили действия телеканала[18][19].

Центр противодействия дезинформации Украины заявил в феврале 2022 года о том, что дипфейк может быть использован в информационно-психологической операции в ходе российского вторжения на Украину для создания ложного видео с заявлением о капитуляции Владимира Зеленского[20].

Применение

Дипфейки используется для создания фильмов, для замены лица одного актёра на другого. Используют для «оживления» умерших людей — создание видео с помощью фотографии и образца голоса.

Также используют дипфейки для видеосвязи, для сдачи экзаменов, для обмана или для шутки в видеочатах, для создания шуточных роликов с известными людьми.

См. также

Шаблон:Викисловарь

Примечания

Шаблон:Примечания

Литература