Сегодня, наверно, практически все наслышаны о видео формата Deepfake, что обработаны при помощи нейросети. Кто-то находит их жуткими, кто-то занимательными, но немногие знают, какая впечатляющая технология за ними стоит. Области применения её безграничны, в том числе и для индустрии 18+. Итак, на повестке дня: Нейросеть Deepfake: устройство, работа, использование в порно.
Нейросеть Deepfake: устройство, работа, использование в порно
Поскольку охват технологии Deepfake становится шире день ото дня, разумно задаться вопросом, как эти видео вообще работают. Достижения в области захвата движений и распознавания лиц за последнее десятилетие просто ошеломляющие и в немного даже ужасающие. То, что раньше создавалось лишь самыми хорошо финансируемыми компьютерщиками и киностудиями, теперь стало доступным инструментом в руках комедийных изданий и государственных СМИ.По определению, Deepfake – это видео, в котором лицо и / или голос человека заменены чужим при помощи искусственного интеллекта. Основные технологии и процессы машинного обучения приобрели популярность ещё в начале 90-х, развиваясь в области научных исследований. Сам термин, сочетание слов «deep learning» (глубокое обучение) и «fake» (подделка), возникло на Reddit в 2017 году. «Дипфэйки» стали источником развлечения по всему Интернету после спорного применения технологии как способа фабрикации порнографических видео.
Сегодня на любом ресурсе для взрослых уже существуют сотни роликов с якобы популярными актрисами и поп-звёздами: от исполнительницы роли Арьи Старк Мэйси Уильямс (одна из наиболее частых завсегдатаев «дипфэйков» в этой категории) до Эммы Уотсон и Галь Гадот (с немногим менее популярными запросами), достаточно ввести в строке поиска «Deepfake».
Процесс создания «дипфэйка» изменился, так как различные приложения и бесплатные программы регулярно попадают в общий доступ, однако сама концепция более сложных видео Deepfake следует тем же принципам. Обычно это авто-кодер и генеративно-состязательная сеть(сокращённо GAN). Проще говоря, авто-энкодер – способ, когда компьютер определяет лицо и все пути, которыми он может «оживлять» заданную область.
Обрабатывается то, как оно моргает, улыбается и так далее. GAN – это система, посредством которой изображения из авто-энкодера сравниваются с реальными изображениями целевого человека. Она будет отклонять неточные изображения, прибегая к новым попыткам, и цикл продолжается бесконечно, постепенно приближаясь к «идеальному» по версии робота воссозданию человека. В итоге: часть нейросети создаёт изображение выражений лица, а другая отвечает за то, выглядят ли эмоции поддельными либо истинными, и они спорят, пока все кадры не станут удовлетворительными по мнению обоих.
В зачаточном состоянии публичное использование технологии Deepfake было эксклюзивным для запрещённой теперь ветки на Reddit, но вскоре стало ещё одним способом делать видео в сети. В наши дни самые распространённые «дипфэйки» – это видео, где в популярном фильме главного героя заменяет кто-то другой. Большинство вирусных «дипфэйков» – это в основном безобидные ролики, вроде того, в котором пародирующий Тома Круза Билл Хейдер перевоплощается в актёра и внешне.
Тем не менее, в последние годы всё большую популярность приобретают и более спорные форматы. Вирусные видео политических лидеров, таких как спикер Палаты представителей США Нэнси Пелоси и президент нашей страны Владимир Путин, продемонстрировали потенциальную опасность убедительных и устрашающих «дипфэйков». Такие инциденты вызвали многочисленные кампании, требующие запрета или, по крайней мере, повышения уровня осведомлённости о технологии Deepfake.
И поскольку она по-прежнему используются для развлечения, шантажа и академических исследований, вряд ли мы застали последний громкий прецедент Deepfake. Остаётся лишь надеяться, что обнаруживающая подделки контр-технология развивается с такой же скоростью.
Оставьте свой комментарий
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.