Поддельные голоса и видео. В чем феномен популярности дипфейков?
Относительно недавно в мировое цифровое пространство ворвались дипфейки, когда с помощью нейросетей подделывают видео, фото и голоса людей, стараясь сделать это максимально реалистично. Цели у авторов «сетевых фальшивок» разные, включая желание посеять панику или убедить в правдивости изначально неверной информации. О том, почему дипфейки стали популярны и как распознать фальшивые снимки или видеокадры, мы поговорили с экспертом редакции сайта Stopfake.kz Татьяной Карамышевой, передает наш сайт.
— Чем опасны дипфейки?
— Если простыми словам, дипфейк (от англ. deep learning «глубинное обучение» и fake «подделка» — прим.)— это когда очень реалистичное фото, видео или аудиоматериал генерируют нейросети. К примеру, вы можете увидеть ролик, в котором некая знаменитость признается в том, что ест на завтрак живых котят. При этом качество видео, мимика героя, его голос и окружение не будут вызывать совершенно никаких сомнений в том, что кадры реальны. На самом же деле все это будет сгенерировано нейросетью для того, чтобы опорочить репутацию изображенной знаменитости. В YouTube без особого труда можно найти шуточные дипфейк-видео, на которых лица одних актёров в знаменитых сценах заменяют на лица других, и это выглядит поразительно реально. Все эти примеры относительно безобидны.
Но можно представить, что некие злоумышленники сгенерируют с помощью искусственного интеллекта «говорящую голову» какого-нибудь президента, отдающего сомнительные приказы, и вот тогда последствия могут быть весьма серьёзными. Именно в этом и заключается опасность дипфейков — с их помощью можно быстро и эффективно заставить поверить людей практически во что угодно. Можно повергнуть общественность в панику, внушить им неприязнь к конкретному человеку или целой группе людей и так далее.
— Авторы дипфейков используют различные технологии, чтобы добиться сходства фейка с оригиналом. По каким признакам зритель может определить, что перед ним подделка?
— С развитием нейросетей отличить дипфейк от реального видео становится все сложнее. Иногда подделку может выдать «кривая» мимика или размытости в местах склейки изображений, например по контуру лица или тела. Однако эти признаки есть далеко не всегда. Надежнее всего — проверить видео или фото при помощи все тех же нейросетей. Сейчас сервисы для проверки видео и фото доступны в онлайн-режиме. Узнать, было ли видео сгенерировано компьютером можно, например, на портале https://deepfakedetector.ai/. Фото проверяет сервис Maybe’s AI Art Detector, который можно найти по ссылке https://huggingface.co/spaces/umm-maybe/AI-image-detector. Также появляются и другие сервисы, позволяющие проверять различный контент. Если задаться этим вопросом и посвятить пару часов своего времени поиску в Сети, можно найти наиболее удобный именно для вас.
— Когда начали появляться первые дипфейки?
— Считается, что самые первые дипфейки появились ещё в 1997 году, когда была создана первая программа, позволяющая редактировать уже существующие видеоролики так, чтобы люди в них произносили слова и фразы, которых не было в оригинале. При этом менялась не только звуковая дорожка, но и мимика лиц. Программа называлась Video Rewrite. Если говорить о современных дипфейках, то они появились в 2014 году, когда были разработаны генеративно-состязательные сети (GAN). В их основе лежит работа сразу двух искусственных интеллектов: один создает подделку, а второй пытается её распознать. Если второму удается обнаружить обман, то первый ИИ моментально адаптируется и совершенствуется так, чтобы второй в конечном счёте не заметил ничего поддельного.
— Где чаще всего сегодня можно столкнуться с дипфейком?
— Нет какого-то конкретного сайта, где вероятность случайно наткнуться на дипфейк выше, чем на других ресурсах. Я бы сказала, что чаще всего дипфейки распространяют сами люди – иногда они понимают, что перед ними созданная на компьютере шутка и просто хотят поделиться ею с друзьями. Иногда действительно верят в изображенное на фейковых кадрах и стремятся предупредить близких. Важно отметить, что обе ситуации равноценно плохи.
Даже если первый человек в этой цепочке пересылаемых сообщений и не имеет дурных намерений, и прекрасно осознает, что перед ним фейк и шутка, пятнадцатый человек может воспринять увиденное всерьёз. При этом именно поверивший человек станет наиболее активно распространять контент и убеждать окружающих в его правдивости. Причины такого поведения довольно простые: во-первых, далеко не все знают, что контент следует подвергать проверке, прежде чем реагировать на него. Во-вторых, не все умеют проверять информацию. В-третьих, согласитесь, поверить в условную авиакатастрофу, произошедшую прямо над городом, гораздо увлекательнее, чем объяснить шокирующие кадры работой нейросетей.
— Как вы считаете, в чем феномен популярности дипфейков?
— Нейросети – это, во-первых, интересно и захватывающе, а во-вторых, в современном мире ещё и легко в использовании. Их можно использовать как развлечение или, к примеру, как инструмент в работе дизайнеров. Думаю, хорошим примером здесь может послужить недавнее появление Midjourney и то, как многие ринулись создавать картинки с помощью этого искусственного интеллекта. Только вот кто-то создавал изображения котиков, а кто-то рисовал сцены ареста известных людей, выдавая их за реальные снимки. То есть, нейросети можно применить и в качестве простого способа убедить людей в правдивости той или иной конспирологической теории.
Именно по этой причине можно найти «фотографии» ледяной стены, окружающей плоскую Землю, «исторические снимки» великанов, гуляющих по городам и прочие противоречащие здравому смыслу изображения. Если подытожить, то популярность дипфейков объясняется тем, что создавать их довольно увлекательно и просто, только вот цели у их создателей могут быть совершенно разными.
— Спасибо за интервью!