Поддельное видео может полностью подорвать ваше доверие к новостям

Поддельное видео может полностью подорвать ваше доверие к новостям
Поддельное видео может полностью подорвать ваше доверие к новостям

Цифровые видеопортреты уже вытесняют дипфейки за жуткое культурное доминирование.

Image
Image

Вы сейчас смотрите на экран. Представьте, если хотите, в правом углу всплывает видео любимого человека, звонок FaceTime или Skype. Появляется их изображение, и вы видите их знакомое лицо. Мгновенно ваше сердце начинает биться чаще, потому что вы знаете, что это они.

Но они не выглядят счастливыми. Они выглядят грустными. Говорят, у них проблемы, и они хотят, чтобы вы перевели им немного денег. Они говорят, что это нужно прямо сейчас, поэтому вы берете свою кредитную карту и отправляете денежный перевод в Western Union. Потом улыбаются, спасибо, звонок заканчивается. Затем вам звонит любимый человек и спрашивает, что вы хотите на ужин. Вы спрашиваете их о неприятностях, в которых они оказались. «Какие неприятности?» они говорят. А потом до вас доходит, что вы были обмануты тем, что называется дипфейком: видеоподобием, созданным для их точной имитации.

Они становятся все более и более распространенными, и технология год за годом совершенствуется в геометрической прогрессии. В 2017 году дипфейк-видео с Обамой произвело фурор, когда выяснилось, что оно было создано искусственным интеллектом. В апреле этого года актер Джордан Пил и Buzzfeed создали еще более реалистичный дипфейк, в котором Обама (озвученный Пил) называет президента Трампа «придурком». Все это было тепло завернуто в качестве предостережения от фейковых новостей.

Но это, пожалуй, не самое страшное. Видео становятся все лучше и лучше.

Deep Video Portraits, разработанная Стэнфордом, Техническим университетом Мюнхена, Университетом Бата и другими организациями, требует всего лишь одного минутного видеоклипа (или около 2000 фотографий), из которого можно сделать рисунок. создать почти неотличимое поддельное видео. Было бы совсем несложно - на самом деле - собрать пару актеров озвучивания вместе с технологией Deep Video Portrait, чтобы создать видео, в котором Дональд Трамп и/или Владимир Путин выступают за массовое истребление расы людей. Глубокие видеопортреты - гораздо более страшный старший брат дипфейков: их труднее отличить и проще сделать. Даже Майкл Золлхёфер, приглашенный профессор Стэнфорда, который помог создать Deep Video Portrait, выступает за улучшение цифровой криминалистики, как только эта технология станет более популярной:

Например, комбинация фотореалистичного синтеза изображения лица с имитацией голоса или системой голосового синтеза позволила бы генерировать вымышленный видеоконтент, который потенциально мог бы использоваться для клеветы на людей или распространять так называемые «фейковые новости». В настоящее время модифицированные видео по-прежнему содержат много артефактов, что позволяет легко обнаружить большинство подделок. Трудно предсказать, в какой момент времени такие «фальшивые» видео будут неотличимы от реального контента для нашего человеческого глаза.

Недавно представленные системы демонстрируют необходимость сложных алгоритмов обнаружения мошенничества и водяных знаков. Мы считаем, что области цифровой криминалистики будет уделяться большое внимание в будущем. Мы считаем, что увеличение финансирования исследовательских проектов, направленных на обнаружение подделок, является первым шагом к решению этих проблем. По моему личному мнению, наиболее важным является то, что широкая общественность должна знать о возможностях современных технологий для создания и редактирования видео. Это позволит им более критически относиться к видеоконтенту, который они просматривают каждый день, особенно если нет доказательств происхождения.

Итак, как видите, даже люди, создавшие эту технологию, осознают ее опасность. Полный текст статьи находится здесь, если вы хотите прочитать его целиком.

И я ненавижу указывать на это или даже верить в это, но дипфейки уже свирепствуют в порнографии. Целые веб-сайты посвящены поддельной порнографии знаменитостей (все это легко найти в Google, но это абсолютно 100% NSFW), и результаты действительно невероятно точны. Опять же, легко предположить, что это можно было сделать с чьей-либо супругой и использовать для шантажа. Не то чтобы я даю кому-то идеи, которые еще не реализованы; даже Pornhub заблокировал дипфейки.

Что это значит для тебя? Возможно, инвестировать в лабораторию судебной экспертизы цифрового видео. И, что бы это ни стоило, возможно, стоит доверять большему количеству основных источников новостей, даже если это означает, что нужно протянуть руку через проход и покопаться в новостях из разных пузырей. Жить в либеральном пузыре? Может быть, проверить Daily Caller время от времени. Любите Фокс Ньюс? Смотрите CNN. Где-то есть золотая середина, за которую все борются. И, возможно, это звучит безумно, но маргинальные элементы гораздо меньше теряют и больше выигрывают от этих подделок.