Проблема глубоких подделок

chick
От chick
8 Мин Чтения

Вы, наверное, уже слышали о глубоких подделках – убедительных манипуляциях с видео, которые быстро совершенствуются, становятся все лучше и проще. Прямо сейчас вы часто можете определить, когда видео подверглось манипуляциям. Человеческий глаз очень чувствителен к движениям, выражению лица и другим тонким признакам. Но находить лучшие примеры становится все труднее, и эксперты предсказывают, что в течение года большинство людей не смогут обнаружить глубокие подделки.

Как это повлияет на мир? В большинстве отчетов, которые я читаю, просто говорится, что люди больше не смогут доверять видео (мы уже не можем доверять фотографиям). Но это не отражает ситуацию. Люди, знающие, что видео можно манипулировать, на самом деле не решат проблему.

Проблема в психологии – люди могут быть настроены подсознательно и ими можно манипулировать. Допустим, например, что вы видите видео, на котором известный человек совершает ужасное преступление или говорит что-то ужасное. Даже если вы знаете, что такие видео могут быть подделаны, или слышите утверждения о том, что это видео было подделкой, изображения все равно могут оказывать эмоциональное воздействие. Это становится частью вашей подсознательной памяти об этом человеке.

Человеческая память также способствует этому эффекту. Мы лучше запоминаем утверждения, чем то, где мы их услышали (амнезия источника) или соответствуют ли они действительности (амнезия статуса истинности). Просмотр драматического видео, на котором человек совершает что-то ужасное, запомнится вам надолго и будет гораздо более ярким, чем последующая информация о судебно-медицинской экспертизе этого видео.

Кроме того, вы можете поспорить, что само существование не поддающихся обнаружению (невооруженным глазом) глубоких подделок приведет к возникновению неопределенности. Когда я недавно обсуждал этот вопрос с Джорджем Грабом, он правильно заметил, что это двоякий подход – это означает, что поддельные видео будут приняты за настоящие, но и настоящие видео могут быть отклонены как подделки – видеоверсия “поддельных новостей”. Поэтому каждый может выбрать, верить или не верить любым видеодоказательствам, основываясь на своей племенной принадлежности.

На самом деле нам не нужно строить догадки по этому поводу, потому что у нас уже есть подделки под письменные и устные сообщения. Любой может написать или распространить фейковые новости, и без независимой проверки может быть невозможно определить, верна ли информация. Таким образом, мы имеем дело с распространением дезинформации и одновременным отклонением реальной информации как поддельной. В результате каждый может жить в пузыре своего собственного племенного повествования. У всех сторон нет единой реальности. Видео-подделки только усугубят и без того существующую ситуацию.

Однако видео-подделки могут значительно ухудшить ситуацию, поскольку видео могут оказывать более непосредственное и интуитивное воздействие. Публикация фальшивых видеороликов теоретически может привести к обвалу фондового рынка, срыву выборов или разрушению карьеры – задолго до того, как судебно-медицинская экспертиза сможет определить, является ли видео реальным или нет, а затем распространить эту информацию. И, конечно, в зависимости от ваших пристрастий, исходное видео в сравнении с более поздним анализом может иметь большее или меньшее значение в ваших репортажах.

Так что же нам делать? Я думаю, что в этой ситуации правительству, технологическим компаниям и компаниям, работающим в социальных сетях, необходимо объединиться и поработать над решениями, которые, по крайней мере, минимизируют влияние глубоких подделок. Во-первых, конечно, это разработка программного обеспечения, способного надежно обнаруживать глубокие подделки. Это уже существует, используя такие признаки, как освещение и выражение лица, чтобы определить, было ли видео изменено. Но это гонка вооружений – любой метод, разработанный для обнаружения глубоких подделок, может привести к их усовершенствованию, чтобы обойти обнаружение.

Даже если алгоритмы обнаружения будут на шаг опережать программное обеспечение deepfake, как я уже говорил выше, это не остановит потенциальных последствий выпуска эмоционально значимых (хотя и поддельных) видеороликов. Их действительно нужно останавливать в режиме реального времени. Поэтому компании разрабатывают различные подходы, например, встраивают в цифровое видеооборудование (например, в смартфоны) возможность проверки подлинности и установки штампов на видео, которые действительно созданы, а не подделаны. Социальные сети также могут использовать функцию обнаружения подделок в режиме реального времени, а затем удалять их или, по крайней мере, предотвращать их распространение.

Таким образом, технология может использовать комбинацию аутентификации и обнаружения подделок, чтобы разрешать или продвигать подлинные видео и запрещать или препятствовать распространению поддельных. На смартфонах может быть даже установлена настройка по умолчанию, которая не позволяет воспроизводить видео, которые не прошли проверку подлинности или не прошли быстрый криминалистический анализ. Если вы все еще хотите воспроизвести видео, вы можете провести более тщательный анализ. А затем, если вы все еще хотите просмотреть то, что, скорее всего, является глубокой подделкой, вы можете это сделать, но с предупреждением и водяными знаками, указывающими на то, что видео, вероятно, поддельное.

Я не думаю, что какие-либо подобные меры устранят проблему, но они могут свести ее к минимуму. Точно так же мы не можем искоренить фейковые новости или использование обвинений в фейковых новостях для опровержения реальных, но неудобных новостей. Но, конечно, никто не обязан облегчать распространение поддельных видео или помогать им в этом. Алгоритмы социальных сетей могут на законных основаниях использовать аутентификацию фотографий или видео в качестве критерия для ранжирования и продвижения. По крайней мере, предупреждение о том, что видео, скорее всего, поддельное, должно сопровождаться публикацией поддельного видео повсюду.

Основные новостные агентства также должны включать проверку в свой процесс проверки и никогда не показывать поддельные видео, даже для того, чтобы сообщать о них.

Более сложный вопрос, который, на мой взгляд, нам необходимо изучить, заключается в том, должен ли быть криминальный подход к решению проблемы. Должно ли быть незаконным сознательное размещение видео-подделок на публичном форуме? Можно обоснованно утверждать, что создание или публикация заведомо ложной информации о ком-либо является формой клеветы. Это может рассматриваться как клевета как таковая – это означает, что это автоматически считается клеветой, без необходимости доказывать вред или злой умысел. Такая концепция уже существует, например, ложное обвинение кого-либо в педофилии во многих юрисдикциях считается клеветой как таковой. Возможно, аналогичный подход следует применять к фальшивкам, учитывая их потенциальную опасность для нашей экономики, нашей демократии и отдельных людей. Это сложный вопрос, и поэтому у меня нет твердого мнения по этому поводу, но я хотел бы, чтобы ученые-юристы обсудили его.

Глубокие подделки должны быть признаны потенциальной угрозой, которую они представляют, но они также являются лишь частью более масштабной угрозы – потери опыта, поддающихся проверке фактов и общей реальности. Это всего лишь еще один шаг к миру, в котором вся информация воспринимается как равная, а общая площадь переполнена мнениями без каких-либо общих фактов, которые можно было бы использовать в качестве общей основы.

 

поделитесь с другом
Добавить отзыв