Искусственный интеллект и фейковые новости

chick
От chick
8 Мин Чтения

Выступая перед Конгрессом, Марк Цукерберг предсказал, что алгоритмы с искусственным интеллектом, которые смогут отфильтровывать “фейковые новости”, будут доступны через 5-10 лет. В недавней редакционной статье NYT нейробиолог Гэри Маркус и специалист по информатике Эрнест Дэвис утверждают, что этот прогноз чрезмерно оптимистичен. Я думаю, что в чем-то правы обе стороны, поэтому давайте немного проанализируем их аргументы.

Фейковые новости – это популярный в последнее время термин, обозначающий преднамеренную и часто стратегическую пропаганду, маскирующуюся под реальные новости. Конечно, существует множество вариантов от строгой и честной журналистики до стопроцентной фальсификации, с большим количеством предвзятых, идеологических и просто ленивых репортажей. Это существовало всегда, но, похоже, становится все более распространенным из-за легкости распространения через социальные сети. Также участились обвинения в фейковых новостях, как в стратегии игнорирования любых нежелательных или неудобных новостей.

Очевидно, что это глубокая социальная проблема, которую не решить никаким компьютерным алгоритмом. Я бы сказал, что единственным реальным решением является воспитание хорошо образованного электората, обладающего навыками критического мышления, чтобы отличать реальные новости от фальшивых. Это стоящая и долгосрочная цель, но даже в случае успеха всегда будет существовать проблема с фейковыми новостями, независимо от способа их распространения.

Реальный контекст здесь заключается в роли социальных сетей в распространении фейковых новостей. Цукерберг, создатель Facebook, участвует в этом проекте потому, что Facebook и другие платформы социальных сетей стали основным источником новостей для многих людей. Кроме того, они представляют собой новую модель, позволяющую людям получать новости, которые они хотят.

Традиционная модель заключается в создании уважаемых новостных агентств, которые имеют репутацию качественных и проводят жесткую редакционную политику, которая фильтрует новости. Затем люди обращаются к новостным агентствам, которые они уважают, и получают все новости, которые им поступают, возможно, разделенные на интересующие их разделы. Но даже эта модель всегда была испорчена идеологически предвзятой редакционной политикой и стремлением к сенсациям. Вы можете привлечь к себе внимание не только заслуженным уважением, предоставляя качественные материалы, но и сенсационными заголовками или придерживаясь уже существующих взглядов на мир.

В прошлые десятилетия мы осуждали резкое падение стандартов дневного телевидения, рост популярности таблоидов и распространение “информационно-развлекательных программ”. То, что мы имеем сейчас, принципиально не отличается – просто продолжение этих тенденций и появление новой платформы в социальных сетях.

Но в социальных сетях есть нечто принципиально новое – они в значительной степени заменили редакторские фильтры на компьютерные алгоритмы для подготовки новостей для пользователей. Эти алгоритмы сами выбирают, какие новости будут представлены вам. Таким образом, реальный вопрос заключается не в том, должны ли эти платформы фильтровать новости (они уже есть), а в том, как это сделать? По большей части они просто дают людям то, что, по их мнению, они хотят. Это создало автоматизированные циклы обратной связи, позволяющие самым сенсационным новостям “распространяться по сети” и помещать людей в виртуальную эхо-камеру их ранее существовавших идей. Хуже того, человека, проявляющего слабый интерес к второстепенным темам, таким как теории заговора, можно завести в кроличью нору, где мнения постепенно радикализируются.

Итак, на самом деле Цукерберг говорит об изменении существующих алгоритмов, чтобы они отфильтровывали заведомо фальшивые новости, а не продвигали их, и больше ценили качество. В идеале, новостной материал, который является правдивым и справедливым, должен распространяться с помощью алгоритмов в большей степени, чем тот, который был создан специально для пропаганды общественного мнения (будь то иностранная враждебная держава, чтобы повлиять на наши выборы, или для какой-либо другой цели).

Маркус и Дэвис, по сути, утверждают, что технология программного обеспечения еще далека от того уровня, когда она может надежно отличать реальные новости от поддельных. В качестве примера они приводят довольно противоречивую новость, в которой реальные факты используются для установления причинно-следственной связи там, где таковой не существует (в том числе за счет исключения важных фактов, таких как хронология событий).

Однако я думаю, что их аргументация сводится к логическому выводу о нирване. У меня нет причин не соглашаться с их оценкой того, что ИИ не сможет распознавать тонкий обман в новостных сообщениях через 5-10 лет, но у меня также нет причин думать, что именно это утверждал Цукерберг. Между тем, что мы имеем сейчас, и сложным искусственным интеллектом, способным распознавать самые незаметные фейковые новости, существует огромная разница.

Во–первых, существует множество откровенно фейковых новостей – абсолютного дерьма, которое вирусно распространяется через Facebook и другие платформы. Даже если бы Facebook просто предотвратил быстрое распространение и монетизацию легко обнаруживаемой лжи, это было бы огромной помощью. По мере совершенствования программного обеспечения с искусственным интеллектом оно будет становиться все более надежным и выявлять все меньше и меньше откровенной лжи и обмана.

В то же время вполне вероятно, что те, кто хочет распространять пропаганду, научатся обходить алгоритмы обнаружения фейковых новостей. Это будет гонка вооружений. Но если руководствоваться историей, то преданные своему делу программисты смогут быть на шаг впереди и, по крайней мере, минимизировать распространение фейковых новостей. (Google удалось добиться этого, постоянно совершенствуя свои поисковые алгоритмы, чтобы предотвратить попытки взлома).

Более того, я не думаю, что существует какое-то одно решение для такой сложной проблемы. Обнаружение поддельных новостей с помощью искусственного интеллекта станет частью комплексного решения. В какой-то момент людям тоже придется быть в курсе. Я представляю себе систему, в которой программное обеспечение с искусственным интеллектом отфильтровывает вопиющую ложь, но это сочетается с некоторыми алгоритмами краудсорсинга (например, с тем, что использует Google) и окончательным процессом проверки человеком, где это необходимо.

Результатом также может быть полное удаление с платформы, сокращение ее распространения среди пользователей, отказ от монетизации или просто выдача предупреждений или показ рейтинга надежности. Отдельные серийные нарушители также могут быть забанены или подвергнуты серьезным ограничениям.

В то же время крупным платформам, таким как Facebook, необходимо иметь своих собственных наблюдателей с достаточной степенью прозрачности, чтобы они не злоупотребляли платформой для продвижения своих собственных скрытых целей.

Ничто из этого не обязательно будет препятствовать свободе слова или свободному обмену идеями. Во-первых, любой желающий может создать свой собственный веб-сайт и публиковать все, что захочет. Также существует множество новостных агентств, предлагающих все возможные варианты.

Но, что более важно, новости в социальных сетях уже находятся под контролем. Это не “бесплатно”, поскольку алгоритмы выбирают, какие новости распространять, исходя из определенных критериев. Реальный вопрос заключается в том, какие качества алгоритмов следует ценить больше (например, сенсационность или точность)? Отказ от помощи людям в распространении объективной лжи или явного мошенничества – это не то же самое, что цензура. Это контроль качества.

поделитесь с другом
Добавить отзыв