В нашем обществе продолжается борьба за то, чтобы контролировать повествование, влиять на поток информации и тем самым влиять на то, что люди думают и как они себя ведут. В этом нет ничего нового, но механизмы контроля над повествованием развиваются по мере развития наших коммуникационных технологий. Последним дополнением к этой технологии является AIs large language model.
Конечно же, в центре внимания этого конкурса были средства массовой информации. Правые постоянно жалуются на “либеральный уклон” в средствах массовой информации, а левые – на рост популярности правых СМИ, которые, по их мнению, являются предвзятыми и радикализирующими. Культурные войны сосредоточены главным образом на школах, потому что в этих школах учат не только фактам и знаниям, но и передают ценности нашего общества. Левые считают, что DEI (разнообразие, равенство и инклюзивность) способствует социальной справедливости, в то время как правые считают, что это промывает мозги следующему поколению либеральной пропагандой. Это чрезмерное упрощение, но такова основная динамика. Даже индустрия стала мишенью культурных войн – какие идеи поддерживают конкретные компании? Поддерживает ли Disney геев? Какие компании используют флаги BLM или ЛГБТК?
Но все чаще “повествование” (общий культурный диалог) выходит из-под контроля средств массовой информации, системы образования или маркетинговых кампаний. Все это контролируется социальными сетями. Вот почему, когда сила социальных сетей стала очевидной, многие люди запаниковали. Внезапно стало казаться, что мы передали контроль над повествованием нескольким технологическим компаниям, которые, очевидно, решили, что разрушение демократии – это цена, которую они готовы заплатить за увеличение количества кликов. Сейчас мы живем в мире, где алгоритмы YouTube могут разрушать жизни и отношения.
Мы еще не перестаем паниковать по поводу влияния социальных сетей и технологических гигантов, которые их контролируют, когда в игру вступает другой игрок – искусственный интеллект, чат-боты и обширные языковые модели, которые ими управляют. Это расширение инфраструктуры социальных сетей, но этого технологического прогресса достаточно, чтобы стать прорывным. Проблема заключается в том, что, формируя поток информации для масс, платформы социальных сетей и искусственный интеллект могут оказывать значительное влияние на повествование, достаточное для создания популистских движений, изменения результатов выборов, создания или уничтожения брендов.
Кажется вероятным, что мы все чаще будем передавать контроль над потоком информации искусственному интеллекту. Теперь вместо поиска информации в Google вы можете общаться с помощью Chat GPT. За кулисами все еще ведется поиск информации в Интернете, но интерфейс радикально отличается. Я много раз описывал и обсуждал здесь, как легко обмануть человеческий мозг. В нашем мозге существуют эволюционные схемы, которые формируют наше восприятие реальности и позволяют нам принимать определенные решения о том, как это сделать. Одно из подмножеств этих цепей предназначено для определения того, обладает ли что-то в мире активностью (человек это или просто вещь), и как только алгоритм управления определяет, что что-то является активностью, он подключается к эмоциональным центрам нашего мозга. Затем мы начинаем относиться к этому очевидному агенту как к личности. Это распространяется на мультфильмы, цифровые объекты и даже абстрактные фигуры. Физическая форма или ее отсутствие, по-видимому, не имеет значения, поскольку не является частью алгоритма агентства.
Становится все более очевидным, что люди реагируют на даже наполовину приличного чат-бота так, как если бы этот чат-бот был человеком. Таким образом, теперь, когда мы взаимодействуем с “Интернетом” в поисках информации, мы, возможно, не просто ищем веб–сайты, а разговариваем с существом, которое может казаться дружелюбным, понимающим и авторитетным. Даже если мы полностью осознаем, что это всего лишь искусственный интеллект, мы эмоционально влюбляемся в него. Просто так устроен наш мозг.
Недавнее исследование демонстрирует скрытую силу, которой могут обладать такие чат-боты. Они попросили испытуемых поговорить с помощью ChatGPT-3 о black lives matter (BLM) и изменении климата, но не дали им никаких других инструкций. Они также проанализировали отношение испытуемых к этим темам до и после беседы. Те, кто негативно отозвался о BLM или изменении климата, оценили свой опыт на полбалла ниже по пятибалльной шкале (что существенно), поэтому они были недовольны, когда ИИ говорил им то, с чем они не были согласны. Но, что более важно, после этого взаимодействия их отношение изменилось на 6% в сторону принятия изменения климата и движения BLM. Из этого исследования мы не знаем, является ли этот эффект длительным и достаточно ли его для того, чтобы повлиять на поведение, но, по крайней мере, на какое-то время ChatGPT немного сдвинул стрелку. Это доказательство концепции.
Итак, вопрос в том, кто контролирует этих крупных чат–ботов с ИИ на основе языковой модели, которых мы быстро превращаем в хранителей информации в Интернете?
Один из подходов заключается в том, чтобы сделать так, чтобы их никто не контролировал (насколько это возможно). Благодаря прозрачности, регулированию и добровольным стандартам крупные технологические компании могут стараться, насколько это возможно, не вмешиваться в ситуацию и, по сути, “позволять фишкам падать там, где они могут”. Но это проблема, и первые признаки того, что такой подход, скорее всего, не сработает. Проблема в том, что даже если они стараются не влиять на поведение этих ИИ, они не могут не оказывать на них большого влияния, принимая решения о том, как их программировать и обучать. Нейтрального подхода не существует. Каждое решение оказывает большое влияние, и они должны делать выбор. Что они считают приоритетным.
Если, например, они ставят во главу угла удобство работы с пользователем, что ж, как мы видим из этого исследования, один из способов улучшить качество работы с пользователем – это говорить людям то, что они хотят услышать, а не то, что ИИ считает правдой. Насколько ИИ учитывает то, что он говорит? Насколько авторитетно это должно звучать? Насколько тщательно компания должна подбирать источники информации, которую она предоставляет? И как она оценивает различные источники, которые использует? Кроме того, мы знаем, что эти приложения с искусственным интеллектом могут “галлюцинировать” – просто выдумывать ложную информацию. Как мы можем это предотвратить и в какой степени (и каким образом) встроить процессы проверки фактов в искусственный интеллект?
Все это сложные вопросы, даже для технологической компании, действующей добросовестно и из лучших побуждений. Но, конечно, есть влиятельные игроки, которые не стали бы действовать добросовестно. Уже сейчас существует глубокая обеспокоенность по поводу роста популярности Tik Tok и способности Китая контролировать поток информации через это приложение в пользу прокитайских новостей и мнений. Сколько времени пройдет, прежде чем ChatGPT обвинят в либеральном уклоне, а ConservaGPT будет создан для борьбы с этим (точно так же, как Conservapedia или Truth Social)?
Нарративные войны продолжаются, но, похоже, они все больше концентрируются на все меньшем количестве источников информации. Это, я думаю, и есть реальный риск. И лучшим решением может быть антимонопольный подход – убедитесь, что существует множество вариантов, чтобы ни один из них или несколько вариантов не доминировали.