перевод
Google и Facebook не могут просто сделать так, чтобы фейковые новости исчезли
Фейковые новости – это что-то слишком большое и запутанное, чтобы с этим можно было покончить при помощи алгоритмов и редакторов. Потому что проблема в… нас.
дана бойд – исследовательница технологий и общества, Microsoft Research, Data & Society, NYU
Все больше меня разочаровывают (а часто и вызывают неприязнь) разговоры о том, что делать с так называемыми «фейковыми новостями». Я злюсь не потому, что я ворчлива и пишу это почти на десятом месяце беременности, а потому что знаю — благие намерения могут привести к неприятным последствиям. Я понимаю, почему всем хочется сделать что-то с фейками прямо сейчас — на это тратится много сил, а лежащие в основе проблемы влияют на демократию и общество. Однако всё происходящее не так уж ново. Это часть долгой и непростой истории, связанной с разнообразием социальных, экономических, культурных, технологических и политических динамик, которое нельзя свести к простым формулам. Экстренные меры, как обезболивающее, могут снять симптомы, но пока ты снимаешь симптомы, болезнь прогрессирует.

Начнем с самого популярного варианта «починки»: надо заставить Facebook и Google решить проблему. Это они должны распознавать «фейковые новости» и не распространять их. Я понимаю разочарование в способностях технологических компаний улавливать длительные социальные динамики. При этом требовать от них, чтобы они изобрели быстрое решение, просто не имеет смысла. Такой подход высвечивает три проблемы на разных уровнях:

  1. Нет общепринятого определения «фейковым новостям», хотя об этом написали десятки статей.
  2. Судя по всему, люди не отдают себе отчет, что проблема эволюционирует и способы манипуляций постоянно развиваются, а значит, решения, которые они предлагают, могут быть использованы плохими парнями.
  3. Никакие «починки» Google и Facebook ничего не сделают с теми факторами, которые влияют на культуру, и с информационными войнами, в которые впуталась Америка

Что такое «фейковые новости»?

У меня нет окончательно правильного определения «фейковых новостей», но я хочу указать на несколько взаимосвязанных образов, которые постоянно повторяются. Это выражение используют для описания любого сомнительного контента, включая намеренные и случайные искажения информации, бульварные и запугивающие заголовки, риторику ненависти и разжигания в блогах и пропаганду всех мастей (не только государственную). Я не раз наблюдала, как такие неясные термины (например, травля, онлайн-сообщество, социальные сети и тд) использовались для всевозможных политических и экономических целей. И я каждый раз убеждалась — без точного определения или чётко поставленной проблемы, единственное, что мы можем получить, поощряя разговоры об опасностях А или Б, — это зрелище.

По большому счету, я часто вижу, что «фейковые новости» используются как новый способ для проталкивания старых повесток и интересов. Так делают исследователи, которые давно критиковали власть корпораций, и так делают консервативные ученые, которые используют его для оправдания своей ненависти к массовым медиа. На десятках совещаний по «фейковым новостям» люди отчаянно пытаются найти выход, а в это время критики и активисты взывают к компаниям, чтобы они решили проблему, но при этом никто даже не пытается эту проблему определить. И поэтому можно видеть, например, как кто-то фокусируется на «точности» и «правде», а кто-то — на том, как контент создает культурные рамки.

Тем временем интернет-платформы пытаются разработать универсальную контентную политику. Я всегда удивляюсь, насколько непоследовательны люди, говорящие о том, что стоит блокировать под видом «фейковых новостей» (а я в основном разговариваю с экспертами).

Создание открытых механизмов не поможет. Когда пользователей просят докладывать о «фейковых новостях», защитники прав мужчин отмечают посты феминисток с критикой патриархата как фейковые. А тинейджеры и тролли отмечают как сомнительное практически все.

Обратиться к третьей стороне – немногим лучше. Эксперты не могут договориться даже о том, что считать разжиганием ненависти, а что — выражением протеста (protected speech, в Америке защищено Первой поправкой — прим. ред.). Я имею отношение к списку Южного центра правовой защиты бедноты SPLC, и это показывает мои политические предпочтения. (Список включает 917 групп по всей Америке, которые устраивают шествия или раздают листовки, выступая против мигрантов и бедных — прим. ред.). Но даже этот список не учитывает все группы, которые прогрессисты могут назвать группами ненависти. Просто спросите, какова позиция по блокировке бульварной прессы или ультраправых Breitbart News — вы сразу увидите конфликт.

Хотя часто в разговорах о «фейковых новостях» упор делается на широко распространенные и откровенно безумные материалы, менее прямолинейно написанные тексты не так бросаются в глаза. Ими нечасто делятся, и уж точно не для того, чтобы их опровергнуть. Эти статьи точны в фактуре, но предвзяты в подаче. Они подталкивают людей делать опасные выводы, которые не проговариваются прямым текстом в самих материалах. И в этом красота провокационной речи: заставить людей думать определенным образом, не вбивая им в голову готовую идею, а предлагая самостоятельно соединить точки. Такие материалы намного более влиятельны, чем те, в которых говорят о приземлившихся в Аризоне НЛО.

Пока мы отвлекаемся на материалы, созданные ради экономической выгоды (их чаще всего распространяют те, кто в ужасе от явных неточностей, а не те, кто согласен с автором), создаются бесчисленные возможности манипулировать людьми с помощью контента, который распознать куда сложнее. Создатели «фейковых новостей» взламывают экономику внимания: они публикуют чепуху, люди блокируют её, создатели новостей публикуют ее снова, люди снова блокируют, и это длится и длится. Вот почему «магия мемов» так впечатляет.

Всё чаще сомнительный контент основан не на тексте, а на визуальных составляющих, и из-за многообразия культурных отсылок и символов сложнее понять его и принять меры. То, в чем одни видят иронию или критику, другие могут считать воплощением или манифестацией идей. Просто понаблюдайте, как свастика используется в комиксах для разнообразных политических комментариев. То, как вы считываете эти изображения, во многом связано с вашим собственным восприятием свастики.

Сомнительные решения

На компании все больше давят, чтобы они что-то — хоть что-нибудь — сделали. Но я пока не видела заслуживающих доверие предложений относительно того, какие именно материалы нужно удалять и каким образом. Всё упирается в то, что «они» должны делать это, и всё. Существуют отличные и доступные механизмы, чтобы перекрыть нежелательным изданиям источники дохода. Хотя когда Google ограничил доступ к своей рекламной сети AdSense для сомнительных сайтов, те стали использовать другие сети. Я также поддерживаю идею бороться с «кликбейтными» заголовками: стоит подумать дважды перед тем, как репостить что-нибудь, что ты не прочитал. Но для экосистемы в целом все эти попытки остаются в пределах статистической погрешности, хоть и они и воспринимаются как большие победы.

Около десяти лет назад, будучи «этнографическим инженером» («ethnographic engineer») в компании Blogger, я часами продиралась через жалобы клиентов, случайным образом отбирала посты и комментарии, а также разрабатывала небольшие инструменты для изучения нарождающейся блогосферы и сомнительного контента. Я исследовала сеть Usenet и делала карту практик использования Твиттера — и всегда я поражалась тому, как люди манипулировали любым хорошо проработанным механизмом контроля. Например, попытки блокировать материалы, оправдывающие анорексию, породили движение «pro-ana». Поясню: когда America Online и другие сервисы блокировали упоминания анорексии, те, кто считал ее стилем жизни, ввели шифровку для обхода цензуры: они начали говорить о ком-то из друзей по имени «Ана». Попытки заблокировать определенный язык порождают новаторские методы его функционирования.

Это старые фокусы. Если вы интересуетесь технологиями, вы помните о битве за электронную почту, которая развязалась между спамерами и компаниями, и о попытках побороть спам. К огорчению многих сторонников децентрализации, то, что электронная почта сосредоточилась в руках Google, пожалуй, было эффективнее почти всех прочих мер. Поисковая оптимизация — еще одна беда экосистемы. К огорчению многих противников отслеживания пользовательской активности, именно алгоритмы «персонализации» сделали массовый таргетинг менее эффективным.

Когда речь заходит о «фейковых новостях», люди взывают к Google и Facebook, потому что в их руках монополия на онлайн-потоки информации. Поскольку централизованные системы смогли сдержать спам и SEO-оптимизацию, кажется, они смогут остановить и эту лавину. Впрочем, в прошлый раз жалобы на сомнительный контент привели к нелюбимой многими «персонализации».

Даже если мы хотим сдерживать вопиющую ложь, распространяемую для экономической выгоды, мы сталкиваемся с трудностями. Многие забывают, что настройка механизмов борьбы со спамом/SEO заняла десятилетие (десятилетия). И хотя эти алгоритмы до сих пор далеки от идеала, они облегчают нам жизнь — особенно пользователям Gmail и продвинутым пользователям интернет-поиска в Америке. Но фейковые новости это международная проблема и у нас нет разумных механизмов, чтобы отличить реальное сообщение от фейка. Добро пожаловать в игру «Убей крота» с высокими ставками.

Вообразите, что вы Facebook, и попробуйте написать эффективную контентную политику. Потом поразмышляйте, как вы будете выявлять сомнительный контент. Потом попробуйте представить, как ваши запреты будут обходить пользователи. Я придумывала такие своды правил для Blogger и LiveJournal, и это была адски сложная работа. Не передать словами, как часто я видела изображения, где было почти невозможно провести границу между порнографией и кормлением грудью. Эти границы не столь очевидны, как кажется.

Я не хочу позволить компаниям отсидеться в кустах, они несут ответственность за свои экосистемы и сервисы. Но они не смогут найти идеальное решение, которое от них ждут. И, я думаю, критики, которые просят их об этом, по-настоящему наивны, если они считают, что это легкая задача.

Посмотрим глубже

Многие думают, будто можно сделать надежную программу, точно определяющую сомнительный контент, внедрить её, и оп! — дело в шляпе. Однако те, кто пытался бороться с нетерпимостью в интернете, знают, что такие экстренные меры не работают. Мы можем спрятать злобные посты на какое-то время, но ненависть будет расти, если не работать с ее источником. Нужно, чтобы все — включая компании — сосредоточились на борьбе с теми процессами, которые усилились при помощи технологии.

Исследователи и журналисты много говорят о том, что нетерпимость связана со страхом, нестабильностью, неравенством и т.д. Если коротко, у нас есть культурная проблема — разрыв в ценностях и отношениях. Наши медиа, сервисы и политики могут быть использованы для того, чтобы ещё увеличить поляризацию. Их используют разные акторы со своими экономическими, идеологическими и личными задачами. Иногда для развлечения. А иногда цели могут быть более тревожащими.

Многие технари, создатели сайтов и онлайн-сервисов, надеялись, что их инструменты будут соединять людей и налаживать связи. Но этого не происходит. Впрочем, это касается не только технологий. Миссия журналистов тоже никак не представлена в современном мире. Черт, мы даже от идеалов рыночного капитализма далеки! Да, даже капитализм толком не реализован в том коррумпированном состоянии мира, в котором мы находимся, и где финансы могут из жадности манипулировать бизнесом (да и всем остальным).

Часть головоломных трудностей заключается в том, что мы все попали в ловушку более крупной системы, которая испорчена. Конечно, есть отдельные действующие лица, которые особо жадны и злонамеренны во своих устремлениях, однако банальность зла — шире. И как мы можем направить наш гнев, разочарование и энергию, чтобы повлиять на ситуацию, и чтобы это было настоящее влияние, а не очередная «заплатка»? Как мы можем способствовать восстановлению социальной инфраструктуры? Более того, как мы можем уйти от поляризации?

По моему мнению, мы должны сделать приоритетом простой проектный императив: развивать социальные, технические, экономические и политические структуры, которые позволяют людям понимать, признавать и соединять между собой различные точки зрения. Слишком много технологий и медиа разрабатывались в расчёте на то, что эту проблему автоматически решит доступность информации. Этого не случилось. Так давайте сосредоточимся на этой цели и посмотрим, как можно её достичь. Представьте, если бы спонсоры и инвесторы требовали создавать сервисы и проекты, соединяющие людей. Как перестать думать о сиюминутных потребностях и начать строить социальную инфраструктуру для будущего? Не уверена, что у нас есть на это силы, но мне кажется, это важно.

Культурные и социальные вопросы, которые вышли на поверхность благодаря «фейковым новостям», очень сложны. Они заставляют нас бороться с тем, как люди конструируют знание и идеи, взаимодействуют друг с другом и создают общество, и как на это влияют различия в убеждениях и взглядах. Это не только проблема скриптов и алгоритмов. Если мы хотим придумать техническое решение для сложных социально-технических проблем, было бы неправильно перекладывать эту работу на IT-компании. Мы должны действовать вместе и формировать группы людей с разными политическими и социальными взглядами, ведь мы согласны, что это — важная проблема. В противном случае, все, на что мы будем способны — вести культурную войну, в которой компании выступают в качестве посредника и рефери. А это звучит ужасно.
Прим. пер.

дана бойд использует слово folks, обозначая им неопределенно большое количество компаний и агентов, которые хотят найти решение для проблемы fake news, и слова they и actors, когда она говорит о создателях таких новостей. Мы думаем, это потому, что автор далек от желания обвинить кого-то конкретного в проблеме fake news или возложить на кого-то ответственность по борьбе с ними. Поэтому она использует такие неопределенные обозначения и не даёт им оценок.

Оригинал статьи.