Информационные технологии, такие как искусственный интеллект и блокчейн, развиваются стремительно, а усилия по борьбе с дезинформацией отстают от технического прогресса, предупреждают в Foreign Policy Крис Месероль и Алина Полякова. The Insider предлагает полный перевод статьи.
Российская дезинформация стала проблемой для европейских правительств. В последние два года в ходе организованных Кремлем кампаний распространялись в числе прочего ложные слухи о том, что президента Франции Эммануэля Макрона поддерживает «голубое лобби», выдуманная история о немецкой девочке российского происхождения, изнасилованной арабами-мигрантами, и целая серия конспирологических теорий, связанных с референдумом о независимости Каталонии.
Европа наконец-то взялась за дело. В январе в Германии вступил в силу закон о мерах в отношении соцсетей, призванный ограничить распространение фейковых новостей и разжигание ненависти в интернете. Следуя примеру Германии, Франция и Испания тоже рассматривают проекты подобных законов. Что еще важнее, в апреле Евросоюз объявил о новой стратегии борьбы с дезинформацией в сети. План Евросоюза концентрируется на нескольких направлениях: распространении медиаграмотности, финансировании внешних служб проверки фактов, подталкивании Facebook и других соцсетей к тому, чтобы они выделяли среди прочих и особо подчеркивали новости, исходящие из надежных проверенных СМИ. Хотя сам этот план не стал официальным предписанием, чиновники ЕС не стесняются намекать, что это может произойти в будущем. Разумеется, когда глава Facebook Марк Цукерберг на прошлой неделе выступал на слушаниях в Европарламенте и попытался уклониться от вопросов парламентариев о фейковых новостях и экстремистских текстах, те напомнили ему о своей законодательной власти.
Недавние действия европейцев — важные первые шаги. Но пока все принятые меры недостаточны. Проблема в том, что технологии идут вперед с такой скоростью, что государственная политика за ними не поспевает. Меры ЕС все еще рассчитаны на противостояние вчерашней дезинформации, а не завтрашней. Чтобы не отставать, политики в Европе и США должны сконцентрироваться на будущей волне подрывных технологий. Дезинформационные технологии следующего поколения, основанные на искусственном интеллекте и децентрализованных компьютерных сетях, будут еще более хитроумными, а распознать механизмы распространения фейков станет еще труднее.
Технологии глубокого обучения и генеративно-состязательные сети позволяют подделывать изображения и видео так качественно, что трудно отличить обработанные файлы от оригинальных.
Чтобы разработать стратегию, которая окажется эффективной в близком будущем, законодателям нужно обратить особое внимание на четыре фактора, несущих угрозу: демократизацию искусственного интеллекта, эволюцию соцсетей, развитие децентрализованных сетевых приложений и «дезинформационный тыл».Благодаря сбору большего количества данных, улучшению алгоритмов и специального оборудования, в ближайшие годы во всем мире частные лица будут получать все больший доступ к новейшим версиям искусственного интеллекта. Эта демократизация обещает грандиозные возможности во многих сферах — от здравоохранения до транспорта.
Но так же, как в случае с любой технологией двойного назначения, распространение искусственного интеллекта создает и значительные риски. Помимо прочего, доступнее станет создание фальшивых печатных, аудио- и видеоматериалов. Хотя компьютеры давно уже позволяют манипулировать цифровым контентом, в прошлом такие манипуляции почти всегда можно было распознать: фальшивую фотографию выдает разное освещение ее фрагментов, в сфальсифицированной речи невозможно добиться точных интонаций. Но технологии глубокого обучения и генеративно-состязательные сети позволяют подделывать изображения и видео так качественно, что трудно отличить обработанные файлы от оригинальных. И с помощью таких приложений, как FakeApp и Lyrebird, эти так называемые «глубокие фейки» теперь может создавать любой, у кого есть компьютер или смартфон. В начале этого года в Twitter и на Pornhub стремительно приобрел популярность инструмент, с помощью которого можно легко подменять лица в видеороликах и создавать фейковое порно с участием знаменитостей.
«Глубокие фейки» и доступность дезинформации станут вызовом, которому государства и гражданское общество должны будут эффективно противостоять. Так как алгоритмы, с помощью которых создаются фейки, постоянно совершенствуются и все лучше создают иллюзию реальности, их нельзя с легкостью обнаружить при помощи других алгоритмов; так, в случае с генеративно-состязательными сетями алгоритм успешно обманывает сам себя. Чтобы справиться с ростом доступности дезинформационных технологий, государства, гражданское общество и технологический сектор не могут полагаться на одни только алгоритмы, нужно вложиться в создание новых моделей социальной верификации.
Пока вызревают искусственный интеллект и другие технологии будущего, в создании и распространении онлайн-информации огромную роль продолжают играть старые платформы. Для примера сравним, как сейчас распространяется дезинформация в Google, Facebook и Twitter.
Развивающиеся технологии манипулирования с помощью оптимизации поисковых машин привели к появлению сервисов, предлагающих клиентам повышение их рейтингов в Google. И хотя Google в основном успешно отражает попытки манипулировать его алгоритмами, постоянно выпуская обновления, манипуляторы тоже становятся все сообразительнее, и нужный им контент, в том числе дезинформация, попадает в первые строчки результатов поиска.
Безопасность и децентрализация, которые дают распределенные реестры, будет благом для поборников приватности и защитников прав человека. Но это будет и подарок для злонамеренных субъектов.
К примеру, сообщения RT и Sputnik — российских государственных пропагандистских СМИ — появлялись на первой странице результатов поиска в Google после покушения на Сергея и Юлию Скрипалей в марте и химической атаки в Сирии в апреле. У YouTube, принадлежащего Google, тоже есть алгоритм, который выводит на первые строки результатов поиска прежде всего те материалы, которые смотрит больше всего пользователей, и ключевой параметр здесь — затрачиваемое ими время. С помощью этого алгоритма на верхние строчки удается выводить ложную, ненадежную или экстремистскую информацию, а из-за этого пользователи просматривают такие материалы чаще и воспринимают как более достоверные. Доходы манипуляторов оценивают в миллиарды долларов.
В Facebook дезинформация попадает одним из двух путей: через контент, которым делятся пользователи, и через платную рекламу. Компания пытается препятствовать этому на обоих направлениях, но пока безрезультатно. Самая громкая история: придумали специальный знак, которым помечают спорные материалы, но обнаружилось, что он скорее привлекает внимание пользователей к публикациям. Менее известно, что в Канаде компания проводит эксперимент по увеличению прозрачности платных рекламных объявлений: все объявления становятся доступны для проверки происхождения, в том числе и те, которые ориентированы на небольшие группы пользователей. Но и на этом пути есть свои ограничения: спонсоры объявлений часто замаскированы, чтобы найти их, пользователям требуется много времени, а специально созданный архив объявлений — не постоянная база данных, там показаны только активные объявления. Усилия, предпринимаемые Facebook, мало что дадут в будущем, в котором иностранные субъекты смогут по-прежнему пользоваться своими службами генерирования новостей для распространения дезинформации, в том числе «глубоких фейков», специально созданных в расчете на конкретных индивидуальных пользователей или группы.
Хотя Twitter принял меры для борьбы с распространением троллей и ботов на его платформе, он остается глубоко уязвимым для дезинформационных кампаний, так как аккаунты его пользователей не верифицируются, а программный интерфейс по-прежнему позволяет создавать и распространять на платформе фейковый контент. Даже если Twitter предпримет дальнейшие шаги по борьбе с такими злоупотреблениями, его алгоритмы обнаружения можно использовать против него, так же, как и в случае с поисковыми алгоритмами Google. Без фундаментальных изменений интерфейса и принципов взаимодействия с пользователем Twitter будет по-прежнему битком набит дезинформацией.
Красноречивый пример: в апреле, когда американские военные нанесли удар по сирийским объектам, где производилось и хранилось химическое оружие, — а это было уже спустя значительное время после принятых администрацией Twitter мер, — Пентагон зафиксировал значительный всплеск российской дезинформации в первые же часы после атаки. Аккаунты, с которых распространялись твиты, казались легитимными, и не было способов доказать, что они дезинформационные.
Технологии блокчейна и прочих распределенных реестров известны в основном как база, обеспечивающая существование криптовалют, таких как биткойн и эфир. Но, возможно, еще важнее то, что они могут изменить работу всего интернета. По мере того, как будет все больше децентрализованных приложений, сеть все больше будет зависеть от сервисов и протоколов, в основе своей рассчитанных на сопротивление попыткам централизованного контроля, какие предпринимают Facebook и другие. К примеру, уже сейчас пользователи могут смотреть видео на DTube вместо YouTube, пользоваться браузером Blockstack вместо Safari, хранить свои файлы при помощи одноранговой сети IPFS вместо Dropbox или Google Docs. Разумеется, экосистема децентрализованных приложений — пока лишь ниша, которой потребуется время, чтобы окончательно созреть и добиться устойчивости. Но со временем, после поправок, которые будут вноситься в базовую архитектуру сети, технологии распределенных реестров обещают сделать сеть одновременно более безопасной и неподконтрольной крупным корпорациям и государствам.
Когда (и если) онлайновая жизнь переместится в распределенные реестры, безопасность и децентрализация, которые они дают, будет благом для поборников приватности и защитников прав человека. Но это будет и подарок для злонамеренных субъектов. В большинство сервисов встроена анонимность и криптографическая защита ключей, из-за чего трудно проследить связь аккаунтов с реальными лицами или организациями. Более того, информацию, введенную в децентрализованное приложение, будет практически невозможно удалить. К примеру, в протоколе IPFS вообще нет никакого метода удаления — пользователи могут только добавлять контент, но не стирать его.
Децентрализованные приложения станут беспрецедентным вызовом для государств, гражданского общества и частных лиц — существующие методы ответа на дезинформационные кампании и борьбы с ними станут неприменимы. Сейчас государство или гражданское общество, если оно, к примеру, хочет удалить злонамеренного пользователя или создающий проблемы контент из Twitter, может в конечном счете обратиться к главе компании Джеку Дорси, но в случае с децентрализованными приложениями обращаться будет не к кому. Если бы «манчестерский взрывник» <Салман Абеди, террорист-самоубийца, устроивший взрыв на стадионе Manchester Arena 22 мая 2017 года. — The Insider> нашел инструкции по изготовлению бомбы в децентрализованном приложении, а не в YouTube, непонятно, к кому власти могли бы обратиться, чтобы заблокировать эту информацию.
Усилившееся в последние три года внимание к российской дезинформационной деятельности дает толчок новым исследованиям и работе все большего количества некоммерческих организаций, государственных органов, журналистов и активистов. Пока они занимаются в основном документированием механизмов и субъектов, участвующих в дезинформационных кампаниях, — отслеживанием сетей ботов, идентификацией аккаунтов троллей, мониторингом медиа, прослеживанием путей распространения фейкового контента. В этом же поле лежат и усилия государств по осуществлению политики защиты данных и конфиденциальности — такие как директива ЕС об общей защите данных и законопроекты, вводящие большую прозрачность и подотчетность в рекламной сфере в интернете.
ЕС и США должны выделить значительные средства на исследования на стыке искусственного интеллекта и информационных войн.
Эти усилия, безусловно, ценны тем, что повышают осведомленность общества и политиков, но они в основном концентрируются на конечном продукте, то есть контенте, и редко касаются глубинной инфраструктуры и рекламных рынков, с помощью которых проводят дезинформационные кампании. Для этого нужно глубоко проникнуть в «тыл» дезинформации: иными словами, алгоритмы и структуры, — рынок онлайн-рекламы, рынок манипуляций поисковыми машинами, систему информационных брокеров, — стоящие за конечным продуктом. Рост автоматизации в сочетании с обучением машин тоже изменят это пространство.
Чтобы оказаться впереди этих приближающихся угроз, Европа и США должны рассмотреть некоторые политические ответы.
Прежде всего, ЕС и США должны выделить значительные средства на исследования на стыке искусственного интеллекта и информационных войн. В апреле Еврокомиссия решила к 2020 году затратить по меньшей мере €20 млрд на исследования в области искусственного интеллекта — прежде всего в медицинском, сельскохозяйственном и транспортном секторах. Но никакие средства из этого пакета не предназначены для специфических исследований, связанных с дезинформацией. В то же время нынешние европейские инициативы по борьбе с дезинформацией ставят во главу угла просвещение и проверку фактов, упуская из виду искусственный интеллект и другие новые технологии.
Пока технологические исследования и борьба с дезинформацией движутся параллельными, не соединяющимися друг с другом путями, вряд ли возможно оказаться впереди надвигающейся угрозы. В США правительство не решается сделать шаг и запустить технологические исследования, в то время как компании Кремниевой долины ведут инновационную работу почти неконтролируемо. Администрация Обамы выпустила в 2016 году отчет о будущем искусственного интеллекта, но не выделила фондов, а администрация Трампа еще не определилась со своей стратегией. То и дело обнаруживаются новые случаи российских манипуляций цифровыми платформами, и становится все более ясно, что государствам необходимо работать вместе с частным сектором, чтобы установить точки уязвимости и угрозы национальной безопасности.
Искусственный интеллект упростит и законным операторам рекламы, и злоумышленникам задачу сбора информации о мировоззрении, убеждениях и предпочтениях пользователей.
Более того, государственные структуры ЕС и США должны быстро предпринять шаги, чтобы предотвратить распространение дезинформации через децентрализованные приложения. Появление децентрализованных приложений дает политикам редкий второй шанс: десятилетие назад, когда создавались социальные сети, политики не сумели разглядеть, как их могут использовать злоумышленники. Сейчас рынок децентрализованных приложений остается нишевым, и политики могут ответить, не дожидаясь, пока он вырастет до глобальных масштабов. Государствам следовало бы сформировать новые частно-государственные партнерства, чтобы исследователи гарантировали, что следующее поколение интернета не будет удобным полем для дезинформационных кампаний. Моделью можно считать проект ООН «Технологии против терроризма», тесно сотрудничающий с малыми технологическими компаниями и помогающий им разрабатывать с нуля платформы, защищенные от использования террористами.
Наконец, законодателям нужно продолжать настаивать на реформах в сфере цифровой рекламы. Искусственный интеллект будет продолжать изменять эту отрасль, и дезинформационный контент станет более точно настроенным, ориентированным на конкретную аудиторию. Искусственный интеллект упростит и законным операторам рекламы, и злоумышленникам задачи отслеживания поведения пользователей в сети, идентификации потенциальных новых объектов кампаний, сбора информации о мировоззрении, убеждениях и предпочтениях пользователей.
В 2014 году Федеральная торговая комиссия выпустила доклад, в котором призвала к прозрачности и подотчетности в сфере деятельности информационных брокеров. В частности, Конгресс призвали рассмотреть закон, который прольет свет на работу таких фирм, предоставив частным лицам доступ к информации о том, как собирают и используют в сети их данные. Очень полезна директива ЕС о защите данных, так как она дает пользователям контроль над их данными и ограничивает использование персональной информации соцсетями для узконаправленной рекламы. Facebook экспериментирует с блокированием иностранной рекламы. Но все же индустрия цифровой рекламы остается для политиков «черным ящиком», и можно сделать намного больше, чтобы ограничить извлечение данных и отрегулировать политическую рекламу в интернете.
Эффективное отслеживание и дифференцированный подход к каждой из областей — задача непростая. Но тем, кто определяет политику, пора начинать концентрировать внимание на этом. Если новые антидезинформационные усилия ЕС и другие подобные политические инициативы будут отставать от развивающихся технологий, они рискуют устареть еще до того, как вступят в силу.