Источник: www.fondsk.ru
О технологиях создания провокационной пропаганды.
Американские СМИ с некоторых пор, как заводные, пишут о «российском вмешательстве в американские выборы через Интернет». Крупные международные и специализированные издания методично повторяют легенды о «русских троллях» и «хакерах из ГРУ». А появляющиеся «доказательства» доказывают нечто обратное.
Проект Google показал, как за 100 долларов можно создать иллюзию того, что некая российская компания пыталась влиять на общественное мнение в США. Для показа были куплены мобильный телефон и несколько SIM-карт в Панаме, выбраны типично русские имя и фамилия, зарегистрирован аккаунт на Yandex, с помощью программы NordVPN указан IP-адрес в Санкт-Петербурге, далее была проведена регистрация в AdWords, при указании определённой юридической фирмы сделана оплата рекламы и в Интернет был заброшен политический контент, который можно квалифицировать как провокационный.
Всё это делали граждане США из компании Google, о чём они и рассказали. То же самое могут делать сотрудники АНБ, ЦРУ, любители-русофобы, знакомые с хакерскими методиками. Чувство здравого смысла подсказывает, что для создания видимости вмешательства России всё так и делалось.
Другой пример – создание фейковой пропаганды. Эту технологию американские военные с помощью подрядчиков отработали в начале 2000-х годов в Ираке.
Британская неправительственная организация "Бюро журналистских расследований" утверждает, что Пентагон заплатил более 500 млн. долл. британской пиар-компании Bell Pottinger за создание поддельных видеосюжетов, на которых запечатлены различные действия боевиков и террористов. Группа сотрудников этой компании была размещена вместе с американскими военными в лагере Victory в Багдаде сразу после начала оккупации в 2003 г. Бывший председатель компании лорд Тим Белл подтвердил журналистам, что компания действительно выполняла тайный подряд для американцев, детали которого не разглашаются по причине секретности. Ранее Bell Pottinger занималась продвижением имиджа Маргарет Тэтчер и помогла Консервативной партии выиграть на трёх выборах. Со стороны США этот проект курировал генерал Дэвид Петреус. Если же он не мог принять решение по какому-либо вопросу, согласование проводилось в более высоких инстанциях в Вашингтоне.
Самым скандальным эпизодом в этой истории было создание пропагандистских роликов, сделанных британской компанией от лица террористической группировки «Аль-Каида» [запрещена в России]. Когда материал был готов и оцифрован в нужном формате, ролики были записаны на диски и переданы морским пехотинцам, которые во время облав и рейдов подбрасывали диски в дома иракцев. На дисках был записан код, по которому можно было отслеживать местоположение компьютера, на котором ставили этот диск. Впоследствии обнаружилось, что поддельные клипы смотрели не только в Ираке, но также в Иране, Сирии и даже в Соединённых Штатах!
А поскольку за последние годы технологии значительно шагнули вперёд, теперь заговорили о возможности применения искусственного интеллекта в подобных проектах – будь то политическая манипуляция на выборах или дезинформационные вбросы. Несколько таких скандалов уже произошли. Один из них – использование данных из профилей Facebook, которые компания Cambridge Analytica использовала для таргетирования избирателей во время выборов президента США.
«Вашингтон пост» отмечает: «В дальнейшем будут выбирать не только проблемы и лозунги, подходящие для потенциального кандидата, но и самого кандидата... Приложения по базам данных с информацией по образованию, родословной и профессиональным навыкам охватывают конкретные сегменты электората… А в будущем направления кампании среди различных блоков избирателей можно будет сопоставить с родословными, генетическими и медицинскими данными, чтобы… выявить методы подбора и оценки аудитории в пользу или против определенной повестки дня».
Искусственный интеллект может также использоваться как бот, заменяя человека и даже имитируя беседу. Такие алгоритмы, как Quill, Wordsmith и Heliograf, используются для преобразования таблиц данных в текстовый документ и даже для написания новостей на различную тематику.
По мнению американских военных, инструменты информационных операций на основе искусственного интеллекта могут сопереживать аудитории, что-то высказывать по мере необходимости, изменять восприятие. Будущие информационные системы смогут индивидуально контролировать и влиять на десятки тысяч людей одновременно.
Летом 2018 года агентство DARPA (Управление перспективных исследовательских проектов Министерства обороны США) запустило проект, который пытается определить, можно ли будет в ближайшее время отличить поддельное видео от настоящего. При этом подделка 1) выглядит как настоящий продукт; 2) создана при помощи искусственного интеллекта. Анализ таких файлов также должен проводиться при помощи искусственного интеллекта.
Видео традиционно оказывает большее влияние на аудиторию, оно выглядит более убедительно, чем текст, его труднее подделать, чем фото. Современные технологии легко справляются с этим. В апреле 2018 года было обнародовано видео, получившее название ObamaPeele, – согласно именам исполнителей. На видео Барак Обама произносит довольно странную речь; в действительности текст зачитывал актёр, который не показан. А специальная программа обработала игру актёра так, что мимика Обамы полностью соответствует тексту. В Вашингтонском университете специалисты по компьютерным технологиям проделали подобный эксперимент с одним из выступлений Барака Обамы 2017 года и выложили результаты в открытый доступ с подробным описанием того, как это работает.
В проекте DARPA применяются так называемые глубокие фейки – видеоизображения, где лицо одного человека «пришивается» к телу другого человека. Такая технология уже использовалась для создания нескольких фальсифицированных порно со знаменитостями. Метод может быть также применён для создания клипа политика, говорящего или делающего что-то возмутительное и неприемлемое.
Специалисты DARPA особенно обеспокоены новой технологией искусственного интеллекта, которая может создавать фейки, практически не определяемые автоматическим методом. Так называемые генеративные состязательные сети, или GAN (generative adversarial networks) позволяют создавать потрясающе реалистичные мнимые образы. Обеспокоенность DARPA связана с возможностью применения этой технологии кем-то ещё. Потеряв монополию в создании, верификации и распространении фейков, США сами столкнутся с проблемами, которые создали другим.
И пока военные ломают голову, как обеспечить за собой первенство в специфической гонке информационных вооружений, их гражданские коллеги уже прозвали это направление научно-прикладных разработок информационным апокалипсисом и дезинформацией на стероидах.
Подпишитесь на рассылку
Подборка материалов с сайта и ТВ-эфиров.
Можно отписаться в любой момент.
Комментарии