Під час тренінгу не раз згадували роботи британського публіциста Пітера Померанцева. У статті «Чому зараз час постфактів» (Why we are post-fact) він описує, як сучасні політики стали прихильниками французької філософської школи постмодерністів та релятивізму. Ці філософи стверджували, що фактів не існує, а є лише інтерпретації.

Оксфордський словник пояснює постфакти як «обставини, за яких емоції та особисті переконання більше впливають на формування громадської думки, ніж об’єктивні факти».

Тепер, на думку пана Померанцева, реалізм приватизується, а політики нав’язують людям свою реальність. Цим користується і президент США Дональд Трамп, у промові якого може бути лише 22  відсотки правди, і влада Росії. Володимиру Путіну не треба, щоб його історія була правдивою. Йому важливо, пише Померанцев, щоб люди знали: всі інші також брешуть, а тому російські політики не відрізняються від інших і їм немає здорової альтернативи.

Надія на фактчекінг (перевірку фактів)

У світі постфактів важливим аспектом стає перевірка інформації. В Україні однією з потужних фактчекерських організацій є проект StopFake. Його команда викриває фейки Кремля й поширює спростування тринадцятьма мовами.

«В нас немає шаблонного перекладу. У кожної аудиторії є свій контекст і ментальні особливості. Італійська аудиторія і французька доволі проросійська, тому треба робити певним чином переклад, залишаючи факти, але не наражаючи на небезпеку», — розповіла заступниця головного редактора StopFake Вікторія Романюк.

Вона каже, що часто зловмисники спотворюють інформацію, вдаючись до неправдивого чи однобічного висвітлення, подаючи лише вибіркові факти, маніпулюючи в заголовках. Типи фейків: фактологічні підробки, неправдива інформація, фотофейки, відеофейк, підробні документи. Крім того, часто використовують несправжніх експертів.

Пані Вікторія радить під час фактчекінгу вимикати емоції, постійно ставити додаткові запитання до теми, не шкодувати часу й використовувати всі засоби та інструменти для перевірки одного факту.

Перевірку інформації в онлайні можна почати із сервісу Whois, який допомагає зрозуміти, хто створив сайт, коли й коли його планували закрити. У браузері Chrome можна встановити RevEye Reverse Image Search, що допоможе шукати фотографію в різних пошуковиках. Наприклад, дуже корисною може виявитися пошукова система TinEye, що дозволяє побачити зміни у вашій фотографії.

Для аналізу зображень підійде й ресурс Fotoforensics. Він покаже зміни у світлі, внесені за допомогою фотошопу. Сервіс ImgOps допоможе розібратися з метаданими фото.

У роботі з відео пані Вікторія радить використати плагін InVID (In Video Veritas), що дозволяє отримувати контекстуальну інформацію про відеоролики YouTube і Facebook, Instagram і Twitter. Інструмент фрагментує відео, розбиваючи його на ключові кадри, і з цими кадрами звертається до пошукових систем для реверсного пошуку.

Анатолій Бондаренко, експерт Texty.org.ua, нагадав поради філософа Жоржа Лакофа (George Lakoff) про необхідність подавати у спростуванні фейку так званий сендвіч: правдиве твердження, спростування, повтор правди.

 

Машинне навчання допомагає ідентифікувати «зливні бачки»

Детально пан Анатолій зупинився на алгоритмі роботи «Текстів» над проектом «У нас погані новини».

«Під час роботи над попереднім проектом “Тролосфера” ми зібрали майже дві сотні сайтів, які називають зливними бачками. Завдяки Samilarweb нам вдалось оцінити їхню аудиторію — 50 мільйонів  відвідувань на місяцьДалі дізналися про економіку цих видань. Частина з них фінансується з так званих Л/ ДНР чи Росії, частина керується з України. Для них це бізнес —  розміщення тарґетованих матеріалів. Ми також провели інтерв’ю з редакторами популярних українських медій, щоби зрозуміти, якими критеріями редактори керуються при формування стрічки новин та як відрізняють якісну новину від неякісної», — сказав він.

Команда проекту завантажила три мільйони прикладів контенту цих сайтів за рік. Із цього масиву інформації їм потрібно було алгоритмічно визначити відверто маніпулятивну інформацію. Проблема полягала в тому, що єдиної класифікації не існує.

Але згодом вони натрапили на стандарти (Credibility signals) від Міжнародного консорціуму веб-мережі (W3C), який займається стандартизацією в інтернет-сфері. Після проведеної роботи «Тексти» підготували матеріал «Як відрізняти справжні новини від брехні, маніпуляцій і напівправди. Інструкція».

Далі запросили редакторів новинної стрічки, щоб вони вручну розподілили сім тисяч новин за шістьма класами маніпуляцій. Така ручна розмітка потрібна була для навчання комп’ютерної моделі. Її нейрони почали реагувати на маніпуляції й надалі сортувати новини самостійно, фільтруючи дані.

Свої ботоферми нині мають навіть співаки

Журналіст із Нідерландів Роберт ван дер Ноордаа розповів, як йому вдалося виявити й викрити ботоферму тамтешнього поп-співака Дотана (Dotan).

Спочатку пан Ноордаа зачепився за один акаунт, який не мав жодного друга та постив лише інформацію про співака. Далі він визначив усі дії цього акаунта: з ким він взаємодіє, кого лайкає. Вийшло близько 600 облікових записів, із них 74 фейкових. Один із дієвих інструментів, який допоміг виявити фальш, був реверсний пошук аватарок цих акаунтів.

Також допомогли сервіси Facebook Graph, Stalkscan, програма Cree.py, які дозволяють подивитись активність облікового запису, коли він закритий.

Для твіттер-тролів журналіст радить встановити до Chrome додаток Botsentiel, який одразу позначає ботів, які є в його базі. Інструмент Socialbearing допоможе проаналізувати акаунт, а сервіс Hoaxyпокаже, як поширюються меседжі в соціальних мережах.

Додаткові сервіси для аналізу акаунтів у соціальних мережах

Зрештою, Роберт ван дер Ноордаа довів, що за знайденими тролями стояв співак і його менеджери. Ці акаунти допомагали атакувати журналістів та інших виконавців, лайкали дописи, брали участь у конкурсах, популяризували музику артиста і хвалили його.

Подібну тактику журналіст використовує і для розпізнавання акаунтів із російської фабрики тролів. Крім того, він проводив інтерв’ю з екс-працівницею цієї фабрики Людмилою Савчук. Вона повідомила тоді, що 400 працівників продукують 75  відсотків дописів російською мовою, а решту — іншими мовами світу.

«У тролів немає справжнього імені, але за цим стоїть особа. Боти — це інше. Це абсолютно автоматизовані акаунти, які в певний час щось пишуть чи ретвітять. Буває комбінація цих інструментів. Я можу створити бота, який реагуватиме на мої пости», — розповідає журналіст.

Щоб дізнатися більше про підозрілий акаунт, Роберт ван дер Ноордаа радить переглянути список його підписників — зазвичай перший фоловер буде його творцем. Через функцію «забув пароль» можна побачити частину адреси цих акаунтів і вони часто збігаються.

Тролі ніколи не постять нічого приватного. Та й коли для американського акаунту вказано російську адресу — це підозріло. Перевіряйте фотографії у профілі, аналізуйте час публікації постів. Зазвичай російські тролі постять за графіком робочого дня у Санкт-Петербурзі: початок о 9-й ранку й перерва о 12-й годині.

Нещодавно Twitter видалив та виклав у мережу дев’ять мільйонів твітів працівників російської фабрики тролів. Проте це не всі фейкові акаунти.

«Свого часу я спитав в експертів: чому Twitter видалив чотири тисячі облікових записів, але не видалив усіх російських тролів? Мені відповіли, що це як видалили частину компанії — і її ціна на фондовому ринку впаде. Проблема в тому, що це приватна компанія. Російські експерти оцінюють кількість фейкових акаунтів у десятки тисяч. І якщо Twitter видалив би їх, то їхні акції впали би», — каже журналіст.

Нещодавно VoxUkraine аналізував викладені соціальною мережею повідомлення тролів, що стосувалися України. Представник організації Олександр Надельнюк розповів, що вони за допомогою власної програми шукали в цій базі меседжі російської пропаганди. Так вони виявили, що до анексії Криму російські боти майже не проявляли активності. Деталі дослідження можна прочитати в матеріалі «Як російська “фабрика тролів” намагалася впливати на порядок денний в Україні».

Ельфи проти тролів у Литві

Представник литовських ельфів просив не розкривати його імені, тому назвемо його Йоган. Він розповів про рух волонтерів у Литві, який зародився  2014 року та намагається протистояти фабриці тролів РФ.

За словами Йогана, в них є google-таблиця, куди вони вносять фейкові акаунти та всі разом звертаються до адміністраторів соціальних мереж, щоби ці облікові записи видалили. Крім того, вони користуються проектом The FakeDetector.org, розроблений компанією Google. Цей інструмент допомагає за ключовими словам вибирати матеріали у ЗМІ, де можуть бути фейки.

Також ельфи входять до литовської ініціативи Debunk.eu, де на фронті боротьби з дезінформацією вони працюють спільно з медіа й журналістами, відділами StratCom НАТО, ІТ-спеціалістами.

Сам Йоган раніше керував рекламним агентством, тому вміє розробляти інформаційні кампанії. Прикладами роботи ельфів називає меми «Не плати Лукойлу», кампанію #StopAdidas проти продажу футболок із символікою СРСР, чи фейсбук-шторм #пораСказатьПравду у річницю підписання пакту Молотова — Ріббентопа на сторінці пропагандистського медіа РФ Sputnik.

 

«Іноді не потрібно жодного викриття, тому що це не доходить до Литви, а ми можемо донести, — каже Йоган. — Ми працюємо не тільки онлайн, але й офлайн, наприклад, приходимо на мітинги. Не так давно було зібрання за свободу Альґірдаса Палецкіса, якого судять за шпигунство на користь Росії. Його підтримати прийшло п’ять людей, нас було тридцять. Тобто підтримка проросійських сил поступово відмирає».

Чорний ринок інформаційних маніпуляцій в Україні

Павло Бєлоусов, експерт із питань інформаційної безпеки DSS380, розповів, що створити ботоферму можна й автоматично. Це дозволяють робити спеціальні програми, які самі реєструють облікові записи. Перевірку на людяність, тобто капчу, можуть за копійки розгадувати ті, хто хоче підзаробити. Нині такий тип заробітку пропонує багато фірм.

«Якість текстів ботів залежать від кількості бюджету. Простий підхід: пишеться один текст, а програма на його основі робить п’ять-десять публікацій», — розповів він.

На сеґментах ціни / якості на ринку інформаційних маніпуляцій детальніше зупинився Євген Мусієнко, директор аналітичної компанії Singularex. Нещодавно вийшло нове дослідження, яке компанія проводила спільно з Центром стратегічних комунікацій НАТО в Латвії.

Дослідники поділили ринок маніпуляцій у соціальних мережах на три категорії, які відрізняються за ціною та якістю послуг. До третьої категорії (найнижчий клас) віднесли ті компанії, що пропонують найдешевші послуги від акаунтів, які були зареєстровані автоматично і не є верифікованими. Друга група здебільшого теж пропонує послуги від акаунтів, створених автоматично. Утім вони вже верифіковані та містять основну інформацію користувачів. Облікові записи першого класу верифіковані за допомогою телефона чи електронної адреси та перебувають на платформі більше року.

Відрізнити роботу акаунтів першого класу від реальних користувачів дуже важко. Часто їх місяцями можуть вести реальні журналісти. Постачальники послуг високого класу в Україні поєднують автоматизовані та персоналізовані методики й використовують ряд каналів для поширення інформації. Це можуть бути блоги чи спеціально розміщені новини. Компанія намагається вплинути на журналістів, щоб досягти значного ефекту.

«Зазвичай під маніпуляціями в соціальних мережах мають на увазі базові речі: комент, лайк чи накрутка. Дослідження “Чорний ринок для маніпуляцій у соціальних мережах” показує, що ми недооцінюємо масштаб маніпуляцій у цій сфері та сучасний технічний рівень, на якому вони реалізуються», — розповів «Детектору медіа» Євген Мусієнко.

Володимир МАЛИНКА, “Детектор медіа”