Кожен другий вівторок у Facebook, а в YouTube щоп’ятниці вище керівництво збирається для обговорення проблем із мовою ненависті, дезінформацією та іншим неприємним контентом на своїх платформах і вирішує, що прибирати, а що залишати. У Сан-Бруно генеральна директорка YouTube Сьюзен Войджицкі присутня при цьому особисто. У Менло-Парку керівники нижчої ланки проводять Форум стандартів контенту Facebook.
Цей з’їзд став популярним моментом у спілкуванні компанії з журналістами. Її робочі групи пропонують нові рекомендації у разі публікації, скажімо, знімка побиття індуських жінок у Бангладеш, який може спровокувати насильство офлайн (прибрати), відео жорстких дій поліції під час розгону расових демонстрацій (залишити). Або щодо фотографії нібито Дональда Трампа в уніформі Ку-клукс-клану в 1990-х (залишити, але обмежити поширення та поінформувати користувачів, що це фальшивка). Ухвалені на цих зустрічах рішення згодом просочуються в інструкції для тисяч оглядачів контенту в усьому світі.
Тішить те, як кожна компанія модерує наповнення своїх ресурсів. Вони більше не вважають ухвалення таких рішень якоюсь периферійною діяльністю. Навпаки, це стало основним моментом у їхній роботі. Обидві фірми наймають керівників, які вдумливо ставляться до завдання очистити платформи від нездорового контенту, захищаючи при цьому свободу слова. Але те, що вони взагалі таким займаються, також дає підстави непокоїтися: ці компанії цілком можуть перетворитися на такі собі «міністерства правди» для глобальної аудиторії. Ніколи раніше не було такої можливості, щоб лише кілька компаній контролювали те, що можуть сказати й побачити мільярди.
Читайте також: Бан в одні ворота. За що українців блокують у Facebook
Політики звертають ще більше уваги на контент цих платформ і на методи, які використовуються для його оцінювання. 5 вересня друга особа у Facebook Шерил Сендберґ і генеральний директор Twitter Джек Дорсі давали свідчення комітетові Сенату США з розвідки щодо чи не найбільшого промаху обох компаній, коли російським оперативникам вдалося маніпулювати їхніми платформами та вплинути на президентські вибори 2016 року. Пізніше Дорсі відповідав на конкретні питання комітету Палати представників про модерування контенту. У першому раунді слухань крісло представника Alphabet, материнської компанії Google (останній належить і YouTube), лишилося порожнім після відмови її співзасновника Ларрі Пейджа з’явитися на слухання.
Останнім часом посилилася пильна увага до Facebook, Twitter, YouTube та інших. Усі троє дістали вимоги забанити конспіролога Алекса Джонса, власника сайта InfoWars. Facebook і YouTube таки це зробили. Водночас технологічні платформи звинувачують в антиконсервативній упередженості через фільтрування певних новин. Найгаласливіший їх критик — президент Дональд Трамп, який пригрозив їм (через Twitter) регулюванням. Відразу після слухань генеральний прокурор Джефф Сешнс заявив, що обговорить із генпрокурорами штатів «наростання занепокоєння» тим, що ці платформи підривають конкуренцію та придушують вільний обмін думками.
Червонокнижні види
Такий поворот справ сигналізує про послаблення давнього особливого юридичного захисту для компаній. Інтернет-фірми в Америці захищені від правової відповідальності за контент, опублікований на їхніх сервісах. Параграф 230 Закону США «Про дотримання пристойності в масових комунікаціях» від 1996-го трактує їх як посередників, а не видавців, щоб захистити від юридичних ризиків.
Коли інтернет-індустрія обмежувалася молодими беззахисними стартапами, такий підхід мав сенс. Десяток років тому модерування контенту було простою роботою. Лише 100 млн людей користувалися Facebook, а стандарти для його спільноти вміщалися на двох сторінках. Але нині ресурс відвідує 2,2 млрд людей щомісяця, а YouTube має 1,9 млрд залогінених користувачів на місяць. Ці платформи стали центрами соціальної інтеракції та найрізноманітніших форм висловлення — від чітких, зрозумілих дискусій і відео з котиками до теорій змов і мови ненависті.
Читайте також: Соцмережі замість усіх інституцій
Спочатку платформам соціальних медіа не вдавалося пристосуватися до масштабів і складності проблем, викликаних їх зростанням та силою. Вони заявляли, що не хочуть бути арбітрами істини. Але останніми роками обидві компанії, як і Twitter, раз по раз стикаються з несподіванками, як-от повідомлення про зловживання та маніпуляції їхніми платформами з боку тролів, груп ненависті, теоретиків-конспірологів, дезінформаторів, фальсифікаторів виборів і пропагандистів. У М’янмі журналісти та експерти-правозахисники виявили, що дезінформація у Facebook розпалює ворожнечу до мусульман-рогінья. Після стрілянини в школі міста Паркленд, штат Флорида, пошук інформації про цей інцидент на YouTube видавав відео з теоріями змови, у яких стверджувалося, що стрілянину було інсценізовано із залученням спеціально підготовлених підставних осіб, які грали роль жертв.
У відповідь Facebook і YouTube різко наростили як людські, так і технологічні ресурси для наведення ладу на своїх платформах. До кінця цього року Facebook подвоїть кількість працівників і підрядників, які займатимуться безпекою сайта, до 20 тис. (серед яких і 10 тис. оглядачів контенту). Модеруванням наповнення YouTube в тій чи іншій формі займатимуться 10 тис. осіб. Щомісяця з кожної платформи прибирають мільйони повідомлень, керуючись грубезними інструкціями. Наприклад, у Google рекомендації для контролерів «якості пошуку» містяться на 164 сторінках.
Хоча більшість модераторів працює на треті сторони, зростання їхньої чисельності вже впливає на фінанси фірм. Коли в липні Facebook опублікував незадовільні фінансові результати, через що його ринкова капіталізація впала на понад $100 млрд, частково причиною були вищі затрати на модерування. Генеральний директор фірми Марк Цукерберґ каже, що в перспективі проблему модерування контенту доведеться вирішувати за допомогою штучного інтелекту (ШІ). За перші три місяці 2018 року Facebook у тій чи іншій формі відреагував на 7,8 млн одиниць контенту, який включав сцени жорстокості й насильства, мову ненависті або пропаганду тероризму. Це удвічі більше, ніж у попередні три місяці (див. «Бачити менше зла»), і головно завдяки вдосконаленню автоматичного виявлення. Але модерування контенту потребує розуму, а алгоритм розумний настільки, наскільки розумні принципи, на основі яких створено програму.
У штаб-квартирі Facebook у Менло-Парку вище керівництво інстинктивно налаштоване проти створення нових правил обмеження контенту з огляду на свободу слова. Дозволяється багато різних видів негативних, расистських коментарів, тому що вони сформульовані таким чином, щоб не вказувати конкретно на расу, релігію або іншу захищену групу. Або тому, що це, можливо, жарти.
Читайте також: Невіртуальний ефект. Наслідки блокування російських сайтів
Зовсім інші питання виникають через фейкові новини. «Ми не видаляємо контент тільки через те, що він фальшивий», — каже Моніка Біккерт, керівниця департаменту глобальної контентної політики та протидії тероризму. За її словами, замість видаляти матеріали Facebook може «знижувати рейтинг» фейкових новин, позначених незалежними факт-чекерами (а отже, такі новини перегляне менше людей), і показувати поряд реальну інформацію. У гарячих точках на кшталт М’янми та Шрі-Ланки, де дезінформація розпалює насильство, такі пости можуть видалятися.
У YouTube система модерування схожа до Facebook: публікуються рекомендації щодо критеріїв прийнятності та детальні інструкції для людей-оглядачів. Люди-спостерігачі швидко вирішують, що робити з позначеним контентом, більша частина якого знаходиться внаслідок автоматичного виявлення. Twitter теж використовує ШІ, щоб знайти фейкові акаунти та недопустимий зміст, але більше покладається на сигнали від користувачів про домагання та цькування.
Самі стежачи за дотриманням правил на своїх платформах, соціальні медіа змінюватимуться. Вони були колись (і ще досі вважають себе) ефективними й гнучкими, утримуючи мінімальні штати працівників. Утім, Facebook, де працює вже близько 25 тис. осіб, незабаром триматиме, мабуть, більше модераторів, ніж інженерів. Але і він, і Google достатньо багаті, щоб дозволити собі додаткові видатки без шкоди для прибутків. Фінансово слабший Twitter постраждає більше.
Також можливі й глибші зміни. Якщо дезінформація, мова ненависті та образливий контент настільки всепроникні, то це, на думку критиків, пояснюється бізнес-моделлю самих компаній: рекламою. Щоб продавати більше реклами, наприклад, алгоритми Facebook віддають перевагу «захопливому» контенту, який часто буває не найкращої якості. YouTube утримує своїх користувачів на сайті, пропонуючи їм дедалі цікавіші відео, які також часто доходять до крайнощів. Іншими словами, щоб по-справжньому розв’язати проблему модерування контенту, великим платформам соціальних медіа доведеться, можливо, попрощатися з тією бізнес-моделлю, яка й зробила їх настільки успішними.
© 2011 The Economist Newspaper Limited. All rights reserved
Переклад з оригіналу здійснено «Українським тижнем», оригінал статті опубліковано на www.economist.com