Конспірологія в мережах

Наука
31 Березня 2019, 11:57

Щодня користувачі по всьому світу переглядають понад 1 млрд годин відео на YouTube. Так, саме мільярд годин щодня! Одним із ключових факторів успіху YouTube є його система рекомендацій, відповідно до якої ролик, автоматично обраний алгоритмом, починає відтворюватися одразу по завершенні попереднього.

Нещодавно користувачі стали помічати, що серед запропонованих відео непропорційно багато матеріалу, пов’язаного з різноманітними конспірологічними теоріями. Наприклад, про заперечення кліматичних змін, пласкість планети Земля або змову фармакологічних компаній для заробітку на вакцинаціях. Із чим це пов’язано?

Насправді все досить просто. Алгоритм YouTube націлений на максимізацію часу, який користувачі проводять за переглядом відео, а прихильники конспірологічних теорій схильні дивитися на YouTube значно більше роликів порівняно з людьми, які віддають перевагу отриманню інформації з різноманітних джерел. Як наслідок — система рекомендацій, яка лише намагається максимізувати час, проведений на платформі, популяризує неякісний, а іноді й шкідливий контент.

 

Читайте також: Принцесам київським і не тільки

Аналіз цієї проблеми й спроби розробити альтернативні підходи до рекомендаційних систем не лише YouTube, а й інших інтернет-платформ стали окремим питанням для розробників та дослідників. Wired пише про кілька ідей, що заслуговують на особливу увагу. 

Один із пропонованих методів передбачає систему, яка рекомендувала б користувачам підписуватися на такі облікові записи Twitter, які в сукупності забезпечили б їм доступ до різноманітних думок. Схожі ідеї мають і розробники YouTube. Наприкінці минулого року дослідники компанії Google, що володіє цією платформою, оприлюднили результати експериментів з алгоритмом, який має на меті урізноманітнити рекомендації, що надаються споживачам. Відтак за результатами цього та інших досліджень у компанії вирішили зосередити свою рекомендаційну систему на задоволенні глядача, а не на кількості переглядів.

І в дослідників, і в практиків з’являється розуміння, що звуження сфери зацікавлення користувачів шкодить як суспільним, так і комерційним інтересам. Коли сформована користувачами та алгоритмами стрічка в соціальних мережах подає лише однобічну інформацію, у суспільстві наростає протистояння і людям стає дедалі складніше з розумінням та повагою ставитися до протилежних думок. 

 

Читайте також: Зовнішній вплив як корисний подразник

Є також певні способи боротьби зі «шкідливими» рекомендаціями. Так, пропонується вбудовувати суспільні цінності в рекомендаційні системи. Наприклад, нещодавно Facebook було звинувачено в тому, що він сприяє поширенню антивакцинаторських настроїв у суспільстві, піддаючи безпосередній загрозі здоров’ю населення. У відповідь компанія пообіцяла, що перестане рекомендувати антивакцинаторські спільноти та сторінки, а також ускладнить пошук таких груп. У Facebook відмовилися від ідеї повністю видалити спільноти противників вакцинації, адже вважають, що «протилежна позиція, викладена у формі правдивої інформації, може створити безпечніше та шанобливіше середовище». У такий спосіб компанія намагається зберегти баланс між можливістю вільного висловлення думок та гарантуванням безпеки суспільства.

Ще один спосіб вирішення проблеми — надання користувачам більшого контролю за рекомендаціями, які їм пропонує алгоритм. Дослідники з Корнелльського університету та Міського університету Нью-Йорка провели спільну роботу з подкаст-додатком Himalaya, щоб протестувати версію рекомендаційної системи, яка запитувала б користувачів, який саме контент вони хотіли б слухати, і відповідним чином коригувала б рекомендації. Експерименти зі 100 добровольцями засвідчили, що люди більш задоволені, коли можуть впливати на рекомендації, і споживають на 30% більше контенту, який, як вони кажуть, їм подобається. Дослідники вважають, що це перспективний спосіб задоволення як індивідуальних потреб споживачів, так і комерційних інтересів інтернет-платформ.

 

Читайте також: #deletefacebook: що загрожує технологічному гіганту?

Ґійом Часлот, колишній інженер YouTube, який пішов із компанії через шкоду, яку на, його думку, рекомендаційна система компанії завдає суспільству, радий бачити позитивні зміни в підходах великих технологічних компаній до рекомендаційних алгоритмів. Однак він вважає, що великі компанії дуже обмежені своєю культурою та бізнес-моделями для того, щоб запровадити справді істотні зміни. Сам він розповідає, що, пішовши з Google, понад рік працював у стартапі, який займався розробкою системи рекомендацій, котра уникала б поширення неякісного контенту, але дійшов висновку, що така система не може бути прибутковою. Не всі розробники поділяють таку думку. Зважаючи на те що споживачі дедалі більше уваги приділяють практикам ведення бізнесу великих інтернет-компаній, цілком можливо, що останні все ж таки будуть змушені ставитися до своєї діяльності відповідальніше.