Суспільство

  ▪   Катерина Койдан

Технології розпізнавання облич: межа приватності і упереджень

фото: reuters
Найбільші технічні компанії без згоди інтернет-користувачів збирають їхні фотографії для розвитку технологій розпізнавання облич

Fortune розібралися, як наші з вами фото допомагають технічним компаніям покращувати технології розпізнавання  облич.

 

Технології розпізнавання  облич – це бізнес, що дуже швидко розвивається. Десятки стартапів та технічних компаній продають послуги з розпізнавання облич готелям, магазинам, і навіть школам та літнім таборам. Бізнес розквітає завдяки новим алгоритмам, здатним ідентифікувати людей з набагато більшою точністю, ніж іще кілька років тому. Для того, щоб покращити точність цих алгоритмів, компаніям необхідно «натренувати» їх на мільярдах облич. Такі обсяги зображень неможливо зібрати, кожного разу запитуючи дозвіл у людини, чиє обличчя зображене на фото. Тож, існуючі бази даних, зібрані за згодою зображених на фото людей, є дуже малими і містять зазвичай лише кілька тисяч облич.

 

Офіційні бази даних мають і низку інших недоліків – у багатьох базах не вистачає різноманітності за ознакою раси або ж замало фотографій, зроблених у нестандартних умовах – з тінями на обличчі, у капелюсі або з макіяжем. Якщо алгоритм не тренуватиметься на таких «ускладнених» обличчях, то він виявиться абсолютно неефективним у реальному світі.

 

Читайте також: Межі штучного інтелекту

 

Тож, компанії часто обирають легший шлях, як-то просто брати з Інтернету фотографії, де позначено імена зафіксованих на них людей. Насправді, є досить висока ймовірність, що і ваше обличчя є частиною «бази для тренування» алгоритму розпізнавання  облич якоїсь компанії.

 

Фактично, для тренування алгоритму необхідна база даних, де до кожної людини прив’язано багато фотографій з її обличчям у різних обставинах, ракурсах та при різному освітленні. Наприклад, якщо користувач робить багато селфі, то отримавши доступ до цих фотографій, компанія має багато різних фотографій, прив’язаних до однієї людини. Або ж багато користувачів викладають безліч фотографій у соцмережі, позначаючи на них себе та своїх друзів. Такої інформації теж буде достатньо для тренування алгоритму розпізнавання облич.

 

Цікаву історію має одна американська компанія, яка запустилася у 2012 році під назвою EverRoll як телефонний додаток для організації фотографій. Компанія вирізнялася досить агресивною маркетинговою політикою. Так, щойно додаток завантажувався, він отримував доступ до усіх контактів, збережених на телефоні, і змушував користувача відправити усім цим контактам повідомлення із запрошенням також завантажити цей додаток.  Наступним кроком цього додатку було завантаження усіх фотографій з телефону у хмарне середовище. Такі агресивні маркетингові кроки навіть змусили Apple прибрати цей додаток з Apple Store у 2016 році. Сьогодні, це вже компанія Ever AI, що спеціалізується на технології розпізнавання облич та займає перші місця у змаганнях з точності розпізнавання людей у складних умовах. Як зазначають експерти, такому успіху компанія завдячує своїй величезній базі даних, яка налічує близько 13 мільярдів фотографій.

 

Читайте також: Старі добрі методи

 

При цьому, мало що можна зробити, щоб зупинити використання вашого обличчя в такий спосіб. Адже, на сьогоднішній день, майже не існує законодавчих обмежень щодо технологій розпізнавання облич.

 

Варто зазначити, що законодавче регулювання в цій сфері є важливим не лише через проблему приватності, а й через велику частку помилок, яких припускаються системи розпізнавання  облич на даному етапі розвитку технології. Цікаво, що першим містом, яке повністю заборонить використання систем розпізнавання  облич державними структурами може стати Сан-Франциско – один з основних осередків розробки цих самих систем. Адже, саме розробники краще за інших розуміють наскільки ненадійними є наразі ці системи.

 

Дійсно, багато алгоритмів, протестованих у реальних умовах, виявились вражаюче неточними. Так, наприклад, під час тестування системи розпізнавання облич на фінальних матчах Ліги Чемпіонів УЄФА, 92% збігів були помилковими.

 

Читайте також: Цифровий неспокій

 

Крім помилок, ці системи також часто видають упереджені результати. Наприклад, одне з нещодавніх досліджень показало, що системи розпізнавання  облич від таких технічних гігантів як Microsoft, IBM та Face++ вірно визначають стать 99.7% білих чоловіків і лише 65.3% чорних жінок. Такі розбіжності пов’язані з тим, що «тренують» алгоритми зазвичай на базах даних, де дуже мало представлено темношкірих людей. Або ж, наприклад, в кількох штатах США суддям перед винесенням вироку надають результати оцінки обличчя підозрюваного нейромережею, яка визначає з якою ймовірністю ця людина скоїть злочин повторно. Оскільки в базі злочинців відносно більше темношкірих людей, то темна шкіра для алгоритму автоматично стає фактором підвищеного ризику рецидиву.

 

Отож, на сьогодні ми не можемо уберегтися від того, щоб наші фото використовувалися для тренування алгоритмів розпізнавання  облич. Однак, у світі вже зрозуміли необхідність регулювання цієї сфери і процес створення відповідних нормативних вимог вже запущено. А поки, не варто надто вже довіряти цим системам – вони помиляються так само як і люди.

 

Якщо ви помітили помилку, виділіть необхідний текст і натисніть Ctrl + Enter, щоб повідомити про це редакцію.