Завдяки штучному інтелекту користування сучасною технікою стає дитячою забавкою.
Алекса, немов сучасний джин із пляшки, у маленькому гучномовці: коли шестирічна Брук Найцель із Далласа балакає з нею про свою любов до лялькових будиночків та печива, голосовий помічник може показати, як в епоху інтернету працює магічне здійснення бажань. На радість Брук, Алекса замовляє її улюблені речі.
Через кілька днів — доставка. Чотири фунти печива й KidKraft Sparkle Mansion — чотириповерховий будиночок із ліфтом і 30-ма предметами меблів, ціна: 160 доларів.
Мати Брук Меґан упевнена, що нічого не замовляла, її чоловік також. Але щойно вона глянула в додаток Amazon, як зрозуміла, що сталося.
Але це ще не все. Коли незабаром інформаційний канал CW6 із Сан-Дієґо в ранковому шоу повідомив про те, як Брук за допомогою комп’ютера самостійно зробила замовлення, а диктор Джим Петтон сказав: «Я люблю цю маленьку дівчинку, яка сказала: «Алекса, замов мені ляльковий будиночок!» — в оселях деяких слухачів ввімкнулися прилади Алекси й намагалися замовити лялькові будиночки.
Читайте також: Штучний інтелект: загроза чи незріла технологія
Тим часом Меґан Найцель пожертвувала Sparkle Mansion лікарні й обладнала Алексу батьківським контролем. Однак побоювання, що із захопливим і овіяним таємницею застосуванням штучного інтелекту в нашому житті поширюється новий тип ризику, цим не знято.
Без новин про дивовижний розвиток у сфері штучного інтелекту не минає жодного дня. Дослідники Affectiva (піонери емоційних комп’ютерів) презентують нейронну мережу, яка розрізняє емоції в голосі: програма розпізнає їх незалежно від мови. Команда під керівництвом радіолога Деклана О’Реґана з Імперського коледжу в Лондоні показує, що програма з ШІ частіше, ніж лікарі, розпізнає на томографії перші ознаки серцевої недостатності. Лінгвіст Ульріх Шаде та його колеги з Інституту зв’язку, обробки інформації та ергономіки Фраунгофера, що в Бонні, так натренували алгоритм машинного навчання, щоб він визначав у соціальних мережах фейкові новини, грубість тощо.
У ніч з 10 на 11 лютого на Токійській фондовій біржі стався Flash Crash швейцарського франка — миттєве падіння курсу. Який, однак, стабілізувався в наступні хвилини. За словами Томаса Флурі, валютного експерта великого швейцарського банку UBS, поштовхом стала «помилка» трейдера (на щастя, без драматичних наслідків). Такі Flash Crash, як віртуальні виверження вулканів, продуковані з незбагненних нетрів комп’ютерних програм на основі ШІ, в автоматичному трейдерстві стаються дедалі частіше й зазвичай шкодять репутації фінансових ринків.
Спільнота штучного інтелекту в планетарному масштабі порівняно невелика, однак дуже впливова. Політика та адміністрація, економіка, армія й громадяни очікують від неї орієнтування в ключових цифрових питаннях майбутнього.
Нині близько 20 тисяч учених, інженерів та розробників працюють над різними аспектами конструювання розумних машин. Головна мета — зробити ці пристрої якомога ефективнішими.
Після значного прогресу в галузі штучного інтелекту за минуле десятиліття зараз украй важливо забезпечити позитивне сприйняття розроблених технологій. Ключем для цього, як і в запровадженні будь-якої нової техніки, є об’єктивне усвідомлення ризиків.
Коли наприкінці ХІХ століття з’явилося електричне світло, скепсис і тривога були так само поширеними. У Парижі вночі дами ходили під парасольками, бо остерігалися яскравого світла. Менш як за півтора століття по тому знову поширилася нова техніка, яка відіграє важливу роль, — дисплеї.
З появою голосових помічників, роботів фінансових радників і самокерованих автомобілів розкривається ціле віяло проблем нового типу.
Через розумні біржеві програми дедалі частіше стаються падіння ринку. Чат-боти (програми, які автоматизовано ведуть діалог) поширюють образи, бо користувачі-зловмисники перетворюють їх на співрозмовників-расистів. Після перших смертельних випадків, спричинених самокерованими автомобілями, будуть наступні.
Деякі експерти, серед яких дослідник безпеки ШІ професор-асистент Університету Луїсвілла Роман Ямпольський, вважають, що зі збільшенням можливостей штучного інтелекту зростатиме й частота та тяжкість таких подій.
Читайте також: Універсальний кабель для зарядки, «розумний» постер та надлегкий підрахунок калорій
Недоліки нинішнього штучного інтелекту з обмеженою сферою впливу «narrow AI», можливо, лише попередження. Якщо вдасться розробити універсальний штучний інтелект, так званий сильний ШІ, який зможе діяти в усіх сферах людського пізнання, то спустошені рахунки й обурені почуття будуть найменшими втратами.
«Сильний ШІ міг би робити помилки, які впливають на все, — переконує Ямпольський. — Можливо він екзистенційна загроза для людства». Простіше кажучи, це вид ШІ, який увечері може налякати дітей у ліжечках. Це «голлівудський» ШІ, з його повним спектром машин, які можуть розвиватися й навіть набувати власної свідомості, — від робота із серцем до найлютішого Термінатора.
Машинерія мене мордує й лякає
Найважливіше в цьому світі уявлень — так звана сингулярність, вигаданий момент, коли інтелект машин, що дедалі швидше прогресують, певною мірою «вибухає» й унаслідок цього з’являється новий суперінтелект, поведінка якого невідома.
Марвін Мінскі (1927–2016), один із піонерів штучного інтелекту, ще в 1980-х висловив передбачення про бібліотеки майбутнього, які самі себе читатимуть і ставатимуть дедалі розумнішими: «Імовірно, вони збережуть нас як домашніх тварин».
Читайте також: Як штучний інтелект піклується про здоров’я людей
Такий «фільм жахів» насправді не властивий зазвичай оптимістичній позиції американців, але, можливо, цей схильний до перебільшення оптимізм потребує противаги.
Хай там як, але Ілон Маск, шеф космічної компанії SpaceX і фірми електромобілів Tesla, не висловлюється емоційно, коли стверджує, що ШІ небезпечніший за ядерну зброю. Він та інші підприємці нібито надали мільярд доларів дослідницькому проектові Open AI, який хоче провести некомерційне дослідження штучного інтелекту.
У дуже різних властивостях «сильного ШІ» і «м’якої» його версії (яка досить прагматично задовольняється досяжними, машинними вирішеннями конкретних проблем) виявляються й відчутні відмінності в принциповій позиції та уявленнях по обидва боки Атлантики.
У Європі до цієї теми ставляться тверезіше: у дослідженнях ШІ йдеться про «конструювання систем, які можуть забезпечити певні характеристики людського інтелекту в деяких сферах і, таким чином, бути корисними», — говорить Йоахім Герцберґ із Німецького дослідного центру штучного інтелекту в Оснабрюку.
Основою цього є розпізнавання моделей та оцінювання величезного обсягу даних як навчального матеріалу, наприклад, при автоматизованому кермуванні.
Окрім того, Герцберґ вважає, що нині штучний інтелект наздогнати наш людський інтелект не може. Тут радше йдеться про взаємодію людини й машини, про робота, що стає компаньйоном, коботом, який диференціює й допомагає краще, аніж незграбні апарати ранньої машинної ери.
Щоправда, дедалі активніше використання штучного інтелекту в компаніях і державному управлінні — явище, не обмежене лише Китаєм і США, як стверджує Матіас Шпількамп, співзасновник платформи Algorithm Watch.
Він посилається на дослідження Фонду Бертельсманна, згідно з яким уже в 12-ти європейських країнах застосовуються масштабні системи для автоматизованого прийняття рішень, як-от звернення до цільових груп у рекламному маркетингу, також у публічному секторі при автоматичному оцінюванні осіб за різними ознаками (наприклад, у разі соціального шахрайства).
Читайте також: Смартфони майбутнього або як саме складатиметься екран вашого телефону?
У Європі половина населення й не здогадується, що алгоритми ШІ використовуються вже давно, при цьому охоплюючи все більше сфер життя. Зокрема, люди не поінформовані про додатки, чиї алгоритмічні рішення можуть впливати на соціальну активність людей, наприклад, у пошуку роботи, медичній діагностиці, оцінюванні кредитоспроможності й статистичному процесі перевірки при видачі кредитів.
В індустріальних країнах проникнення техніки ШІ у буденне життя стає дедалі звичнішою справою. У Сан-Франциско в усіх трьох локаціях Cafe X уже працює бариста-робот, який готує напої.
Оскільки іноді рука помочі потрібна й таким машинам, то присутні також співробітники, які вирішують технічні проблеми чи пояснюють клієнтам процеси.
У ресторані Creator, що в районі South of Market, бургери готують два гігантських роботи («Не вір худому кухарю»). За годину кожен із них робить близько 120 штук таких наїдків, а допомагає роботам із десяток працівників: подають інгредієнти, описують клієнтам їжу й приймають замовлення.
Кілька з них у тестовій версії (інженери повинні переконатися, що машини, розробка яких почалася дев’ять років тому, працюють бездоганно). Для шефа Алекса Вардакостаса дуже важливо, що компанія може продавати гамбургери по шість доларів і водночас підтримувати дрібних виробників продуктів харчування та фермерів з околиць: «Ми можемо собі таке дозволити, бо завдяки роботам це найефективніший бургер-ресторан».
Попри дедалі похмуріші перспективи майбутнього через появу нових технологій, ми маємо й певні надії та сподівання. Адже ШI може бути й способом дізнатися більше про себе самих. Для багатьох дослідників ШІ це важливий стимул для роботи: як функціонує мислення? Що вирізняє людину, коли кажуть, що вона істота мисляча? Можливо, ми знайдемо нові відповіді на давні питання.
Читайте також: Чи мають діти вчитися людських цінностей на алгоритмах?
Водночас машини кидають нам доволі несподіваний виклик: «Ми, люди, переконаємося, що наш інтелект не унікальний. Якщо частину важливих спроможностей людського інтелекту справді вдасться змоделювати у формі комп’ютерної програми, це матиме успіх на кшталт теорії відносності Айнштайна», — говорить Томас Крісталлер, який до 2010 року очолював Інститут інтелектуального аналізу та інформаційних систем Фраунгофера.
Математичного методу для доведення того, що алгоритм працює безпомилково чи без небажаних побічних дій, досі не існує. «Більшість доступних комп’ютерних програм, передусім найоб’ємніші й найважливіші з них, недостатньо теоретично обґрунтовані», — писав 1977 року в своїй праці «Сила комп’ютерів і безсилля розуму» Йозеф Вайценбаум, корифей комп’ютерної критики. І змінилося небагато. Нині виникають зовсім нові складнощі, наприклад, усвідомлення того, що разом із навчальними даними, які мали б залучати популярний Deep Learning (тобто глибоке чи нейронне навчання), часто також передаються упередження, які виявляються, наприклад, у розподілі певних характеристик даних.
Конкурсам краси нерідко закидають нечесні практики та обман. Для протидії поганій славі цього бізнесу фірма Beauty AI провела онлайн-конкурс краси, а як журі використала алгоритм ШI, який розпізнавав симетрію обличчя, зморшки та вади шкіри. Метою було відфільтрувати учасників, які найвдаліше відповідають характеристикам людської краси. Участь брали жінки й чоловіки. Як виявилося, алгоритм недооцінив темношкірих жінок. Свої фотографії подало шість тисяч людей з усього світу. Серед 44 переможців був лише один темношкірий.
Ерон Вейенберґ, директор відділу досліджень і розвитку конференції TED у Нью-Йорку, відомої своїми короткими доповідями на YouTube інноваційної, шукав алгоритм для вибору кандидатів на роботу без впливу несвідомих упереджень і запрограмував розширення для браузера Chrome, який фотографії кандидатів у профілях LinkedIn автоматично замінював на випадкові зображення собак. Гарна спроба.
Але асоціації в людей викликає все, і собаки також. Добермани мають іншу репутацію, ніж золотисті ретривери. І коли я бачу когось із фото пітбуля, я роблю певні висновки, навіть якщо вони можуть бути помилковими.
Той, хто має справу зі штучним інтелектом, обов’язково повинен розширити свої уявлення про те, де можуть бути помилки й недоліки в безпеці.
Дедалі потужніші комп’ютери не лише дають нам можливість керувати багатошаровими нейронними мережами й перекачувати океани навчальних даних, вони ще є й історичним шансом зробити неймовірно багато помилок за настільки короткий час, як ніколи досі.
Нині саме розвиваються нові наукові дисципліни, наприклад, із безпеки ШІ, яка висуває значно вищі вимоги, ніж традиційна комп’ютерна безпека чи робоча етика штучного інтелекту.
Захопливі трансформації та швидкість розвитку технологій ШI завжди мають орієнтуватися на дуже ретельне оцінювання ризиків. Як вважає експерт із безпеки Ямпольський, найнебезпечніший тип штучного інтелекту — маніпульований людиною-зловмисником.
Читайте також: Штучний інтелект в очікуванні нового лідера
Наше майбутнє в епоху розумних машин — це насамперед комплімент нашому власному інтелекту, який ми цим великим технічним, економічним і культурним експериментом знову намагаємося трохи краще зрозуміти.
Це не страх перед вищим супер-інтелектом, який може еволюційно нас перегнати й залишити позаду, як Homo Silicon Valley (за долиною Неандер тепер Кремнієва), який поєднується з ШI. Насправді термін «штучний інтелект» фактично не що інше, ніж помилка й блискучий маркетинговий інструмент.
Страх радше пов’язаний із можливостями зловживання технікою. «Машинерія, що дедалі більше полонить життя, мордує й лякає мене, вона накочується, немов гроза, повільно-повільно; але вона вже набрала обертів, вона прийде й завдасть удару», — жаліється Йоганну Ґете 1821 року занепокоєна сучасниця.
І ось вони, машини, вже тут і змушують нас дивуватися. Також і через нас самих.
Петер Ґлязер народився 1957 року з олівцем у руці в місті Ґрац, де на експорт виробляють успішних письменників, мешкає в Берліні. Лауреат премії Інґеборґ Бахманн, почесний член Chaos Computer Club, публіцист і блогер.