Сьогодні технології штучного інтелекту охоплюють ледь не усі сфери нашого життя і подаються як наднові досягнення науковців. Насправді поняття штучного інтелекту з’явилося ще в 1950-х, і основна проблематика з того часу змінилась не суттєво.
До 1949-го року комп’ютерам не вистачало ключового елементу для того, щоб говорити про якийсь інтелект, а саме пам’яті. Вони могли виконувати команди, але не могли їх зберігати, так само як й інформацію про команди, які вони вже виконали. До того ж користування такими комп’ютерами було дуже дорогим задоволенням, доступним лише найпрестижнішим університетам та великим технічним компаніям. Так, в перекладі на сучасні гроші орендувати один комп’ютер на місяць коштувало близько $200 тис.
Тож серйозні дослідження у сфері штучного інтелекту потребували суттєвого фінансування, яке могло стати реальністю лише за наявності хоч якихось початкових результатів у цьому напрямі, а не лише образів розумної комп’ютерної програми з наукової фантастики. Першим таким результатом стала програма «Логічний Теоретик» (англ. Logic Theorist), яка імітувала людський підхід до розв’язання задач. Вона була представлена на науковій конференції у Дартмутському коледжі (Нью-Гемпшир, США) у 1956 році, де власне і вигадали поняття «штучний інтелект».
Читайте також: Не боятися змін
1957 – 1974 роки стали періодом розквіту штучного інтелекту. Комп’ютери могли зберігати все більше інформації, ставали швидшими, дешевшими та доступнішими. Так само, покращувались алгоритми машинного навчання – комп’ютерні програми все краще справлялись з розв’язанням задач, а в 1966 році було навіть створено першого віртуального співрозмовника – Елізу, яка стала прототипом сучасних чатботів та віртуальних асистентів.
Перші успіхи, а також впевненість провідних вчених у великих перспективах штучного інтелекту, привели фінансування у цю галузь, в першу чергу державне. Дослідницьке агентство при Міністерстві оборони США було особливо зацікавлене у технології розпізнавання та перекладу розмовної мови. Оптимізм та очікування були дійсно високими. У 1965 році, Герберт Саймон, лауреат Нобелівської премії з економіки, писав: «Впродовж наступних 20 років машини навчаться виконувати будь-яку роботу, яку може виконати людина». Інший провідний спеціаліст зі штучного інтелекту того часу, Марвін Мінський, заявив у 1970 році, що «за 3 — 8 років у нас з’явиться машина із загальним інтелектом на рівні середньостатистичної людини».
Читайте також: Штучний інтелект: заявки на лідерство
Однак, перші успіхи алгоритмів штучного інтелекту продемонстрували і величезну кількість перешкод на шляху до реального машинного інтелекту. Найбільшою перешкодою була недостатність обчислювальних потужностей. Наприклад, для того щоб функціонувати як віртуальний співрозмовник, машина повинна запам’ятати значення багатьох слів і розуміти їх значення у багатьох поєднаннях. Тодішні комп’ютери не могли зберігати необхідні обсяги інформації та обробляти їх достатньо швидко. Тож, надвисокий інтерес змінився розчаруванням, фінансування знизилось, так само як і кількість досліджень, а період з 1974 року і до ранніх 1980-х назвали першою «зимою» штучного інтелекту.
Потім був короткий проміжок відновлення інтересу до технологій машинного навчання, коли з’явились перші експертні системи, що дозволяли машинам імітувати процес прийняття рішень людиною-експертом, а японський та британський уряди, зацікавлені у відповідних технологіях, почали активно фінансувати галузь. Однак, вже у 1987 році почалася друга «зима» штучного інтелекту, яка тривала до 1993 року.
Далі ж, протягом 1990-х – 2000-х років, штучний інтелект розвивався, незважаючи на відсутність державного фінансування та значної уваги суспільства. Основна роль в розробці технологій машинного навчання перейшла на великі технічні компанії, яким вдалося досягнути помітних успіхів на шляху до розумної машини. Так, у 1997 році комп’ютерна програма від IBM перемогла у шахи діючого чемпіона світу Гарі Каспарова. Того ж року у Windows було впроваджено програмне забезпечення для розпізнавання мови, розроблене компанією Dragon Systems, а в 2001 році команда дослідників з MIT представила першого соціального робота на ім’я Kismet, який вчився розпізнавати людські емоції. Здавалося, немає задач, які машинам було б не під силу розв’язати.
Справді, обмеження в обчислювальних потужностях комп’ютерів перестали бути проблемою. Відповідно до закону Мура, пам’ять і швидкість комп’ютерів подвоюється щороку, і з певного часу обчислювальних потужностей стало достатньо для нових звершень у галузі штучного інтелекту. Саме завдяки великим обсягам пам’яті та високій швидкості, комп’ютер зміг перемогти Гарі Каспарова у 1997 році та китайського чемпіона з шашок ґо Ке Цзе у 2017 році.
При цьому, цікаво, що самі підходи до програмування штучного інтелекту не зазнали якихось революційних змін протягом останніх 30 років. Усі результативні впровадження алгоритмів машинного навчання, які ми можемо спостерігати у банківській справі, маркетингу, комп’ютерних іграх, робототехніці, розробці віртуальних асистентів тощо, покладаються на величезні обсяги даних та комп’ютерні потужності, до яких ми маємо доступ сьогодні. Таким чином, фактично, більшість нових завдань вирішуються грубою силою. До прикладу, прорив у розпізнаванні штучним інтелектом об’єктів, зображених на картинках, стався після представлення бази даних ImageNet, яка налічує 14 мільйонів фотографій, вручну промаркованих людьми, які вказали, що за об’єкти зображені на цих фотографіях.
Останні успіхи штучного інтелекту у сфері комп’ютерних ігор, коли машини обіграють світових чемпіонів у StarCraft та Dota 2, завдячують такому класу алгоритмів машинного навчання як навчання з підкріпленням (англ. reinforcement learning). Ефективність цих алгоритмів фактично базується на величезних комп’ютерних потужностях, доступних сьогодні, що дозволяють машинам симулювати десятки тисяч років комп’ютерної гри, протягом яких алгоритм навчається на власних помилках і досягає рівня чемпіонів світу. Тобто, знову ж таки, нові завдання вирішуються в першу чергу грубою силою.
Звичайно, певні важливі інновації трапляються й досі. Так, у 2014 році було запропоновано новий клас алгоритмів штучного інтелекту – генеративні змагальні мережі, які на сьогоднішній день дозволяють створювати штучні зображення, що практично неможливо відрізнити від реальних фотографій. У 2017 році, після представлення нової моделі глибинного навчання під назвою Трансформер, стався прорив в алгоритмах штучного інтелекту, що займаються розпізнаванням та генерацією текстів. Машини навчились генерувати цілі статті досить змістовного і логічного тексту на задану тематику, і вже сьогодні можна зустріти описи продуктів на сайтах і навіть рекламні слогани, створені алгоритмами штучного інтелекту.
Читайте також: Чи мають діти вчитися людських цінностей на алгоритмах?
Віртуальні асистенти спілкуються все краще, і здається, що безпілотні автомобілі – це питання найближчих років. Однак, створення справжнього штучного інтелекту, який би за своєю універсальністю та ефективністю прирівнювався до інтелекту середньостатистичної людини, все ще залишається невирішеним завданням. Ба більше, провідні вчені у сфері штучного інтелекту мають дуже туманні уявлення щодо того, в якому напрямку варто рухатися науці, аби врешті наблизитися до створення розумних машин. Очевидно, що методи, якими наразі вирішуються, наприклад, завдання з розпізнавання об’єктів на картинках, не можуть бути єдиним інструментом при створенні універсального штучного інтелекту – якщо лише для цього одного завдання знадобились мільйони вручну зроблених маркувань, то скільки знадобиться для розв’язання усіх інших завдань, що під силу людському інтелекту?
Звичайно, вчені мають певні ідеї щодо перспективних напрямків розвитку штучного інтелекту, але поки не видно очевидного шляху до створення справді розумних і універсальних машин. Тож, дехто вважає, що варто очікувати на чергову «зиму» штучного інтелекту, коли цікавість до цієї теми спаде, так само як і кількість нових ідей у наукових дослідженнях. Хоча, зважаючи на те, що штучний інтелект вже має практичне застосування у багатьох сферах, навряд чи ця тема зовсім згасне.