Надія Баловсяк Доцент кафедри медіакомунікацій УКУ

Переломний ШІ-момент. Чи дійсно людство близьке до створення штучного розуму

Наука
29 Листопада 2023, 12:14

Упродовж останніх двох тижнів технологічний світ спостерігав за подіями, що стосувалися компанії OpenAI, розробника усім відомого ChatGPT, та її керівника Сема Альмана, якого спочатку звільнили з посади CEO (виконавчого директора), а потім повернули. Експерти й учасники ринку сперечалися, із чим пов’язане усунення від виконання обов’язків людини, безпосередньо дотичної до створення продукту, який вибухнув на початку 2022 року й уже змінив освіту, ринок праці та й багато іншого. Версії озвучували дуже різні — від ідей про те, що світ спостерігає поділ влади в перспективній компанії, до припущень про можливі фінансові проблеми компанії та нестачу інших ресурсів. Тож буквально за кілька днів до перших новин про Альтмана компанія OpenAI після успішної конференції для розробників, на якій оголосили про низку важливих новинок, перестала реєструвати користувачів для платної підписки на ChatGPT.

Q-Star: нова зірка в сузір’ї продуктів OpenAI

Тривалий серіал із робочою назвою «Звільнення Сема Альмана» напередодні вихідних отримав новий поворот сюжету. Річ у тому, що кілька надійних джерел повідомили, що компанія OpenAI здійснила важливе відкриття у сфері штучного інтелекту. І воно таке серйозне, що може стати загрозою для людства. Власне, версію про конфлікт між засновниками компанії та їхні різні погляди на її подальший розвиток висловлювали, щойно стало відомо, що Альмана позбавили посади.

Після звернення журналістів технічна директорка OpenAI розповіла, що в компанії дійсно є проєкт із робочою назвою Q-Star (Q*), проте не розкрила його деталей. Натомість саме Q-Star журналісти Reuters, покликаючись на повідомлення від власних джерел у компанії, назвали тим проривним винаходом, який розсварив засновників.

Читайте також: Небезпечний ChatGPT. Чому багато компаній забороняють використовувати популярний чатбот

Перед звільненням Сема Альтмана група науковців і дослідників надіслала листа раді директорів і попередила про новий потужний алгоритм штучного інтелекту, який компанії вдалося створити. І що саме цей алгоритм (Q*) становить реальну загрозу існуванню людства. За словами науковців, Q* може стати поштовхом на шляху так званого загального штучного інтелекту, який ще часом називають сильним штучним інтелектом (СШІ). Головна його відмінність від звичайного (слабкого) штучного інтелекту (ШІ) полягає в тому, що він може в якийсь момент перевершити людський.

Тим часом поки достеменно невідомо, які саме здібності отримав Q*. За повідомленнями журналістів, ідеться про здатність розв’язувати математичні задачі на рівні школяра. Досягнення такої здатності для машинного інтелекту на цьому етапі викликало оптимізм й одночасно побоювання щодо подальшого його розвитку, оскільки саме спроможність зрозуміти основи математики, навчитися абстрактно мислити й розв’язувати нехай поки що нескладні задачі вважають ключовим етапом на шляху до створення загального штучного інтелекту.

Сильний штучний інтелект — чи людство наблизилося до ШІ-ідеалу

Ще в березні 2022 року після появи мовної моделі GPT-4 (якою послуговується чатбот ChatGPT) була опублікована стаття «Спалахи загального штучного інтелекту: ранні експерименти з GPT-4», що написали фахівці Microsoft.

Уже тоді дослідники говорили, що GPT-4 може розв’язувати нові задачі в різних галузях знань — від математики до медицини. «Аналізуючи можливості CPT-4, вважаємо, що її можна трактувати як ранню версію сильного штучного інтелекту (СШІ)», — підсумували вчені.

Читати такі відгуки експертів Microsoft людям, які спробували попрацювати із ChatGPT й побачили, який він винахідливий у придумуванні фактів, принаймні дивно. Недарма словом 2023 року, за версією Кембриджського словника, стало «галюцинувати» — саме цим терміном називають ситуацію, коли ШІ-чатбот намагається вимислити несправжні факти й запропонувати їх користувачам.

Проте незалежно від того, чи дійсно оцінка з боку Microsoft є реалістичною і чи наблизився проєкт Q* до сильного штучного інтелекту, будь-яка компанія, яка працює у сфері ШІ, намагатиметься створити СШІ — саме таким нині є найвищий щабель досягнень будь-якого ШІ-розробника.

Читайте також: Новий етап ШІ-революції. Чи стануть персоналізовані чатботи учасниками інформаційної війни

Отже, головна відмінність СШІ від ШІ полягає в тому, що сильний штучний інтелект може «думати» й ухвалювати рішення так, як людина або навіть краще за неї.

Якщо звичайний (слабкий) штучний інтелект виконує конкретні завдання (навіть доволі складні) — грає в шахи чи гру го, розпізнає об’єкти чи пише тексти, то сильний штучний інтелект здатен здійснити будь-яке завдання, яке може виконати людина.

За яких умов можна створити сильний штучний інтелект

Наразі сильний штучний інтелект є лише теоретичною концепцією, проте дослідники переконані, що за певних умов його можна буде досягти. Однією із цих умов є достатньо великий датасет, на якому навчатиметься ШІ. Уважають, що, наприклад, якщо штучний інтелект проаналізує всі твори Моцарта, то зможе сам написати симфонію чи принаймні сонату в стилі цього композитора. Реалістичність такої ситуації не викликає сумнівів уже на сьогоднішньому етапі розвитку ШІ, бо остання презентація OpenAI показала, що модель GPT-4 Turbo дає змогу «навчити» чатбот ChatGPT на певному наборі знань і він буде здатен відповідати на запитання, які принаймні ґрунтуватимуться на тому, що він знає. Скажімо, банк зможе створити власного ChatGPT, якого навчать на описі всіх процесів, кредитних лімітів і проблемних запитань, що ставлять клієнти. Такий чатбот зможе відповісти на довільне запитання будь-якого клієнта, і банку не потрібні будуть ні працівники техпідтримки, що працюють лише з бізнес-клієнтами, ні інші, які вміють працювати тільки у сфері обслуговування кредитних карток.

Другою умовою створення сильного штучного інтелекту є існування достатньої кількості обчислювальних потужностей, які б допомогли його створити й керувати ним. Ця ситуація поки що далека від реалізації. Хоча дефіцит чипів завершився або принаймні вийшов із критичної фази ще під час пандемії, проблема доступності мікросхем і технологій, потрібних для їх створення, є об’єктом протистояння між певними країнами, США й Китаєм зокрема, саме через необхідність використання чипів для потужностей штучного інтелекту. Однією з версій, чому OpenAI перестала реєструвати нових користувачів, є припущення про те, що компанія не має достатніх обчислювальних потужностей, здатних обробляти запити юзерів.

Читайте також: Закритий штучний інтелект. Чому OpenAI відмовляється від відкритого підходу до ChatGPT

І третя умова, потрібна для створення штучного інтелекту, — це алгоритмічна (програмна) частина. Простіше навчити штучний інтелект створювати тексти чи писати музику, аніж ухвалювати рішення в умовах невизначеності або бачити неочевидні закономірності чи нестандартні способи розв’язання проблем. Саме здатність навчатися, мислити абстрактно й самостійно вирішувати в складних умовах є однією з характеристик сильного штучного інтелекту. Створення СШІ потребує розроблення інтелектуальних систем, які здатні мислити, розуміти, уявляти, розв’язувати проблеми й навіть взаємодіяти з іншими системами й людьми на одному рівні з людським мисленням та інтелектом.

Попри давню теоретичну концепцію сильного штучного інтелекту, його існування і, найголовніше, допомога в його створенні є предметом тривалих дискусій. Деякі експерти вважають, що СШІ є лише питанням часу, тоді як інші припускають, що його поява може бути неможливою та навіть небезпечною. Можливості ChatGPT вельми обмежені, проте вже сьогодні багато компаній забороняють його використовувати. Розвиток ШІ загалом і наближення до штучного інтелекту знову повертає нас до концепції технологічної стриманості — штучним пригальмовуванням розвитку технології доти, доки не будуть вивчені всі проблемні моменти її розвитку.

Наслідки сильного штучного інтелекту

Розроблення сильного штучного інтелекту однозначно матиме глибокий вплив на людство. З одного боку, ця технологія може бути використана для розв’язання деяких найважливіших проблем світу, таких як бідність, хвороби й зміна клімату. З другого боку, СШІ буде здатен створити нову зброю та технології, які можуть представляти загрозу для людства. Шведський філософ і письменник Нік Бостром у своїй книжці «Суперінтелект. Стратегії і небезпеки розвитку розумних машин» застерігає, що вже сьогодні варто думати про сильний штучний інтелект, зараз встановлювати обмеження для нього й навіть намагатися навчити його емпатії та моралі. Як приклад такої потреби він наводить дуже просту ситуацію: уявіть собі, що штучному інтелектові поставили завдання робити скріпки. І не встановили обмежень. Він спочатку активує всі потужності, необхідні для створення скріпок, потім переплавить на скріпки все залізо Землі й водночас вбиватиме всіх, хто заважатиме йому виконувати ось це просте завдання.

Американський учений Джеффрі Гінтон, якого ще називають хрещеним батьком сучасного ШІ, у своєму інтерв’ю розповів про те, які небезпеки чекає людство за активного розвитку ШІ чи навіть появи СШІ. У розмові із журналістом Гінтон сказав, зокрема, таке: «Не варто думати, що Путін не захоче створити суперрозумних роботів, щоб убивати українців. Він би не вагався, якби тільки отримав таку можливість. І він зацікавлений у тому, щоб роботи самі робили це якнайкраще».

Суперечки в OpenAI, компанії, яка сьогодні є беззаперечним лідером на ринку штучного інтелекту, у певному розумінні відображають суперечки у світі про те, що дозволено, а що заборонено в технологічному розвитку і які саме важелі треба встановити вже сьогодні, щоб сильний штучний інтелект, до якого, схоже, наблизилися в компанії, не став глобальною проблемою людства.