Суспільство

  ▪   Катерина Койдан

Штучний інтелект: загроза чи незріла технологія

Фото: Artificial Intelligence Journal Elsevier
Компанія OpenAI, пов’язана з Ілоном Маском, представила алгоритм штучного інтелекту для генерації текстів, але заявила, що він несе загрозу суспільству, а тому не стала викладати модель у відкритий доступ. То чи реальною є ця загроза?

Нещодавно багатьма світовими ЗМІ пройшла інформація про нову розробку компанії OpenAI – алгоритм, який генерує текст на базі заданого контексту, і не лише продовжує думку, а й імітує тон та стиль наданого фрагменту. Незважаючи на поширену серед дослідників штучного інтелекту практику викладати у відкритий доступ код з новими розробками, компанія з назвою OpenAI і відповідною місією вирішила цього разу приховати свій алгоритм. Офіційна причина: модель несе потенційну небезпеку, оскільки працює настільки добре та генерує настільки переконливий текст, що потрапивши «не в ті руки», може бути використана для генерації фейкових новин та імітації авторських текстів.

 

Компанія OpenAI заснована Ілоном Маском та Семом Альтманом наприкінці 2015 року. Ілон Маск відомий своїми побоюваннями щодо розвитку штучного інтелекту, в тому числі він вважає  штучний інтелект найбільшою загрозою для існування людства. І як парадоксально це не звучить, саме тому він вирішив створити компанію, яка б зібрала найкращих дослідників з усього світу і стала б однією з передових лабораторій з розробки технологій штучного інтелекту.  Його логіка полягає у тому, щоб зробити дослідження максимально відкритими, і таким чином не дозволити комусь сконцентрувати у себе усі передові технології в цій сфері.

 

Читайте також: Універсальний кабель для зарядки, «розумний» постер та надлегкий підрахунок калорій

 

Такий підхід багато хто ставить під сумнів – так наприклад, філософ Нік Бостром зауважує, що «Якщо у вас є кнопка, яка може вчинити зі світом погані речі, ви навряд чи захочете, щоб така кнопка була у всіх». Та й сам Маск визнає, що намагаючись розвивати штучний інтелект у «правильному» руслі, можна ненароком створити ті самі технології щодо яких виникають побоювання.

 

Менш з тим, була створена неприбуткова організація OpenAI з місією розвивати технології штучного інтелекту максимально відкрито. До речі, сам Ілон Маск залишив свою позицію в Наглядовій Раді цієї компанії рік тому, залишившись при цьому донором організації. Причина – потенційний конфлікт інтересів у зв’язку з розвитком компанією Tesla технологій штучного інтелекту для безпілотних автомобілей.

 

І ось нещодавно OpenAI представила свій черговий прорив – алгоритм для генерації тексту. Як і інші, вже існуючі алгоритми в цій галузі, він побудований за принципом передбачення кожного наступного слова на основі інформації про попередні слова. Такі алгоритми не програмуються традиційним шляхом: «якщо попереднє слово таке-то, то наступне – таке-то». Алгоритм сам визначає, яке зі слів буде найбільш влучним, виходячи з минулого тексту. Для цього він багато «навчається», використовуючи величезні бази даних, що складаються з мільйонів текстів, написаних людьми.

 

 

Читайте також:  Як штучний інтелект піклується про здоров’я людей

 

Однак, незважаючи на доступ до матеріалів такого обсягу, сучасні алгоритми все ще не здатні генерувати достатньо якісний та послідовний текст. Окремі речення зазвичай виглядають досить змістовно, але послідовне висловлення думки впродовж кількох речень, як правило, є вже непосильною задачею для штучного інтелекту на теперішньому етапі його розвитку. Тут можна згадати цілком змістовні діалоги широковідомого робота Софії, але на жаль, всі її розмови є чітко запрограмованими, тобто все що вона озвучує було прописано людьми.

 

Тож, чи пропонує OpenAI щось революційно нове? Запропонована модель дійсно може генерувати цілі абзаци відносно послідовного та змістовного тексту. Такі результати були досягнуті завдяки побудові моделі, яка на відміну від минулих підходів, є більшою, тобто вимагає більших ресурсів для проведення розрахунків, а також має доступ до більшої бази даних – 45 мільйонів інтернет-сторінок. Тобто якихось кардинально нових підходів представлено не було.

 

Менш з тим, інші дослідники визнають, що модель дійсно дуже гарна, і демонстрація того, які результати можна досягти лише збільшивши модель та базу для її «навчання» також є вагомим внеском у розвиток цієї технології. Однак, ця робота не є екстраординарною і сприймається як закономірний наступний крок у розвитку технологій генерації текстів штучним інтелектом. То чи виправданим було рішення приховати цю модель від громадськості?

 

Читайте також: Смартфони майбутнього або як саме складатиметься екран вашого телефону?

 

Більшість вчених сходяться на думці, що побоювання щодо можливого зловживання представленою технологією є небезпідставними. Сьогодні багато хто наймає тисячі людей для написання фейкових новин та коментарів під дописами у соцмережах, але автоматична генерація такого контенту може істотно збільшити обсяги дезінформації у публічному просторі. І якщо виявити фейкове відео чи фото зазвичай досить просто, спростування неправдивих текстів, якщо вони дійсно якісно написані, може вимагати багато часу та ресурсів.

 

Однак, що викликає більше сумнівів у дослідницькій спільноті, так це реальні мотиви компанії OpenAI для приховання нової технології – багато, хто вважає, що компанія просто захотіла привернути більше уваги до своїх досліджень, а висловлювання про «штучний інтелект, який несе серйозну загрозу» як ніщо привертає увагу ЗМІ.