Надія Баловсяк Доцент кафедри медіакомунікацій УКУ

Небезпечний ChatGPT. Чому багато компаній забороняють використовувати популярний чатбот

Наука
28 Червня 2023, 15:29

Чатбот ChatGPT виявився чудовим помічником у багатьох професіях. Попри це, нещодавні новини стосовно нього пов’язані із заборонами цього інструмента (і його аналогів) різними компаніями. Заборони й обмеження стали настільки масовими, що можна казати про новий тренд AI-обмежень, до якого почасти долучаються цілі країни.

Наприклад, нещодавно компанія Samsung Electronics припинила використовувати генеративний штучний інтелект і ChatGPT та його аналоги й одночасно заборонила співробітникам використовувати ці технології для робочих завдань. Це відбулося після того, як один інженер скопіював конфіденційний вихідний код у ChatGPT. Заборона з боку Samsung передбачає, що співробітники не можуть використовувати ChatGPT й одночасно передавати чатботу будь-яку корпоративну або особисту інформацію. Однією з проблем ChatGPT та інших AI-інструментів, на думку співробітників Samsung, є те, що передані чатботу дані зберігатимуться на серверах компаній-власників без змоги отримати доступ до них або видалити інформацію. Інакше кажучи, передавання інформації чатботу означає втрату контролю над нею.

Інвестиційний банк США JPMorgan ще на початку року обмежив використання ChatGPT для працівників. Таке ж рішення ухвалили керівники низки інших банків: Bank of America, Citigroup, Deutsche Bank, Wells Fargo та Goldman Sachs. Так само Amazon попередив свій персонал, щоб він не завантажував конфіденційну інформацію, зокрема коди додатків та інструментів, у ChatGPT.

До списку ChatGPT-антагоністів нещодавно долучилася й Apple, яка заборонила використовувати генеративні платформи штучного інтелекту на робочих місцях через побоювання, що так можуть розкрити конфіденційні внутрішні дані.

Читайте також: Закон про штучний інтелект і права людини. Чи зможе Європа регулювати цю технологію?

Цікаво, що й компанія Google, яка розробляє власний чатбот Bard, попередила працівників, щоб ті не передавали будь-яким чатботам конфіденційну інформацію загалом і комп’ютерний код зокрема. Пояснюючи причини цих застережень, у Google заявили, що чатботи використовують усі введені дані для навчання, тож потенційно ці дані можуть використати у формуванні відповіді іншим користувачам.

Аудиторська компанія PwC заохочувала співробітників вивчати ChatGPT, але попередила їх не використовувати програму для роботи з клієнтами. «Наша політика не дозволяє співробітникам використовувати ChatGPT для використання у взаємодії з клієнтами», — пояснював Джекі Віш, директор із цифрової інформації PwC.

Близько 15 % американських юридичних фірм випустили попередження щодо ChatGPT, а деякі, наприклад Mishcon de Reya, заборонили використовувати AI-платформи через ризики витоку конфіденційних даних.

У квітні італійська служба захисту даних заборонила використовувати в країні ChatGPT, аргументувавши це рішення можливістю перегляду заголовків бесід із чатботом усіма користувачами. У відповідь на це компанія OpenAI удосконалила свій інструмент. ChatGPT навчився видаляти дані взаємодії з користувачами, тобто історію запитів та історію чатів. Сервіс знову став доступним в країні. Проте запитань щодо конфіденційності інформації, яку отримує чатбот, та її захисту не поменшало.

Як ChatGPT став кошмаром приватності: дані як паливо для чатбота 

Якщо проаналізувати угоду з користувачем сервісу ChatGPT, то можна побачити, що онлайн-сервіс збирає інформацію з трьох джерел. По-перше, це дані акаунта користувача, по-друге, усі відомості, які той уводить у чатбот, і по-третє, ідентифікаційні дані, які він отримує з пристрою чи браузера, наприклад IP-адреса та місце перебування.

Це означає, що якщо, наприклад, ви попросите ChatGPT знайти помилку в коді й передасте йому фрагмент цього коду, то чатбот збереже дані та зможе використати їх для формування відповідей іншим користувачам. Якщо когось зацікавить запитання, відповісти на яке можна вашим фрагментом коду, ChatGPT зробить це — звісно, якщо ви не видалите передані чатботу дані. Навіть так бот скористається вашими даними для навчання й формування відповідей, можливо, не настільки однозначно схожих. Тож якщо ви передаєте чатботу свої дані, персональну інформацію чи відомості, які несуть комерційну чи іншу таємницю, то ChatGPT зможе розкрити їх іншим користувачам.

Адвокат може запропонувати чатботу проаналізувати зміст секретної угоди, яку той потім передасть як відповідь іншим. Аналогічна ситуація може статися з фрагментом коду комп’ютерної програми. Так дані, які передали користувачами ChatGPT, стають частиною штучного інтелекту.

Читайте також: Закритий штучний інтелект. Чому OpenAI відмовляється від відкритого підходу до ChatGPT

Мовна модель (language model), що лежить в основі ChatGPT, використовувала великі обсяги даних для свого навчання й роботи та робить це донині. І це теж ризик для конфіденційності.

Аналізування експертів показало, що компанія-розробник ChatGPT сформувала базу даних, яка складається з приблизно 300 млрд слів, відібраних із книжок, статей, вебсайтів і публікацій, а ще з приблизно такого самого обсягу даних про фізичних осіб. Причому в другому випадку, найімовірніше, ідеться про умовно «персональні дані», які, проте, отримали із «загальнодоступних джерел». Водночас ніхто з власників цих даних — людей, яких вони стосуються, — не дозволяв використовувати відомості для навчання й роботи чатбота.

Дані без дозволу й доступу

Ще одна серйозна проблема, на якій наголошують експерти з приватності, полягає в тому, що звичайна людина не має змоги перевірити, чи дані про неї збережені в базах, якими оперують чатботи. Так само в людини немає змоги вимагати видалити ці дані, що безпосередньо порушує європейський Загальний регламент захисту даних (GDPR).

Іншим проблемним аргументом щодо ChatGPT та його роботи з даними є використання для навчання чатботів захищених авторськими правами даних. Хоча цей момент потребує окремого вивчення та спеціального юридичного тлумачення.

Додатковою проблемою є те, що компанія OpenAI може ділитися особистою інформацією користувачів із невизначеними третіми сторонами «для досягнення своїх бізнес-цілей». В угоді з користувачами ChatGPT сказано, що цей інструмент може збирати особисту інформацію з повідомлень, будь-яких файлів, які ви завантажуєте, і будь-яких відгуків, які надаєте. У документі зазначено, що розмови користувача з чатботом можуть переглядати тренери штучного інтелекту — для подальшого вдосконалення сервісу.

Читайте також: Синтетичний автор. Чи стане ChatGPT початком технологічної революції

OpenAI надає дуже узагальнену інформацію про те, з ким і навіщо компанія ділиться даними користувачів. Вона може передати дані таким сторонам, як продавці та постачальники послуг, інші компанії та юридичні особи.

Як захиститися від штучного інтелекту: поради для звичайного користувача

Звичайній людині під час використання чатбота (якщо це не забороняє її роботодавець) можна дотримуватися нескладних правил, що покращать безпеку та приватність.

Перше правило — не ділитися конфіденційною інформацією із ChatGPT. Не зайвим буде використовувати VPN для шифрування трафіку. Це одночасно замаскує вашу IP-адресу та місце перебування.

Друге правило — вимкнути історію чату в налаштуваннях свого облікового запису. Ця опція означає, що ваші розмови із ChatGPT видалять через 30 днів. Проте ChatGPT не припинить навчатися за вашими даними. Щоб відмовитися від використання вашої особистої та приватної інформації для навчання ChatGPT, заповніть форму Google про відмову від надання ваших даних для цієї мети.

Занадто швидкий прогрес

Поява ChatGPT стала справді переломним моментом для штучного інтелекту — технології, яка може змінити нашу роботу, навчання й створення контенту. Однак усвідомлення ризиків цього інструмента й штучного інтелекту загалом втілюються у відмові самої компанії OpenAI від відкритого підходу в розробленні ChatGPT, а ще в оперативному ухваленні законів, які регулюватимуть AI-технології.

Проте навіть цих безпрецедентних обмежувальних кроків може виявитися недостатньо, щоб ChatGPT не перетворився на нічний кошмар конфіденційності даних чи універсальну кіберзагрозу для конкретного користувача й людства загалом.

Штучний інтелект став, мабуть, першою настільки масштабною технологією, для якої актуальна технологічна стриманість і пошук компромісу між виваженістю з одного боку й прогресом з іншого. За появою ChatGPT йшли власні обмеження OpenAI та закони, що регулюватимуть штучний інтелект. Краще усвідомлення ризиків ChatGPT та аналогів призведе до ще чіткіших «технологічних червоних ліній», які завадять штучному інтелекту перетворитися на безконтрольного технологічного монстра.