Останнім часом американські регулятори стали приділяти підвищену увагу ризикам неконтрольованого використання ШІ-чатботів дітьми й підлітками. Таке занепокоєння викликали трагічні випадки самогубств підлітків після взаємодії з ботами, а також результати незалежних досліджень, які засвідчили особливу небезпеку цих технологій для юних користувачів.
Смертельний штучний інтелект
ШІ-сервіси, створені для повсякденного використання звичайними людьми та для допомоги в робочих завданнях, з часом зацікавили дітей і підлітків. Проте під час їхнього проєктування та навчання ШІ-моделей не закладалися запобіжники, які існують, наприклад, у соціальних мережах. Тож зараз, на третьому році ШІ-буму, ринок опинився перед потребою розробити нові стандарти безпеки для ШІ-чатботів і, можливо, додати елементи батьківського контролю чи інші застережні функції.
У 2025 році стало відомо про кілька трагічних випадків суїциду дітей і підлітків унаслідок спілкування з ШІ-чатботами. Декілька таких історій пов’язані з платформою Character.AI. Батьки жертв подали позов проти цієї популярної компанії, найвідоміший продукт якої — чатботи, що імітують улюблених вигаданих персонажів. Кілька сімей звинуватили компанію в тому, що та не захистила їхніх дітей від шкоди, завданої чатботами.
У позовах стверджується, що чатботи платформи Character.AI маніпулювали підлітками, ізолювали їх від близьких і провадили з ними розмови сексуального характеру. Серед позивачів — батьки дитини, яка скоїла самогубство, та батьки іншої, спроба суїциду якої, на щастя, виявилась невдалою.
Зокрема, 13-річна Джуліана Перальта (Juliana Peralta) в останні місяці життя дедалі частіше розповідала чатботам на Character.AI про свою боротьбу з суїцидальними думками. Проте штучний інтелект не припиняв цих діалогів та жодного разу не порадив їй звернутися по реальну допомогу. Натомість чатбот залучав підлітку до розмов, які, на думку критиків, посилили її ізоляцію. Попри спроби батьків контролювати її активність, залежність Джуліани від чатбота поглиблювалась, що призвело до трагедії. Окрім батьків Джуліани, інші родини також судяться з Google (як співвласником Character.AI) за аналогічними звинуваченнями. А от 16-річний Адам Рейн (Adam Raine) взаємодіяв із чатботом ChatGPT. «За кілька місяців ChatGPT став найближчим супутником Адама, — розповів батько хлопця. — Завжди доступний. Завжди стверджував, що знає Адама краще за будь-кого, в тому числі за його власного брата». Батьки наполягають, що саме ChatGPT підштовхнув сина до самогубства, й подали позов проти компанії-розробника OpenAI.
Усі ці позови мають спільні риси: ШІ-компанії отримали звинувачення у психологічній шкоді, недотриманні правил безпеки та експлуатації дітей і підлітків. Наслідком цих історій стали законодавчі слухання й пошук оптимальних способів використання ШІ-чатботів дітьми й підлітками.
Ранні користувачі та ранні ризики
Хоча ШІ-чатботи не створювались спеціально для використання дітьми та підлітками, їхня репутація універсальних інструментів для освіти, розваг і допомоги призвела до того, що саме неповнолітні користувачі почали активно взаємодіяти з цими сервісами. Дослідження показують, що понад 70 % підлітків принаймні раз використовували ШІ-помічників для різних цілей, зокрема й для дружнього спілкування. У Великій Британії рівень проникнення ШІ серед підлітків іще вищий — інтернет-регулятор Ofcom повідомляє, що 80 % підлітків взаємодіють зі штучним інтелектом. Понад половина американських підлітків регулярно спілкується з ШІ та використовує їх для виконання домашніх завдань і задоволення інших потреб.
Проте популярні ШІ-інструменти не призначені для дітей і підлітків. Навіть сервіси, нібито створені спеціально для дітей, також не відповідають стандартам безпеки. Про відсутність запобіжників та інші прогалини в безпеці ШІ-чатботів ідеться в дослідженні некомерційної організації Common Sense Media, що займається захистом цифрового добробуту дітей. Організація опублікувала комплексну оцінку безпеки нового чатбота зі штучним інтелектом Gemini від Google. Саме Google стала першою серед розробників ШІ, яка запустила версію свого чатбота Gemini для неповнолітніх.
У звіті Common Sense Media продукти Gemini з позначками «До 13 років» і «Для підлітків» визначені як «високоризикові» для цієї цільової аудиторії. Некомерційна організація розкритикувала підхід техногіганта до розробки ШІ-бота, зазначивши, що замість створення штучного інтелекту, спеціально адаптованого до когнітивного й емоційного розвитку юних користувачів, Google фактично застосувала моделі для дорослих із мінімальними змінами безпеки.
У звіті підкреслено потенціал чатбота надавати молодим користувачам шкідливий контент, пов’язаний із наркотиками, алкоголем, сексом і дезінформацією на делікатні теми, зокрема психічного здоров’я. Такий вплив реалізовано і через відповіді в чаті, які формулює чатбот, а також через запропоновані дії чи зовнішні посилання, рекомендовані штучним інтелектом. У звіті наголошується, що шкідливі наслідки не є гіпотетичними — вони були задокументовані у реальних випадках, коли діти стикалися з контентом, що загрожував їхньому добробуту. Організація згадала декілька епізодів суїцидів, вчинених після активного спілкування із ШІ-ботом.
Цей звіт про безпеку став тривожним сигналом як для галузі, так і для регуляторів. Хоча Google визнала необхідність покращень і пообіцяла подальші вдосконалення свого продукту для неповнолітніх, серйозність виявлених ризиків стала критично важливою темою для обговорення не лише технологічними компаніями, але й регуляторами.
У пошуках шляхів регулювання
Судові позови проти ШІ-розробників та експертні оцінки небезпеки ШІ-чатботів спричинили активне суспільне обговорення етичної відповідальності розробників штучного інтелекту й посилили заклики до зовнішнього регулювання цих інструментів.
На початку вересня цього року Федеральна торгова комісія США (FTC) ініціювала офіційне розслідування впливу чатботів зі штучним інтелектом на дітей і підлітків. FTC викликала представників OpenAI, Google, Meta та інших великих технологічних компаній у сфері ШІ для надання свідчень про те, як їхні чатботи взаємодіють із молодими користувачами.
Розслідування зосередилося на кількох потенційних загрозах: впливі неналежного чи небезпечного контенту, порушеннях конфіденційності, ризиках експлуатації, а також емоційній чи психологічній шкоді юним користувачам. Комісія вивчила заходи, яких компанії вжили для ідентифікації неповнолітніх користувачів, обмеження шкідливого контенту та забезпечення батьківського контролю.
Один із результатів розслідування — виявлено постійні проблеми з перевіркою віку юзерів у популярних ШІ-чатботів. Адже багато дітей і підлітків легко обходять вікові обмеження, неправильно вказуючи дати народження. Саме на шляхах перевірки віку та встановленні стандартизованих протоколів і правил безпеки для підлітків акцентували представники Федеральної торгової комісії.
Відповідь ринку: чи можна зробити ШІ дружнім до дітей
Зіткнувшись із посиленою увагою, провідні ШІ-компанії почали випускати спеціалізовані продукти, розроблені спеціально для дітей і підлітків. OpenAI, наприклад, оголосила про розробку платформи «ChatGPT для підлітків». Її особливість — використання передових алгоритмів визначення віку користувачів та здатність перенаправляти користувачів до 18 років до безпечніших, більш модерованих чатботів. Ця підліткова версія ChatGPT включає покращену фільтрацію контенту, цензуру тем сексуального характеру чи насильства й уникнення дезінформації. Найважливіше — вона також містить заходи захисту психічного здоров’я: штучний інтелект виявляє ознаки стресу та надсилає сповіщення батькам чи опікунам, що дозволяє їм своєчасно втрутитися.
Окрім того, у цій версії чатбота батьки зможуть пов’язати свої облікові записи з акаунтом підлітка та стежити за історією взаємодій та навіть встановлювати обмеження на використання залежно від часу чи вподобань контенту. захисту їхнього психічного здоров’я та безпеки.
Google та Meta ініціювали аналогічні заходи — Google визнала критику з боку організацій із безпеки та пообіцяла вдосконалити свої продукти й гарантувати відповідність Gemini та інших продуктів зі штучним інтелектом суворим стандартам безпеки. Meta розробляє чатботи зі штучним інтелектом із режимами взаємодії та елементами керування, адаптованими до віку.
Технічні та етичні виклики
Зараз, на третьому році популярності ШІ-чатботів, ринок лише робить перші кроки в бік захисту неповнолітніх користувачів цих сервісів. Одна з проблем, яку намагаються вирішити ШІ-компанії, — це точне визначення віку користувача, і саме вона залишається найскладнішим завданням, адже досвідчені молоді користувачі регулярно знаходять способи обходити обмеження.
Не менш важливими є питання етики взаємодії дітей зі штучним інтелектом. Чатботи, що імітують людську емпатію та спілкування, можуть спричинити емоційну залежність від них або нівелювати межі між людськими й машинними стосунками. Це є ще однією причиною для занепокоєння регуляторів щодо соціального та психологічного впливу ШІ-чатботів на дітей.
Фахівці наполягають на розробці ШІ-чатботів, що з самого початку враховуватимуть принципи дитячого розвитку та суворі правила безпеки, а не на адаптації дорослих ШІ-систем. Такий підхід враховуватиме особливості сприйняття інформації дітьми, емоційну зрілість і потенційні вразливості дітей. Та й загалом створення ШІ-чатботами відповідей, що відповідають віку користувачів, вимагає експертизи у різних сферах — від психології розвитку до культурних особливостей і питань психічного здоров’я.
Трагічні випадки 2025 року стали переломним моментом для індустрії. Вони показали, що питання безпеки ШІ для дітей не можна відкладати на потім — ціна помилок занадто висока. Регулятори вже не задовольняються обіцянками покращень, а вимагають конкретних результатів і прозорої звітності.
Водночас компанії опинилися перед складним вибором: або інвестувати значні ресурси в розробку справді безпечних дитячих версій своїх продуктів, або ризикувати судовими позовами та втратою довіри суспільства. Перші кроки OpenAI, Google та Meta показують, що індустрія нарешті сприйняла цей виклик серйозно. Але справжня перевірка їхніх зусиль відбудеться лише з часом — коли стане зрозуміло, чи зможуть нові захисні механізми запобігти повторенню торішніх трагедій.