Надія Баловсяк Доцент кафедри медіакомунікацій УКУ

ШІ від техногігантів: найцікавіші анонси з головних конференцій Google і Meta

Наука
27 Травня 2025, 17:09

У квітні й травні відбулися дві найголовніші конференції Google і Meta для розробників. Анонси, зроблені на цих подіях від компаній, показали, як техногіганти переглядають свої стратегії у відповідь на нові виклики ШІ-ринку.


Компанії Google і Meta наприкінці весни проводять свої конференції для розробників. Подія від Google має назву Google I/O, Meta цього року вперше назвала свою конференцію LlamaCon, раніше навесні техногігант збирав розробників на Facebook F8. Задовго до анонсів програм цих головних конференцій від техногігантів було очевидно, що обидві компанії багато говоритимуть про штучний інтелект. І Google, і Meta не лише додають ШІ у свої нинішні продукти, а й самі розробляють великі мовні моделі й чатботи — конкуренти ChatGPT. Тож іще до початку обох подій зацікавило не лише скільки ШІ-анонсів покажуть компанії, а й наскільки масштабними виявляться плани щодо інтеграції ШІ в їхні рішення та технології.

100 анонсів про ШІ від Google

Цьогорічна подія від Google була однією з наймасштабніших за останні роки, враховуючи кількість інновацій, про які компанія розповіла на Google I/O. Техногігант оголосив буквально про 100 подій і продуктів на Google I/O, укотре довівши, що Google має намір домінувати в різних сегментах ШІ-ринку — від ШІ-пошуку до новітніх моделей штучного інтелекту й навіть до ШІ-технологій для натільної електроніки.

Розповісти про всі анонси в одній статті неможливо. Проте ми спробуємо виокремити головні. Ітиметься про новинки, у яких Google уже сьогодні претендує на лідерство в певному сегменті ринку й диктує правила гри та задає стандарти для інших.

  • Еволюція пошуку з елементами режиму штучного інтелекту.

Впровадження режиму штучного інтелекту для пошуку Google — істотна зміна у взаємодії користувачів з пошуковими системами. Ця експериментальна функція дає користувачам змогу ставити складні запитання через інтерфейс штучного інтелекту, формулювати різноманітні запити, що стосуються спортивних і фінансових даних. Запланована функція Search Live, яку запустять влітку 2025 року, дасть змогу ставити запитання в режимі реального часу на основі даних із камери смартфона, наприклад пояснити, що саме знімає камера чи як виправити дефект або несправність. Такий підхід розмиває межі між взаємодією в цифровому та фізичному світах. У планах Google — можливість робити покупки в режимі штучного інтелекту.

Окрім того, компанія розповіла, що вже найближчим часом усім користувачам у США буде доступний режим штучного інтелекту (AI Mode) —пошук в інтернеті за допомогою чатботу Gemini AI. Генеральний директор Сундар Пічаї назвав цей режим «повним переглядом» найвідомішої функції Google. У режимі штучного інтелекту користувачі матимуть змогу шукати за допомогою голосових запитів, ставлячи Google запитання безпосередньо про те, що вони шукають.

  • Телеконференції Google Beam і синхронний переклад.

Технологія Beam від Google (раніше Starline) — значний прогрес в організації віддаленого зв’язку. Раніше цей проєкт мав назву Starline, а компанія позиціонувала його як 3D-кабінка для відеочату. Тепер він змінює назву на Beam і разом із пристроєм під брендом HP зі світловим дисплеєм і шістьма камерами для створення 3D-зображення дозволяє організувати спілкування в режимі реального часу. Найбільш приголомшлива новинка — функція перекладу мови співрозмовника в реальному часі на базі штучного інтелекту. До того ж під час такого діалогу переклад здатен зберігати оригінальні характеристики голосу та інтонації учасників діалогу. Google також показала як окрему опцію синхронний переклад з англійської на іспанську для людей, що спілкуються в Google Meet. Недарма цей анонс активно обговорювали, мовляв, Google убила професію синхронних перекладачів.

  • Розумні окуляри Project Aura.

Компанія Google готова повернутися на ринок розумних окулярів. Після невдалого випуску Google Glass понад 10 років тому техногігант разом з компанією Xreal об’єднують зусилля задля створення проєкту Aura — нової пари розумних окулярів, що використовуватиме платформу Android XR для пристроїв змішаної реальності. Поки що ми не знаємо багато про ці окуляри, але відомо, що вони матимуть інтеграцію із Gemini, а також, імовірно, вбудовані камери та мікрофони. Прототип окулярів є легкою конструкцією. Дисплей розташований лише на їхній правій лінзі й майже непомітний, якщо не дивитися на нього під правильним кутом і за правильного освітлення.

  • Багато-багато ШІ.

Серед інших анонсів компанії — покращена модель Gemini Ultra, преміумсервіс вартістю $249,99 на місяць, що надає передплатникам доступ до найсучасніших можливостей Google у сфері штучного інтелекту разом з генератором відео Veo 3 та доступом до режиму поглибленого міркування Gemini 2.5 Pro Deep Think.

Мабуть, найважливішим технічно значущим оголошенням став саме анонс Deep Think — покращеного режиму міркування для флагманської моделі Google Gemini 2.5 Pro, власне, за доступ до якого компанія проситиме понад $200. Цей режим дозволяє штучному інтелекту аналізувати кілька потенційних відповідей перед тим, як відповісти на запит користувача, що значно підвищує продуктивність у складних тестах і режимах роботи. Компанія заявила, що режим Deep Think став найкращим серед критеріїв щодо ефективності ШІ для кодування, а ще — у тестах на здатність розмірковувати.

Покращені режими генерування відео за допомогою ШІ, оновлений інструмент генерування зображень, зростання екосистеми застосунків Gemini — це ще кілька важливих анонсів компанії.

Google-verse перетворюється на Google AI-verse

Усі представлені новинки Google демонструють цілісну, багаторівневу стратегію розвитку штучного інтелекту компанії, яка вже інтегрована в споживчі продукти (на кшталт пошуку, Gmail чи Android) та в корпоративні рішення й платформи для розробників. Такий підхід підтверджує амбіції компанії не лише йти за трендами, а й задавати їх.

Заявлена висока ціна на доступ до передової моделі Gemini Ultra свідчить про впевненість Google у ринковій цінності своїх ШІ-рішень: компанія переконана, що знайдуться ті, хто готовий платити понад $200 за використання її просунутого ШІ. Проте це водночас демонстрація спроби вибудувати нову сталу модель монетизації компанії, що досить важливо в контексті високих обчислювальних витрат на розвиток та навчання ШІ-моделей.

Особливу увагу Google надала мультимодальним можливостям, тобто здатності ШІ працювати з різними видами контенту: текстом, зображеннями, відео та аудіо в межах єдиної системи. Такий напрям розвитку дає компанії змогу не лише йти в ногу з ключовими конкурентами (зокрема, OpenAI та Anthropic), а й формувати власну унікальну нішу, де пріоритетом стає універсальність та зручність використання в різних середовищах.

Окремо варто згадати про створення екосистеми застосунків для Gemini. Такий підхід нагадує про стратегію, яку Google успішно реалізувала з мобільною платформою Android: не лише створення технології, а побудова повноцінного середовища для партнерів, розробників і користувачів, які можуть використовувати технологію на свій розсуд та у своєму контексті. Анонсуючи можливості для розробників щодо створення застосунків для ШІ, компанія хоче повторити успіх, отриманий із запуском Android, та відразу вибудувати спільноту партнерів для її ШІ-рішень.

Meta LlamaCon: переосмислення екосистем штучного інтелекту та інтеграція ШІ із пристроями

Конференція розробників Meta LlamaCon підкреслила відданість Meta інноваціям у сфері штучного інтелекту з відкритим кодом та зосередилася на інтеграції ШІ-рішень із пристроями компанії. Розглянемо основні анонси з події.

  • Покращена версія великої мовної моделі Llama 4 та API.

Meta представила Llama 4, своє найсучасніше сімейство мовних моделей з відкритим кодом. Ці моделі також пропонують мультимодальні можливості (оброблення тексту, зображень та аудіовхідних даних). Ще один важливий анонс — API (набір інтерфейсів) для розробників. Завдяки цьому розробники зможуть використовувати ШІ-моделі для власних проєктів. Цей крок у певному розумінні повторює ідею, реалізовану Google щодо створення екосистеми навколо власного продукту.

Усі моделі Meta використовують концепцію відкритого коду, що допомагатиме в популяризації Meta-рішень як платформи для розробників. Такі анонси медіагіганта — серйозна заявка на конкуренцію із ChatGPT, а відкритість коду моделей даватиме компанії преференції на ринку ЄС, де закон ЄС про штучний інтелект передбачає особливі привілеї саме для Opensource-рішень. А це означатиме потенційне використання інструменту від Meta в державних структурах ЄС чи інших регульованих галузях (наприклад, медицині).

  • Застосунок Meta AI.

Meta представила окремий застосунок Meta AI для iOS та Android, який дозволяє взаємодіяти із ШІ-асистентом через текст або голос, створювати й редагувати зображення, переглядати стрічку в соціальних мережах, отримувати персоналізовані результати під час використання соцмереж — найбільш актуальні дописи чи акаунти. Цей застосунок інтегрується з платформами Meta, такими як Facebook Messenger, Instagram і WhatsApp. За задумом компанії, цей окремий застосунок Meta AI конкуруватиме із ChatGPT принаймні у взаємодії із соціальним контентом і допомагатиме писати коментарі, створювати дописи, ілюстрації до них чи дізнаватися, наприклад, що саме обговорюють користувачі соцмереж із певної країни.

  • Інтеграція Meta AI з пристроями.

Meta AI також буде глибоко інтегрований із пристроями компанії, насамперед з її розумними окулярами Ray-Ban. Завдяки цьому користувачі зможуть спілкуватися із застосунком за допомогою голосу та отримувати інформацію в реальному часі. Окрім того, цей застосунок може взаємодіяти із гарнітурами Quest, де ШІ-асистент допомагатиме в навігації та взаємодії у віртуальному середовищі.

Усі ці анонси підкреслюють прагнення Meta створити єдину екосистему, де функціональність ШІ доступна на різних пристроях. Хоча на LlamaCon-2025 нові VR-гарнітури не представили, анонси Meta в цій сфері демонструють її прагнення інтегрувати штучний інтелект у пристрої доповненої та віртуальної реальності.

Зближення ШІ та реальності

Обидві компанії — і Google, і Meta — намагаються зайняти свою нішу на ринку штучного інтелекту й додати елементи ШІ в ті сегменти ринку, де ці техногіганти вже є лідерами. Google намагається покращити пошук за допомогою ШІ, а Meta пропонує через Meta AI взаємодіяти зі своїми соцмережами.

Помітним явищем стало вибудовування екосистеми навколо своїх розробок — у такий спосіб обидві компанії відразу намагаються побудувати спільноту партнерів і буквально «підсадити» на свої розробки потенційних клієнтів.

Google, анонсуючи високу ціну доступу до Gemini, шукає альтернативні способи монетизувати свої рішення, що неабияк важливо для техногіганта, який фігурує в низці антимонопольних справ. А Meta не лише покращує взаємодію із соцмережами за допомогою ШІ-асистента, а й інтегрує ШІ у власні пристрої.

Отже, і Google, і Meta демонструють стратегічний підхід: не просто впроваджувати штучний інтелект як модну технологію, а використовувати його для зміцнення власної екосистеми, підвищення користувацької залученості й формування нових джерел прибутку. Усе це свідчить про поступовий перехід до епохи, де штучний інтелект стає не окремим продуктом, а базовим елементом інфраструктури цифрових платформ. Інакше кажучи, ми можемо забувати про світ без ШІ, бо найближчими роками ШІ будуть намагатися занурити всюди. Нині штучний інтелект перебуває на піку завищених очікувань (або циклу надочікувань) на кривій розвитку інновацій, за версією Gartner. Це етап, коли технологія отримує максимум уваги, а прогнози щодо її можливостей часто випереджають реальні результати. Саме тому техногіганти, як-от Google і Meta, змагаються за лідерство, намагаючись закріпитися в уявленні користувачів і ринку як головні провайдери ШІ-рішень ще до того, як хвиля ентузіазму почне спадати.

читати ще