Google I/O 2025 obfitowało w przełomowe ogłoszenia dotyczące sztucznej inteligencji, oprogramowania i usług firmy Google. Tegoroczna konferencja skupiła się na integracji modelu AI Gemini z różnymi produktami (od wyszukiwarki po Androida), a także przyniosła zapowiedzi nowego sprzętu i funkcji dla deweloperów.
Przyzwyczailiśmy się już do sztampowego stwierdzenia, że „świat galopuje”, ale w obecnych czasach nabiera ono naprawdę nowego sensu. Skoku w AI, jaki co roku wykonują takie firmy jak Apple, Amazon, Microsoft czy Google, chyba nikt nie był w stanie przewidzieć.
Sztuczna inteligencja Gemini na pierwszym planie
Gemini, najnowsza generacja modeli AI od Google, była centralnym punktem wielu ogłoszeń. Usługa Google AI Premium została przemianowana na Google AI Pro (wciąż za 19,99 USD miesięcznie), a dodatkowo wprowadzono nowy, najwyższy plan Google AI Ultra za 249,99 USD miesięcznie. Użytkownicy Ultra uzyskują dostęp do najnowszych i najmocniejszych modeli oraz funkcji – m.in. wcześniejszy dostęp do trybu Deep Think w modelu Gemini 2.5, oferującego zaawansowane rozumowanie (np. w matematyce, kodowaniu). Google pochwaliło się też wydajnością Gemini 2.5 Flash, który wyszedł z fazy podglądu, zapewniając zauważalne wzrosty szybkości i efektywności działania. Wbudowane modele generatywne obrazu Imagen 4 i wideo Veo 3 również zostały ulepszone – Imagen tworzy teraz jeszcze bardziej szczegółowe grafiki i lepiej radzi sobie z tekstem na obrazach, a Veo umożliwia generowanie ścieżek dźwiękowych do tworzonych filmów.
Nowe funkcje Gemini: Aplikacja Gemini stała się jeszcze bardziej wszechstronna. Użytkownicy mogą teraz zamieniać tekst napisany w trybie Canvas na inne formy – np. automatycznie wygenerować z niego stronę internetową, infografikę, quiz czy streszczenie audio. Model Gemini potrafi również tworzyć interaktywne quizy na podstawie podanych treści. Z kolei tryb Deep Research (głęboki risercz) pozwala teraz przesyłać własne pliki PDF i obrazy, które zostaną uwzględnione przy opracowywaniu odpowiedzi – łączenie danych prywatnych z publiczną wiedzą ma uczynić wyniki bardziej precyzyjnymi. Co więcej, Gemini integruje się z popularnymi narzędziami Google – już wkrótce rozszerzenia Gemini Live zyskają możliwość korzystania z aplikacji takich jak Kalendarz, Keep, Mapy czy Zadania, aby automatycznie pobierać z nich informacje.
Gemini jako asystent wieloplatformowy: Google zaprezentowało postępy projektu Astra, który pokazywano w poprzednich latach jako wizję uniwersalnego asystenta. Teraz wiele z tych możliwości trafia do produktów konsumenckich. Przykładowo Gemini potrafi, korzystając ze zdolności Astra, przejąć kontrolę nad telefonem z Androidem – na żądanie użytkownika może nawigować po aplikacjach czy nawet wykonać połączenie telefoniczne. Ponadto Gemini Live (asystent działający w czasie rzeczywistym) trafi nie tylko na urządzenia mobilne, ale także do przeglądarki Chrome na komputerach (Windows i Mac). Na początek umożliwi to zadawanie pytań dotyczących aktualnie przeglądanej strony internetowej, a docelowo także sterowanie nawigacją po witrynie za pomocą poleceń głosowych. Google zapowiedziało również tryb Agent Mode oparty na projekcie Mariner, dostępny dla użytkowników planu Ultra. Agent Mode to asystent, który potrafi wykonywać złożone zadania, samodzielnie przeglądając internet – np. zbierać informacje czy dokonywać operacji online na polecenie użytkownika. W ten sposób Gemini zaczyna pełnić rolę prawdziwie agentowego AI, mogącego automatycznie realizować polecenia wykraczające poza jedną aplikację.
Inteligentne wyszukiwanie z trybem AI
Kolejnym filarem I/O 2025 były zmiany w Wyszukiwarce Google. Ogłoszono, że eksperymentalny dotąd Tryb AI w wyszukiwarce (AI Mode) zostaje udostępniony wszystkim użytkownikom w USA. Tryb AI to specjalna zakładka w wynikach wyszukiwania, w której użytkownik może zadawać złożone pytania w języku naturalnym i otrzymywać rozbudowane, bezpośrednie odpowiedzi generowane przez AI. W przeciwieństwie do pojawiających się od pewnego czasu skrótowych „podsumowań AI” na górze wyników (AI Overviews), tryb AI pozwala drążyć temat poprzez konwersację – bardziej jak interakcja z asystentem niż tradycyjne wyszukiwanie. Silnik tych funkcji to dostosowany model Gemini 2.5, który zasila zarówno tryb AI, jak i ulepszone podsumowania w wyszukiwarce.
Personalizacja wyników: Tryb AI w wyszukiwarce zacznie wkrótce uwzględniać kontekst osobisty użytkownika – Google podało, że integruje dane z usług takich jak Gmail, aby odpowiedzi mogły być bardziej dopasowane do preferencji i informacji użytkownika. Oznacza to, że jeśli wyrazimy zgodę, AI uwzględni np. nasze rezerwacje z Gmaila czy ulubione tematy, by dostarczać spersonalizowane wyniki.
Wizualizacja i zakupy: Nowa wyszukiwarka AI nie ograniczy się do tekstu. W odpowiedziach generowanych przez AI pojawią się wykresy i grafiki, które pomogą zobrazować zapytania – np. statystyki sportowe czy finansowe. Dodatkowo Google integruje zakupy z AI – podczas wyszukiwania produktów tryb AI wyświetli panel z propozycjami towarów, aktualizujący się dynamicznie w miarę precyzowania zapytania. Co więcej, AI może pełnić rolę stylisty: wprowadzono funkcję pozwalającą przymierzać ubrania wirtualnie. Wystarczy wgrać swoje zdjęcie, a wyszukiwarka pokaże, jak dany strój wyglądałby na nas, uwzględniając sposób układania się materiału na ciele.
Asystent zakupów i rezerwacji: Dzięki integracji z technologią agentową Mariner, wyszukiwarka AI nauczyła się wykonywać drobne zadania „za kulisami”. Przykładowo, możemy poprosić: „Znajdź dwie niedrogie wejściówki na sobotni mecz Dawida Posiadło na dolnym poziomie trybun” – a Google nie tylko je znajdzie, ale może od razu przejść do zakupu biletów po naszej akceptacji. Podobnie, funkcja „kup to dla mnie” doda wskazane produkty do koszyka i przeprowadzi proces płatności. W planach jest także automatyzacja rezerwacji restauracji czy wizyt lokalnych poprzez AI. Te agentowe zdolności mają uczynić z Google prawdziwego asystenta potrafiącego nie tylko odpowiadać, ale i działać.
Globalne wdrożenie: Google podkreśliło, że AI mocno wchodzi do wyszukiwarki na całym świecie. Rozszerzone podsumowania AI (AI Overviews) trafią wkrótce do ponad 200 krajów i w 40 językach. Na początek najbardziej zaawansowany tryb AI jest dostępny w USA, ale po okresie testów wiele jego funkcji trafi do podstawowej wersji wyszukiwarki dla wszystkich użytkowników. Wygląda na to, że Google traktuje te nowinki jako poligon doświadczalny – udoskonalone w trybie AI rozwiązania będą stopniowo przenoszone do zwykłego wyszukiwania, gdy tylko się sprawdzą w praktyce.
Google Meet i tłumaczenie symultaniczne rozmów
Jednym z najbardziej imponujących ogłoszeń było wprowadzenie symultanicznego tłumaczenia mowy w Google Meet. To rozwiązanie wykorzystuje model Gemini i techniki generowania głosu, by w trakcie wideorozmowy tłumaczyć wypowiedzi mówcy na język słuchacza – niemal w czasie rzeczywistym. Innymi słowy, jeśli jedna osoba mówi np. po hiszpańsku, druga usłyszy to, co mówi pierwsza, po angielsku – i na odwrót – zachowując głos, intonację i emocje oryginału. Google określa tę funkcję jako „jak posiadanie prawdziwego tłumacza na linii”.
Jak to działa: W praktyce tłumaczenie odbywa się z niewielkim opóźnieniem – system nasłuchuje wypowiedzi i już po około dwóch sekundach zaczyna odtwarzać zdanie w drugim języku, nie czekając aż mówca skończy mówić. W efekcie uczestnicy słyszą tłumaczenie niemal równolegle z oryginalną mową. Aby rozmowa była naturalna, Meet na początku odtwarza cicho oryginalny głos mówcy w tle, a zaraz potem nakłada głośniej przetłumaczoną wersję – tak, by dubbing nie zagłuszał całkowicie brzmienia oryginału. Google przyznało, że ze względu na złożoność języka nie da się całkowicie wyeliminować opóźnień, zwłaszcza gdy struktura gramatyczna dwóch języków bardzo się różni. Przykładowo, tłumacząc zdanie z niemieckiego na polski, tłumacz (czy to człowiek, czy AI) często musi poczekać na czasownik występujący na końcu zdania w języku źródłowym, by poprawnie oddać sens w języku docelowym. Google stara się rozwiązać to wyzwanie dzięki mocy predykcyjnej AI – model Gemini potrafi przewidywać kontekst i sens wypowiedzi, co pozwala mu rozpocząć tłumaczenie zanim usłyszy cały okres zdaniowy. Mimo to w niektórych sytuacjach system będzie świadomie wprowadzał ułamek sekundy pauzy, aby nie wyprzedzić mówcy i zachować poprawność przekładu. Twórcy dążą do zachowania płynności rozmowy, nawet jeśli czasem wymaga to minimalnego „zaczekania” na kluczowe słowo.
Technologia AudioLM: Serce tego systemu to specjalny model AI przetwarzający dźwięk – AudioLM opracowany przez DeepMind. Został on wytrenowany na olbrzymiej ilości danych audio i potrafi dokonywać bezpośredniej transformacji mowy w jednym języku na mowę w innym języku. W przeciwieństwie do tradycyjnych translatorów, które najpierw zamieniają mowę na tekst, tłumaczą tekst, a potem generują mowę, AudioLM działa bardziej end-to-end. Dzięki temu udaje się zachować barwę i styl mówienia oryginalnej osoby – rezultat brzmi tak, jakby nasz rozmówca mówił w naszym języku, tylko że lekko mechanicznie przetworzonym głosem (uniknięto typowego monotonnego głosu syntezatora). W demie Google zaprezentowało, że nawet emocje i intonacja zostają zachowane w przekładzie, co ma sprawić, że wielojęzyczna rozmowa będzie odczuwana jako autentyczna i naturalna.
Dostępność i języki: Funkcja symultanicznego tłumaczenia w Meet na razie startuje jako beta. Już od dziś mogą ją testować abonenci nowych planów AI Pro i Ultra. Co ważne, wystarczy, że jedna osoba na spotkaniu ma taki abonament, aby wszyscy uczestnicy mogli skorzystać z tłumaczenia. Na początku obsługiwane są języki angielski i hiszpański, ale Google zapowiedziało szybkie rozszerzenie – w ciągu kilku tygodni mają dojść włoski, niemiecki i portugalski (na polski pewnie poczekamy). Funkcja działa na razie w przeglądarce webowej (Meet w wersji przeglądarkowej), natomiast dla klientów biznesowych (Google Workspace) przewidziano program wczesnych testów tej technologii jeszcze w tym roku. To oznacza, że w przyszłości narzędzie może trafić również do użytkowników korporacyjnych, ułatwiając międzynarodowe wideokonferencje bez bariery językowej.
Warto dodać, że konkurencja również eksperymentuje z podobnymi rozwiązaniami – przykładowo Microsoft Teams wprowadził wcześniej tryb „interpretatora” oparty na AI. Z kolei Apple według doniesień pracuje nad funkcją tłumaczeń na żywo w swoich słuchawkach AirPods (prawdopodobnie pojawi się to wraz z iOS 19) jako element ekosystemu FaceTime. Google wyprzedza jednak te działania, integrując tłumaczenie symultaniczne bezpośrednio w swojej platformie do wideorozmów – i robi to w sposób, który nie wymaga dodatkowego sprzętu po stronie użytkownika. Ta technologia może okazać się przełomowa, bo znosi barierę językową w codziennej komunikacji – od rozmów ze znajomymi z innych krajów po globalne spotkania biznesowe. Jak pokazuje przykład Skype’a (który już wiele lat temu eksperymentował z automatycznym tłumaczeniem) oraz późniejsze próby Microsoftu, zapotrzebowanie na takie narzędzia jest duże. Teraz, dysponując potężnym modelem Gemini i zaawansowanym syntezatorem mowy, Google może dostarczyć jakość tłumaczenia zbliżoną do ludzkiego tłumacza ustnego.
Inne usprawnienia w usługach Google
Tłumaczenie w Meet to nie jedyna nowość dla użytkowników usług Google. Pakiet Google Workspace doczekał się wielu pomniejszych ulepszeń zasilanych AI. Gmail otrzyma inteligentniejsze podpowiedzi – Personalized Smart Replies mają lepiej dopasowywać się do stylu użytkownika, a nowa funkcja „Inbox Cleanup” pomoże automatycznie oczyścić skrzynkę z mniej istotnych wiadomości. Co więcej, Gmail zyska ściślejszą integrację z Kalendarzem – bez opuszczania skrzynki będzie można proponować terminy spotkań i rezerwować wydarzenia w kalendarzu.
Dokumenty i prezentacje: W Google Docs ulepszono panel boczny z asystentem Gemini – teraz użytkownik może „osadzić” odpowiedzi AI w odniesieniu do konkretnego fragmentu dokumentu, zapewniając że generowane podpowiedzi będą ściśle związane z edytowanym tekstem. To ukłon w stronę osób piszących – AI może np. zasugerować ulepszenia stylu akapitu na podstawie kontekstu całego dokumentu. W Google Slides (Prezentacjach) pojawi się ulepszony generator obrazów Imagen 4, który znacząco poprawi jakość tworzonych ilustracji – szczególnie jeśli chodzi o czytelność generowanego tekstu na obrazach (ważne np. przy tworzeniu grafik z podpisami, mockupów produktów czy materiałów marketingowych). Google Vids (usługa do edycji wideo uruchomiona w zeszłym roku) wprowadza fascynującą funkcję: zamiany pokazu slajdów na film. Można przygotować prezentację, po czym jednym kliknięciem przekształcić ją w dynamiczny klip wideo – AI wygeneruje animacje, przejścia, a nawet doda wirtualnego prezentera (avatar) czytaącego treść, jeśli dostarczymy skrypt. Funkcje takie jak automatyczne przycinanie transkrypcji czy wyrównywanie dźwięku („Transcript Trim” i „Balance Sound”) pomogą w szybkim dopracowaniu otrzymanego materiału. To duże ułatwienie dla marketerów, nauczycieli czy twórców treści, którzy będą mogli błyskawicznie tworzyć filmy instruktażowe lub promocyjne na bazie zwykłych slajdów.
Rozmowy 3D – Google Beam: Ciekawostką z pogranicza sprzętu i komunikacji jest przekształcenie ambitnego projektu Starline (kabiny do wideo-rozmów 3D) w produkt o nazwie Google Beam. To „platforma komunikacji wideo zorientowana na AI”, która wykorzystuje zaawansowane modele wideo 3D do przetworzenia zwykłych strumieni z kamer na realistyczne doświadczenie trójwymiarowe. Specjalna konfiguracja z sześcioma kamerami i wyświetlaczem pola świetlnego sprawia, że w czasie rzeczywistym rozmówcy widzą się tak, jakby siedzieli naprzeciw siebie w tym samym pomieszczeniu. Beam zapewnia niemal idealne odwzorowanie ruchów głowy (śledzenie z dokładnością do milimetra przy 60 klatkach na sekundę), dzięki czemu kontakt wzrokowy i mowa ciała są oddane naturalnie. Google ogłosiło współpracę z firmą HP, która ma wyprodukować pierwsze urządzenia Google Beam – trafią one do wczesnych klientów biznesowych jeszcze pod koniec bieżącego roku. Choć Beam to rozwiązanie głównie dla przedsiębiorstw (np. ważnych rozmów na odległość, telemedycyny czy edukacji zdalnej), demonstruje ono możliwości AI w poprawianiu jakości komunikacji. Warto zauważyć, że podczas gdy Apple rozwija własne zaawansowane gogle AR/VR (Vision Pro) dla indywidualnych użytkowników, Google stawia na bardziej stacjonarne doświadczenie 3D, koncentrując się na odtworzeniu realnej rozmowy twarzą w twarz z pomocą AI.
Android, Pixel i urządzenia nowej generacji
Konferencja I/O to tradycyjnie miejsce zapowiedzi dotyczących Androida – nie inaczej było w 2025 roku, choć główny nacisk położono na AI. Google ujawniło, że nadchodzący Android 16 (pokazany tydzień wcześniej na osobnym wydarzeniu dla deweloperów) nie będzie dużym tematem keynote. Zamiast tego więcej uwagi poświęcono Android XR, czyli rozszerzonej rzeczywistości. Firma zaprezentowała prototyp okularów AR działających na platformie Android XR – podczas pokazu na żywo okularów używał profesjonalny koszykarz, co pozwoliło zademonstrować ich możliwości na przykładzie sportu. Okulary te wyglądają jak zwyczajne, dość smukłe oprawki, a jednak potrafią nakładać cyfrowe obrazy na świat rzeczywisty. Zdaniem komentatorów to jeden z najbardziej ekscytujących gadżetów zaprezentowanych przez Google od lat. Urządzenie wciąż znajduje się w fazie prototypu (to kontynuacja wizji zapoczątkowanej przez anulowane Google Glass i późniejsze prace nad okularami tłumaczącymi konwersacje). Rozszerzona współpraca z Samsungiem sugeruje, że finalny produkt AR może powstać we współpracy tych firm – być może jako odpowiedź na zapowiedziane urządzenia Apple i Meta w segmencie AR/VR. Plotki mówiły wcześniej o wspólnym projekcie Google, Samsunga i Qualcomm nad headsetem XR i wszystko wskazuje na to, że te zapowiedzi nabierają realnych kształtów.
A co z tradycyjnym sprzętem Google, jak telefony Pixel? O ile w poprzednich latach na I/O często debiutowały nowe urządzenia (np. tańsze modele z serii „a” czy zapowiedzi Pixel Tablet), w 2025 Google nie przedstawiło nowego smartfona ani tabletu podczas keynote’u. Zamiast tego skupiono się na pokazaniu, jak najnowsze Pixele skorzystają na integracji z Gemini. Pixel 9 (flagowy telefon Google z końca 2024 roku) oraz wybrane modele innych producentów – jak Samsung Galaxy S25 – mogą już teraz wykorzystywać funkcję Gemini Live, czyli „widzącego” asystenta, który analizuje obraz z kamery smartfona. Można np. nakierować aparat na dowolny obiekt czy tekst i zadać asystentowi pytanie, a on natychmiast udzieli odpowiedzi na podstawie tego, co „widzi”. To rozwinięcie pomysłów Google Lens, ale działające w znacznie bardziej inteligentny, konwersacyjny sposób. W praktyce oznacza to, że posiadacze Pixela zyskują swoisty „tryb Gemini” w aparacie, gdzie AI staje się naszym doradcą patrzącym na świat przez obiektyw telefonu.
Jeśli chodzi o inne sprzętowe nowinki, Google ogłosiło Wear OS 6 (system dla smartwatchy) w wersji Developer Preview. Nowa edycja skupia się na odświeżeniu interfejsu – wprowadza wytyczne Material You w wariancie Expressive, zoptymalizowane pod małe, okrągłe ekrany zegarków. Usprawnienia mają poprawić czytelność i estetykę tarcz oraz aplikacji na zegarkach Pixel Watch i innych urządzeniach z Wear OS. Co istotne, integracja z Gemini oznacza, że asystent AI będzie dostępny także na nadgarstku – użytkownicy będą mogli zadawać pytania i wydawać polecenia Gemini bezpośrednio z zegarka. Choć nie zapowiedziano nowego modelu Pixel Watch, nie zabrakło drobnych odniesień do tego produktu – wspomniano np., że optymalizacje w Wear OS 6 wydłużą czas pracy zegarka o około 10% dzięki lepszemu zarządzaniu energią. Dla porównania, Apple planuje dodać podobną funkcję inteligentnego przewijania do swoich zegarków (korona Digital Crown będzie dynamicznie zmieniać rozmiar elementów podczas przewijania), co pokazano już wcześniej, ale Google koncentruje się na swoim własnym, spójnym języku projektowania.
Google I/O 2025 nie przyniosło zatem nowego telefonu Pixel ani tabletu, lecz zaprezentowało wizję urządzeń przyszłości: od immersyjnych wideokabin 3D (Beam), poprzez inteligentne okulary XR, aż po smartfony i smartwatche ściśle zintegrowane z AI. Firma zdaje się sugerować, że kolejne premiery sprzętowe zostaną tradycyjnie pokazane jesienią, a I/O służy przede wszystkim zaprezentowaniu postępów technologicznych, które te urządzenia wykorzystają.
Nowości dla deweloperów i twórców
Google nie zapomniało o społeczności programistów – konferencja obfitowała w ogłoszenia istotne dla deweloperów aplikacji i usług.
„Prawdziwy agent kodu” – Jules: Podczas I/O 2025 zaprezentowano narzędzie o nazwie Jules, określane jako „prawdziwy agent kodujący”. Jest to asystent oparty na AI, który potrafi czytać kod źródłowy, rozumieć zamiary programisty i wykonywać za niego żmudne zadania. Jules może automatycznie pisać testy jednostkowe, dodawać nowe funkcje do kodu, naprawiać znalezione błędy, a nawet aktualizować wersje zależności w projekcie. Co ważne, narzędzie to udostępniono w publicznej becie bez listy oczekujących, dla programistów na całym świecie. W praktyce Jules działa w tle edytora kodu – programista może opisać w języku naturalnym, co chce osiągnąć, a agent spróbuje wygenerować odpowiednie zmiany w kodzie. To kolejny krok w stronę pair programming z AI i może znacząco przyspieszyć pracę zespołów deweloperskich.
Android Studio zintegrowane z Gemini: Flagowe środowisko programistyczne do Androida doczekało się głębszej integracji z AI. W Android Studio teraz wbudowany jest asystent oparty na modelu Gemini w wersji 2.5 Pro. Oznacza to lepsze podpowiedzi kontekstowe podczas pisania kodu (tzw. code completions), ale także możliwość generowania fragmentów kodu na żądanie czy wyjaśniania błędów kompilacji z pomocą AI. Google wprowadziło też Android Studio Labs – specjalny kanał w stabilnej wersji środowiska, który pozwoli programistom testować eksperymentalne funkcje oparte na AI bez potrzeby instalowania wersji beta czy Canary. To ukłon w stronę developerów, którzy chcą wypróbować nowinki Gemini w codziennej pracy, nie ryzykując stabilności swojego IDE.
Udogodnienia w Google Play: Dobre wieści dla twórców aplikacji – Google wprowadza funkcje, które ułatwią zarządzanie publikacją i poprawią widoczność treści w sklepie Google Play. Pierwsza nowość to przycisk „wstrzymaj publikację” – deweloperzy mogą teraz jednym kliknięciem przerwać dystrybucję aktualizacji aplikacji, jeśli wykryją w niej poważny błąd, zanim problem dotknie wszystkich użytkowników. Wstrzymana aktualizacja nie będzie oferowana kolejnym osobom do pobrania, dopóki twórca jej ponownie nie zatwierdzi po naprawie błędu. Druga zmiana to kontynuacja strategii uczynienia z Google Play bardziej „sklepu pełnego treści”. Pojawiły się kuratorowane sekcje tematyczne – np. specjalne kolekcje aplikacji i gier związanych z trwającymi mundialami czy innymi sezonowymi wydarzeniami (w Brazylii dedykowana sekcja na czas rozgrywek piłkarskich, w Indiach na sezon krykieta, w Japonii stale obecna sekcja z komiksami). Google chwali się, że takie wyróżnione kategorie angażują użytkowników i planuje rozszerzać ich listę o kolejne kraje i tematy. Ponadto, sklep zyska strony tematyczne prezentujące w atrakcyjny wizualnie sposób treści dotyczące konkretnych zagadnień (np. sportu na żywo, filmów i seriali). Wreszcie, funkcja Play Collections (zestawy polecanych aplikacji) otrzyma nową kategorię „Podróże”, a same kolekcje trafią do szerszej grupy krajów (m.in. Brazylia, Indie, Indonezja, Japonia, Meksyk). Dla deweloperów oznacza to więcej szans na wypromowanie swoich aplikacji w sklepie, o ile wpisują się one w popularne tematy lub sezony.
Autentyczność treści AI: W odpowiedzi na wyzwanie wiarygodności treści generowanych przez AI, Google udostępniło portal weryfikacyjny SynthID Detector. Jest to narzędzie online, które pozwala przesłać dowolny plik (obraz, wideo) i sprawdzić, czy zawiera on ukryty znak wodny SynthID – czyli cyfrowy znacznik dodawany do materiałów wygenerowanych przez AI Google. Jeśli plik (lub jego fragment) posiada taki znacznik, portal poinformuje nas o tym. To element szerszych starań Google o odpowiedzialne AI – firma chce ułatwić identyfikowanie treści wygenerowanych sztucznie, co ma znaczenie np. w walce z deepfake’ami czy dezinformacją. W dobie, gdy coraz więcej obrazów i tekstów tworzy AI, tego typu narzędzia mogą pomóc zachować przejrzystość w internecie.
Podsumowanie
Google I/O 2025 pokazało firmę przechodzącą od fazy eksperymentów do realnych wdrożeń AI na masową skalę – zgodnie z hasłem „From research to reality”. Model Gemini i jego pochodne przenikają do niemal każdego produktu: od wyszukiwarki, przez usługi biurowe, po system Android. Wprowadzane funkcje – takie jak tłumaczenie symultaniczne, asystenci do kodu czy agentowe zakupy online – zapowiadają nową erę bardziej inteligentnych i proaktywnych narzędzi. Choć konferencja nie przyniosła wielu nowych gadżetów konsumenckich, zademonstrowała technologie (Beam, okulary XR), które mogą zaowocować przełomowymi urządzeniami w najbliższej przyszłości. Google zdaje się podążać ścieżką, na której sztuczna inteligencja jest fundamentem wszystkich nowych rozwiązań – od komunikacji, przez rozrywkę, aż po codzienną pracę i naukę. Wiele z zapowiedzianych nowości jest dostępnych od razu (często w wersjach beta), inne pojawią się w ciągu kilku tygodni lub miesięcy. Jedno jest pewne: ekosystem Google staje się coraz bardziej „smart”, a rok 2025 może być momentem, w którym używanie AI w produktach codziennego użytku stanie się tak powszechne, jak korzystanie ze smartfona czy internetu. Konkurencja – czy to Microsoft, czy Apple – z pewnością będzie musiała odpowiedzieć na te zmiany, ale użytkownicy już teraz mogą czerpać korzyści z imponujących zdobyczy Google w dziedzinie sztucznej inteligencji.