#153 Google Cloud Next 2025

2025, May 09

Google Cloud Next 2025 otwiera sezon konferencji hyperscalerów z Agentic AI 🤖 na pierwszym planie. Google zaprezentował przełomowy Agent to Agent Protocol 🔗, który stanowi fundament komunikacji między agentami. Czeka nas rok pełen “Agentic, Agentic, Agentic” 🔥.

W odcinku analizujemy TPU Ironwood (10x wydajniejsze niż poprzednia generacja) i Google Agentspace 🧠. Omawiamy także Unified Security, Gemini Code Assist oraz kompatybilność Firestone z MongoDB. Chrome Enterprise Browser 🔍 zaskakuje możliwościami przeszukiwania zasobów lokalnych.

Chcesz wiedzieć, czy ADK przetrwa dłużej niż inne projekty Google? 💬 Posłuchaj naszej dyskusji o przyszłości agent-to-agent communication i zrozum, dlaczego wszyscy dostawcy chmury będą teraz kopiować te rozwiązania 🚀.

Słuchasz Patoarchitektów dzięki PROTOPII – firmie, w której Łukasz i Szymon działają na co dzień, wspierając zespoły IT na każdym etapie: od projektowania, przez wdrożenia i migracje, aż po optymalizację i zabezpieczenia. Oferujemy też mentoring i szkolenia dostosowane do potrzeb każdej firmy, niezależnie od wielkości. Sprawdź nas: protopia.tech

Discord 👉 https://discord.gg/78zPcEaP22

Linki i ciekawe znaleziska:

Transkrypcja

Łukasz Kałużny: Cześć, słuchacie Patoarchitektów. Prowadzą Łukasz Kałużny…

Szymon Warda: I Szymon Warda. A linki do tego odcinka Patoarchitekci.io, w opisie, wygoogle’acie, ogarniecie, wierzymy w Was. Dobrze Łukaszu, last call na szkolenia.

Łukasz Kałużny: Last call, tak, jak tego słuchacie, to ostatnia szansa na Architekturę 101, którą prowadzę. W sumie taka ścieżka na sterydach jak myśleć o architekturze, jeżeli tego jeszcze nie robiliście i chcecie się nauczyć system designu, a może, nie oszukujmy się, usłyszeć wprowadzenie do system designu, bo potem trzeba i tak jeszcze zdobyć doświadczenie. A zaraz po mnie Szymon ma Observability.

Szymon Warda: Dokładnie, na grafanowym stosie. A jak ktoś by chciał jeszcze odnośnie tego doświadczenia, to jeszcze pamiętajcie, że tam szukamy kogoś, tak przy okazji, że tak powiem. Tak że wysyłajcie. Co dzisiaj?

Łukasz Kałużny: Dzisiaj ustawiamy tempo i tematy konferencji na ten rok w Big Techach. Chyba tylko GitHub może będzie ciut inny w październiku, bo mają więcej rzeczy developerskich, a mianowicie dzisiaj omawiamy Google Cloud Next.

Szymon Warda: AI, Gemini.

Łukasz Kałużny: Gemini, tak. Słuchajcie, na poważnie, jeżeli popatrzycie, to tak, będzie to AI, AI, agenci, AI. I tak, słuchajcie, będą wyglądały prawdopodobnie konferencje z lekkim odchyłem pewnie w AWS-ie może, bo oni zawsze jednak tej infry i takich usług pobocznych trochę więcej pokazują. Ale to się będzie działo.

Szymon Warda: Dobra, to w ogóle zaczęło się od tego, że oni się pochwalili bardzo mocno, ile to developerów nie korzysta z Gemini i tam jest już 4 miliony developerów, 20 razy więcej, 20-krotny wzrost w Vertex AI usage. Nowe TPU, Ironwooda wypuścili. Odnośnie tego, tak zacznę od tego, jest to, że takim elementem, który powoduje, że coś nie jest super, jest to, jak porównujemy to do pierwszej wersji w ogóle tego. No i faktycznie Ironwood jest siódmą generacją. Porównują go bardzo głośnym liczbami, że 3600 razy bardziej wydajny niż ich pierwsze TPU, 29 razy bardziej wydajne energetycznie niż pierwsze TPU, więc znaczy, że chcieli mieć ładne numerki, itd. Trochę tak bardziej drobnym tekstem jest, że realnie to jest 10 razy bardziej wydajny niż poprzednie, co już jest też dobrym wynikiem, bo nie oszukujmy się całkiem nieźle i łącznie 42,5 exaFLOP-a per node obliczeniowy. Ale teraz w kontrze do tego, oczywiście ogłosili tuż poniżej, żeby nie było, że też wsparcie dla Configuration Computing Nvidii jak najbardziej będzie, na DGX, B200 i też na Blackwellu generalnie i ciekawe przy współpracy z Dellem. Nie wiem czy to wyłapałeś, co jest dość ciekawe, bo…

Łukasz Kałużny: Wiesz co, nie, musieli z kimś to zrobić, to nie jest… Wiesz, to jest też… Oni też mocno z nimi współpracowali, jakbyś popatrzył na wcześniejsze. Wiesz co, to jest współpraca, którą patrzysz Szymon… Określiłbym tak, bo oni też mieli VMware’a wcześniej, bo pamiętaj, że Dell miał VMware’a i był, jeżeli dobrze pamiętam, rekomendowaną platformą do ich tego GKE lokalnego stawianego na VMware. Już za chiny nie pamiętam jak to się zwało, to lokalne GKE.

Szymon Warda: Chodzi mi o coś innego. Przy tej skali to często robi się już coś mimo wszystko własnego, ale wydaje mi się, że im się bardziej trochę pali pod wiadomo jaką częścią ciała.

Łukasz Kałużny: Czy realnie… Nie, dostarcza… Hardware dostarczany do klienta końcowego to jest taki wrzód, że się nie dziwię, w modelu operacyjnym.

Szymon Warda: Do serwerowni, do serwerowni, klient końcowy to oczywiście inna bajka.

Łukasz Kałużny: W sensie do serwerowni, odbiorcy, dostarczanie. Zobacz, że tak, outpost zginął w tym, Microsoft również, przecież wszystkie te Azure Local i inne rzeczy, z Stack HCI też wypchnął na partnerów totalnie. Prawdopodobnie jakbyśmy weszli to tego serwera od Azure Stack Local, czy jak to się tam kiedyś nazywało, do IoT i innych rzeczy, pewnie nie zamówisz z Microsoftu, więc wszyscy tak chowają.

Szymon Warda: Znaczy nie, no oczywiście. Wydaje mi się, że mimo wszystko mogliby to bardziej zoptymalizować. No ale tak czy siak no chwalą się własnym TPU i za chwilę chwalą się tym, co z Nvidia. Ale wydaje mi się też, że te fajne wyniki sprzedażowe, które Dell pokazywał, właśnie częściowo wynikały z tego.

Łukasz Kałużny: Tak. Raczej wcześniej wynikały z serwerów dla AI-a na zerowej marży. Tak było. Tak i słuchaj, polećmy sobie następnym newsem, który jest ciekawy. To jest Google Unified Security, czyli dla tych co siedzą w Microsofcie, to Microsoft Copilot Security i Sentinel. Czyli rozwiązanie do Security Operation CRED Intelligence, odpowiadania na incydenty, bla bla bla. Ale oni… Inaczej, na dwoje babka wróżyła, albo będzie to dowoziło, albo będzie ssało po całości. Nie będzie po środku.

Szymon Warda: Łukasz, nie ma to jak dobra predykcja, powiem Ci tak.

Łukasz Kałużny: No ale to jest w Google’u. Bo inaczej, znając, wiedząc od znajomych przy piwie jak pewne rzeczy u nich wyglądają, to dla klienta końcowego to jest tylko zerojedynkowy wynik. Albo dowiozą, albo nie dowiozą, nie będzie nic pośrodku. I dwie rzeczy, które mnie zainteresowały w tym. To pierwsze, pokazali agenta, który może być dobry do automatycznego triażu zgłoszeń, tych SOC-owych właśnie, bo to jest ten Unified Security, to jest po prostu offering platformy SOC-owej, jeżeli na to tak popatrzymy i SIEM-owej i agent do analizy malware. Więc to są dwie takie rzeczy wpięte, które są ciekawe. No i Ty zobaczyłeś jeszcze Enterprise Browser.

Szymon Warda: Chrome Enterprise Browser i tam jest kilka rzeczy. Po pierwsze, to jest wcięty ładnie w ten cały mechanizm security. Ale jedna rzecz, która jest mega fajna z punktu widzenia takiej osoby już wewnątrz organizacji, że z poziomu tego wyszukiwania, czyli okienka chromowego, będzie przeszukiwanie zasobów lokalnych właśnie z wykorzystaniem agentów. I ok, wyszukiwanie zasobów lokalnych nie jest żadną rewelacją, SharePoint to robił od dawna, ale ktokolwiek szukał tam, to nie działa tak dobrze. Jeżeli faktycznie wyniki będą lokalne, to to jest tak niesamowite, fajne osiągnięcie, jeżeli chodzi o dostępność rzeczy i przeszukiwalność organizacji wewnątrz, że wow.

Łukasz Kałużny: Pamiętasz, kiedyś ten Google Search też działał, taki plugin, co Ci indeksował lokalnie był, takie lata temu, jak i te serwery…

Szymon Warda: Wcześniej były takie serwerki, takie 1U i takie 2U [niesłyszalne 00:07:22].

Łukasz Kałużny: A jeszcze można było kupić, tak, local, tak. Wrzucimy Wam o czym mówimy, to ja zapiszę sobie w linkach i Wam wrzucę.

Szymon Warda: To nawet można było kupić jakieś parę lat temu na Allegro za jakieś tam 3 czy 5 stówek.

Łukasz Kałużny: Tak. Google Appliance, sobie zapisze, żeby dorzucić.

Szymon Warda: Fajnie to wyglądało w ogóle.

Łukasz Kałużny: Tak. I słuchajcie, to jest to. Przejdźmy teraz do newsów takich AI-owych, które się pojawiają. Jest tego masa, większość w ogóle nie warta uwagi, jak sobie popatrzymy, ale zacząłbym od tego i to jest podśmiechujka, bardzo celowa, w Vertexie, Vertex AI pokazywał się live API, słuchajcie. Czyli słuchaj Szymon, te fejkowe demo sprzed 5 lat, to chyba było, nie pamiętam czy to jest z 2021 czy z 2019, był zrobiony, że agent AI, bo oni wtedy też już to mocno robili, że potrafi Ci zadzwonić i umówić wizytę.

Szymon Warda: Słynne spotkanie generalnie, że dzwoni, przekłada, synchronizuje się z kalendarzem, itd.

Łukasz Kałużny: Tak, i to live API to jest coś, co mogłoby pozwolić, żeby tam to zadziałało. Czyli live API, chodzi o to, że model voice’owy z bardzo niskimi opóźnieniami do real time interaction.

Szymon Warda: To jest okej, fajne. Czy może pozwoli? Ja bym to bardzo chciał zobaczyć i jakoś w to nie wierzę do końca mimo wszystko.

Łukasz Kałużny: Raczej Szymon, dlatego mówię, że podśmiechujka.

Szymon Warda: Tak. Z rzeczy poważniejszych, takich odnośnie właśnie, jak mówimy, wykorzystania właśnie LLM-ów, to jest natural language support in AlloyDB. Brzmi bardzo, bardzo, bardzo poważnie, ustalmy, no nie. Ale jak teraz wejdziemy teraz w co tam właśnie siedzi, to jest tak: wsparcie do generowania kwerend na bazie języka normalnego, generowania fleet management, czyli generowania zarządzania całością i do operations. Ale efekt jest taki, że my mówimy, a on potem generuje kod, który jest wykonywany. Nie jest to robione z taką [niesłyszalne 00:09:28], że my mówimy - on robi.

Łukasz Kałużny: Słuchajcie, ale teraz tak, jest jedna rzecz, przepraszam za to określenie, ale zajebiście wygląda SQL-ka, bo masz: SELECT alloydb_ai_nl.get_sql i w środku string np. z sampla. What is the sum that client number 4”s account has following transaction 851? I to jest w select’cie. W SQL-u macie stringa, w którym wysyłacie zapytanie.

Szymon Warda: Więc jestem ciekaw jak to się finalnie skończy.

Łukasz Kałużny: Ale SQL Injection nowej generacji, zobacz.

Szymon Warda: Tam będzie się działo. Ale jak jesteśmy przy pośmieróżnych, żeby być bardziej przedszkolofriendly, że tak powiem, to mnie rozwalił jeden cytat. To było odnośnie systemów do monitorowania. Ktoś mówi, że: indeed, our systems used to fail in fairly predictable ways, said another presenter, cofounder and CTO of Honeycomb. Czemu się nabijamy? Bo było trochę, bo Conecon, czyli całe Observability 2.0 i w ogóle chwalenie się, był moment, że niesamowicie dużo właśnie było narzekania, że oni się non stop wywalali, że to było super niestabilne. I te wszystkie ich obiecanki odnośnie tego, że to będzie super wydajny i w ogóle super, macie tylko logi i tyle, no to właśnie tak to się kończy. Ja jako CTO bym się może nie chwalił tego, że to się po prostu wywalało i że było…

Łukasz Kałużny: Do monitoringu.

Szymon Warda: Tak, znaczy na konferencji partnera, no ale jak tam kto woli. Dobrze, coś poważniejszego jeszcze, co tam masz?

Łukasz Kałużny: Dobra, i teraz tak, podzieliłbym to sobie na dwie rzeczy. Stopniując od najbardziej istotnej rzeczy. Bo jest jedna rzecz na tej konferencji, z której sorry, nie będzie podśmiechujek z AI-a, a potem będziemy schodzić już w dół i będzie coraz gorzej. Więc zacznijmy od poważnej rzeczy. Jest jedna rzecz, którą mogliby zrobić z tego konferencję i ją skończyć i nie ogłaszać nic więcej.

Szymon Warda: Wiem o czym mówisz.

Łukasz Kałużny: Google ogłosiło Agent to Agent Protocol. I teraz co to jest? Wreszcie i to jest coś pięknego, wreszcie ktoś podniósł rękawicę i to nie tylko Google, ale prawie setka firm. I co mnie cieszy? Są tam firmy i doradcze, to jest bardzo ważne i doradcze, strategiczne, jak i multum rozwiązań końcowych, biznesowych. Brał w tym udział Atlassian, Salesforce, SAP, Service Now, Oracle, New Relic, Neo4j, JFrog, Mongo. Jest tego kupa firm, które brały udział. I chodzi o to, że jest ustandaryzowany, zdroworozsądkowy, to jest bardzo ważne, zdroworozsądkowa specyfikacja w jaki ze sobą sposób agenci mają rozmawiać. Czyli jeżeli Ty masz np. chatbota agentowego, jak on ma wywołać chatbota w takim Salesforce czy w takim Service Now czy w takim SAP-ie? I to jest złożone na takie bardzo realne założenia. Jedna rzecz, która mi się tu zrobiło ciepło na serduszku dosłownie Szymon, ktoś pomyślał, że jest autoryzacja i uwierzytelnianie potrzebne i kontekst użytkownika w tym. Żal mi firm, które będą musiały to napisać jak będziemy sprawdzać czy poprawnie zaimplementowali. Ale to jest mega, bo jest np. przewidziana kontekstowość. I teraz ważna rzecz przy tym, bo ktoś mi zaraz powie, że Anthropic wydał Model Context Protocol. I będzie zaraz zarzutka, że przecież jest coś od Anthropic’a. Nie, Anthropic, jeżeli popatrzycie, MCP i nawet tutaj wspominają, że to jest komplementarne, ponieważ MCP jest od tego jak model ma się integrować ze światem, czyli jak ma wywoływać zewnętrzne integracje i inne rzeczy. A agent to agent mówi jak jeden agent LLM-owy ma rozmawiać z drugim agentem LLM-owym rozumiejąc scenariusze użycia, takie jak w szczególności rzeczy batchowe, user context, long running taski, agnostyczność modalności. Czyli te wszystkie rzeczy, które są takie w faktycznych scenariuszach, kiedy Ty przestajesz traktować agenta jako tool, czyli… Bo teraz takie podejście jest jak wywołujecie, że wywołanie innego agenta jest po prostu function callingiem. To tutaj jest zrobiona nakładka, żeby naprawdę wrzucić dobry kontekst sposobu używania z tego.

Szymon Warda: To wygląda ciekawie.

Łukasz Kałużny: Tak i to będzie… Inaczej, mogę się założyć o piwo, że to już będzie standard.

Szymon Warda: Tak, to będzie, bo nie ma nic innego jako alternatywy tak naprawdę. Koniec. Ale okej, ale ruszyłeś temat, który jest, rzeczy, które są nieśmieszne i które będą poważne i które faktycznie będziemy wykorzystywali. To rzecz, która trochę za bardzo ładnie nazwana, ale mimo wszystko fajna: Google Kubernetes Engine Inferecing. Czyli mianowicie to, że skalowanie wykorzystując AI-a, czy tam jest AI, czy tam są po prostu zwykłe funkcje statystyczne dużo prostsze…

Łukasz Kałużny: Modele.

Szymon Warda: Nie, nie skalujemy LLM-em klastra, to trochę nie ma sensu za bardzo finansowego chociażby i atencyjnego. Ale opcja, żeby dodać autoskalowanie, żeby zarządzać tymi klastrami w sposób bardziej inteligentny, nie tylko na bazie po prostu, że ta metryka teraz wybiła, więc teraz skalujemy w górę, tylko właśnie wyszukiwanie wzorców zachowań, podobieństw, itd. Super, to jest naprawdę fajne i jestem ciekaw jak to zadziała tak w realnym użyciu, ale wydaje mi się, że będzie dobre.

Łukasz Kałużny: Zobaczymy. Mają dobre wzorce w Borgu pod spodem i swoich rzeczach.

Szymon Warda: Tak, to jest tylko ułożenie tego w odpowiedni sposób.

Łukasz Kałużny: Dobra, wróćmy teraz na chwilę do podśmiechujek AI-owych. I teraz tak, zastanawiam się, czy to jest podśmiechujka, czy nie, tak już na poważnie. Bo to, co wydali, zaadresowano potrzebę już tą agentową, powstało coś takiego jak Agentspace. Google Agentspace, czyli miejsce, gdzie możesz wsadzić… Co jest ważne, ja bardziej patrzę teraz z perspektywy użytkownika. To jest bardzo ważne. Dzięki właśnie temu agent to agent możesz podpiąć swoich agentów spoza Google’a docelowo, to jest ważne i możesz użytkownikowi dać jedną przestrzeń, w której on może orkiestrować i wysyłać zapytania do różnych agentów i złożyć cały proces. Czyli masz taki centralny dostęp dla endusera do tego, co jest w tym wypadku najlepsze, czyli: weź mi zbierz dane, wykonaj jakąś akcję tam, gdzie mam uprawnienia. I przy tym Agentspace dwie rzeczy, które są od razu zaadresowane. To są Access Control i właśnie to nie jest DLP, ale nazywają to Safeguard Sensitive Information, czyli od razu mówią tutaj właśnie o tym, co użytkownik może zobaczyć. I to jest już…

Szymon Warda: Znaczy jest to ucywilizowanie agentów.

Łukasz Kałużny: Dostępu do agentów i zobaczymy to od każdego z dostawców w tym roku.

Szymon Warda: Dobrze, ja będę trochę skakał z rzeczami nie AI-owymi, bo widziałem, że ten kawałek przejmiesz. Z rzeczy, które mnie znowu zainteresowały, to był taki trochę uśmieszek, Firestone teraz będzie zgodny z MongoDB. Czemu? Wszyscy mówią. Czemu takie ogłoszenie? Co widzimy? MongoDB było kiedyś super fajną technologią. Sprzedawało się na zasadzie, że nie trzeba będzie update’ować schematów i w ogóle jest zero potrzeby. Potem się organizacje przekonały, że jednak to utrzymywanie tego Mongo to nie jest takie super fajne. Efektem tego było to przecież, że Cosmos, który wystartował już sporo lat temu, wystartował z protokołem zgodnym binarnie z MongoDB. Czemu? Żeby firmy mogły przerzucić MongoDB właśnie do Azure’a. Więc to jest znowu niewielki może ruch. Realnie powstał dlatego, że klienci się pytali. Znaczy, że jest parcie, żeby pozbyć się i to Mongo wywalić. Ciekawe, jak ktoś potrzebuje, jest, proszę bardzo i też potrzebuje, w którym kierunku się jednak bazy ruszają i jak się ogólnie rynek zachowuje.

Łukasz Kałużny: Tak, zaraz wyjdzie, że będziemy mieli trzy protokoły. Redis, protokół Redisa, protokół Mongo i Postgresa. No i, przepraszam, jakiś grafowy, Neo4j najlepiej. Tak?

Szymon Warda: Tak, na tym się skończy, dokładnie. Wiesz co, grafy w tym roku to w ogóle dostały kopa jak nie wiem co. Cypher się przyjmuje całkiem bardzo fajnie. Tak że wydaje mi się, że odkurzę moją wiedzę z Cypher’a i może się przyda.

Łukasz Kałużny: Dobra, to co, wracamy na chwilę do AI-ów i agentów. Agent Development Kit.

Szymon Warda: No właśnie to w ogóle temat ominąłem kompletnie, bo tak ok, fajnie wygląda, lecimy dalej.

Łukasz Kałużny: W sensie ja bardziej tym, że znowu ktoś któreś podejście znowu do… Kolejny framework do robienia agentów.

Szymon Warda: Żeby to urealnić, oni chwalą się, że możesz stworzyć własnego agenta w 100 linii kodu.

Łukasz Kałużny: Czy wiesz co, dobra, zerknąłem sobie i co jest dobre? To od razu jest pomyślane o third party rzeczach. Z dobrych rzeczy, które są, bo popatrzyłem sobie np. też, żeby… Inaczej, z jednej strony szydera, że to Google’a, pewnie zaraz zginie, ale z takich dobrych rzeczy, to dobrze został przemyślany, prosto został przemyślany tooling i od razu wsparcie właśnie dla MCP. To jest pierwsza rzecz. Druga, przy tworzeniu workflow’ów zostało przemyślane kodowanie workflow’ów, gdzie masz podejście sekwencyjne, parallel lub obsługi rzeczy. Czyli został, że możesz np., to nie jest taki typowy wiesz, że możesz sobie zrobić, nie, że postawisz, dwa agenty będą ze sobą gadały, ale możesz faktycznie zrobić workflow, jak ma coś być procesowane z dynamicznym routingiem też pomiędzy LLM agentami. Więc to jest dobry pomysł. Druga rzecz, że od razu przychodzi z narzuceniem sposobu deploymentu w kontenerze. Czyli w sensie wiesz, wygląda lepiej niż LangChain np.

Szymon Warda: Okej, dobra. Super fajnie, tylko prawda jest teraz taka tak, to pewnie w jakimś stopniu zażre. Moje pytanie jest teraz takie - czy będzie wokół tego społeczność, która będzie to rozwijała? Czy będzie to znowu produkt tylko google’owy i potem jak Google stwierdzi, że jednak mamy coś nowego, to będzie znowu wielka drama, że Google coś porzucił.

Łukasz Kałużny: Wielka drama, że coś porzucił, jak zawsze.

Szymon Warda: Oczywiście, że tak, no właśnie. Więc dla mnie sorry, jest jakieś spore ryzyko wchodzenie w takie rozwiązania, bo nie wiadomo jak to będzie się zachowywało za powiedzmy dwa lata.

Łukasz Kałużny: Tak, to jest jedna rzecz. Druga sprawa, wiesz, jak sobie popatrzycie na pisanie własnego loopa do agenta to też nie jest żadna straszna rzecz.

Szymon Warda: To też właśnie, dlatego ja bardziej czekam na tą opcję, jak ktoś się zainspiruje tym z open source’u i to zażre open source’owo faktycznie.

Łukasz Kałużny: Wiesz co, inaczej, wiesz co, powiem Ci tak. W open source to jest, bo masz tam, ostatnio robiłem, skończyłem na tym, że musiałem napisać własną implementację od zera, takie było przejście przez open source. Jak wejdziesz w, wybaczcie, jeżeli ktoś z Was zajmuje się Data Science, ale wybaczcie, że o tym powiem, ML engineerowie zrozumieją o czym mówię, czyli ten kod przypomina i dziury w użyciu tego faktycznym, przypomina kod z notebooków data scientist’owych.

Szymon Warda: Czyli absolutny pierdolnik.

Łukasz Kałużny: Tak, że np. kurde, jedna głupia rzecz, chciałbym zrobić tracing, wpiąć się w łatwy sposób do tracingu i zbierać np. ile kosztowała mnie z agentem pełna konwersacja, ile kosztowała mnie od A-Z pełna konwersacja. I okazuje się, tak, jesteśmy w te frameworki, jesteśmy np. model agnostic. Okazuje się, że na tym modelu działa to, ten model trzeba callbacki oprogramować tak, tamten tak. Zero warstw abstrakcji na przykład, których byś oczekiwał od framework’a, biblioteki, które powinny być dostarczone.

Szymon Warda: Dlatego na spokojnie, to się rozwija. Fajnie, że ADK powstało. Czekam aż ktoś te pomysły zbierze w jedną całość i powstanie coś, co będzie faktycznie dobre z poziomu inżynieryjnego, nie tylko: możemy się pobawić. Poczekamy.

Łukasz Kałużny: Od strony kodu jest spoko, o tak, wygląda na dojrzalsze, o tak, to taki pierwszy look and feel bez odpalania, przejścia przez dokumentację.

Szymon Warda: Jasne.

Łukasz Kałużny: Dobra, to kończymy. Teraz tak, miały być podśmiechujki AI-owe, ciąg dalszy. Czyli tak, pierwsze, oczywiście Code Assist, tutaj nazywamy Gemini Code Assist. Musi być koniec, jest w postaci extensiona do Visual Studio Code, tryb agentowy i w ogóle.

Szymon Warda: Co jest ciekawe? Poświęcili temu dość dużo czasu, tak, mówiąc o tym na konferencjach, chwalili się tym bardzo mocno.

Łukasz Kałużny: Dla developerów, jest, tak jest w tym. Tam patrząc, to wszystko było teraz dość sporo, bo to wcześniej było, w zeszłym roku też już tam było te rzeczy wokół tego. Tu jest więcej, o tak, i ten tryb agentowy. Przy czym ja tak, ja testowałem sobie te Gemini 2,5, te najnowsze, tam już parę przed tym Nextem, jak teraz wyszło. Ono było dobre, o tak, było dobre, tutaj naprawdę nadganiają, więc to jest to. Ale rzecz, która za tym idzie, to jest Firebase Studio, czyli ja bym powiedział GitHub Spark na sterydach, czyli możliwość zbudowania full stackowo aplikacji. Albo raczej, bardzo mi się to podoba, get started with the app Prototyping Agents. Czyli to, o czym mówiliśmy w poprzednim odcinku przy vibe codingu, czyli miejsce do tworzenia sobie, właśnie takie studio i cały stos do tworzenia aplikacji razem z hostingiem.

Szymon Warda: Ponownie czapka sceptyka, zobaczymy jak to wypali w większej skali.

Łukasz Kałużny: Wiesz, dlatego porównuję to do GitHub Sparka.

Szymon Warda: Tak, to są te same narzędzia, do tego samego służą. Zobaczymy jak się przyjmie, jak będzie dalej rozwijana.

Łukasz Kałużny: Ze względu na Firebase’a potrafi więcej.

Szymon Warda: Firebase i jego popularność, jeżeli chodzi o rozpoznawanie nazw, Firebase jest dla wielu developerów i w wielu obszarach po prostu domyślną usługą.

Łukasz Kałużny: Tak i LLM jest tego też nauczony dobrze, ich.

Szymon Warda: Tak. Dobra.

Łukasz Kałużny: Czyli co? Rok agentów niestety, tak jak się nabijaliśmy już dawno.

Szymon Warda: Wydaje mi się, że jeszcze giełda to pokaże, co będzie się działo tak naprawdę. Dobrze. To tyle. Na razie.

Łukasz Kałużny: Trzymajcie się, na razie.