#114 Google Cloud Next 2024

2024, May 03

Sprawdź Patoszkolenia!

➡️ 04.06.2024 Architektura 101

➡️ 18.06.2024 Observability

Witajcie w nowym odcinku „Patoarchitekci”! Dzisiaj skupiamy się na Google Cloud Next 2024, analizując wpływ AI na przyszłość technologii chmurowych.

Pokażemy Wam, jak nowe podejście do VM-ów z ARM może zmienić reguły gry w infrastrukturze IT, zagłębimy się w szczegóły technologii Gemini, i porównamy narzędzia do monitorowania wydajności aplikacji z nowoczesnymi rozwiązaniami w observability.

Przyjrzymy się również, jak firmy mogą wykorzystać te nowości do optymalizacji swoich systemów i zwiększenia bezpieczeństwa danych. Rozpocznijmy techniczne głębokie nurkowanie w najnowsze innowacje chmurowe.

Słuchasz Patoarchitektów dzięki Protopii. Sprawdź, jak Patoarchitekci i Protopia mogą Ci pomóc ➡️ protopia.tech

Linki i ciekawe znaleziska:

Transkrypcja

Łukasz Kałużny: Cześć, słuchajcie Patoarchitektów. Prowadzą Łukasz Kałużny…

Szymon Warda: I Szymon Warda. Wszystkie linki do tego odcinka jak zwykle Patoarchitekci.io lub gdzieś na dole z reguły albo w zakładce w opisach. Dobrze Łukaszu, będziemy się chwalili czymś, kolejna iteracja. No to mów.

Łukasz Kałużny: Tak, odpowiadając na pytania, które trafiają na maila, gdzie następne szkolenia? I takie są. Zrobiliśmy od razu harmonogram na cały rok, więc znajdziecie cały opis na co można do nas się zapisać. Dwa najbliższe to u mnie w czerwcu Architektura 101. Szkolenie, które pokazuje jak budować systemy, o czym myśleć i o rzeczach, które są nie tylko w kodzie, ale poza nim, żeby złapać całą tą otoczkę. Szkolenie bardzo wysoko oceniane, trochę osób się o nie dopytywało, więc teraz możecie się zapisać. A Ty Szymonie co prowadzisz?

Szymon Warda: A ja kolejny temat, który marudzę i ględzę, że to jest nierobione, czyli mianowicie observability. Porównanie dwóch typów observability, starszego podejścia nie znaczy, że złego. Czyli tzw. APM, Application Performance Monitoring, opartych na debuggerach, czyli wpinających się w aplikację, na przykładzie Application Insights azure’owego. Zestawienie tego ze stosem chyba najpopularniejszym i najbardziej sensownym, jeżeli chodzi o alternatywę, czyli stos grafanowy, Tempo, Loki i Grafana i Prometeusz. Postawienie tego w klastrze, zobaczenie co tam siedzi i zapytania jak to spiąć. Plusy i minusy jednego podejścia i pokazanie, że te podejścia się całkowicie nie wykluczają, co więcej, one się nawet uzupełniają. I jak ładnie ułożyć procesy wokół jednego i drugiego. Te szkolenia mocno techniczne, już to będzie kolejna iteracja, poprzednio też spotkały się z bardzo dużym zadowoleniem, tak że będzie ciekawie.

Łukasz Kałużny: Tak i na resztę roku też znajdziecie parę fajnych pozycji. Jeżeli macie w firmie do zaplanowania jeszcze budżet i przeciąga się Wam to, a jeżeli chcecie zorganizować to u siebie wewnętrznie, również zapraszamy, bo takowe prowadzimy. No dobra, przejdźmy Szymonie do tematu odcinka, czyli Google Cloud Next 2024.

Szymon Warda: Gemini, gemini, gemini.

Łukasz Kałużny: Dobra, śmiejemy się, bo było wiadome, że będzie, nawet bez zaglądania, czytania, cokolwiek, można było strzelić, że będzie AI wszędzie, tak jak na każdej dużej konfie aktualnie dostawców chmurowych.

Szymon Warda: Ja tak przeglądając generalnie, takie ogólne wrażenie jakie mam przeglądając całość to jest, że Google chce pokazać, że umie zintegrować i że AI jest wszędzie. To jest jedna rzecz. Ale druga to jest, nie wiem czy zwróciłeś uwagę, ilość i jaki nacisk położyli na to, ile już osób korzysta, ile firm wykorzystuje produkcyjnie ten, którym się chwalą na lewo i na prawo, ilu developerów, jaka skala, że to nie jest tylko, że open AI jest wykorzystywany, tylko że faktycznie my jesteśmy wykorzystywani.

Łukasz Kałużny: Tylko co najciekawsze, bo jest tak, jest AWS i Microsoft wśród dostawców, jak popatrzymy sobie na raporty giełdowe i inne też zabawy, sposób wykorzystania i zarobków. Jest Microsoft z AWS-em, którzy się naparzają, długo, długo nic, troszeczkę można się zaśmiać i Google i znowu długo, długo nic.

Szymon Warda: Ja mam takie wrażenie, że trochę pogubił się kim chce być, gdzie chce być i trochę obudzili się z ręką w nocniku w kontekście tego, że pieniądze duże już nie są w B2C, jak oni z reguły trzymali tak naprawdę, że ten rynek będzie regulowany. Coraz bardziej Unia Europejska się dobiera do handlu danymi, tam już nie ma takiej super kasy, a chmura jest dużo bezpieczniejszym miejscem jeżeli chodzi o prowadzenie biznesu, bo tam mamy B2B i oni nie umieją się trochę w tym odnaleźć.

Łukasz Kałużny: Powiem tak, dla mnie było zaskoczeniem, że trochę spadli na drugą pozycję w tym wyścigu AI-owym, bo dla mnie byli od zawsze czarnym koniem tego.

Szymon Warda: Byli czarnym koniem, ale pamiętaj o tym, że czarny koń był w kontekście B2C. Oni dużo różnych projektów, których… Dla mnie to jest taka sytuacja, jak było z Kodakiem. Kodak jako pierwsi wyprodukowali kamerę cyfrową, ale struktura organizacji była totalnie nieprzystosowana do tego, żeby sprzedawać kamery cyfrowe, bo oni sprzedawali film. Więc mimo, że pomysł był, to po prostu upadł, bo organizacja nie umiała tego udźwignąć procesowo. Wydaje mi się, że to samo jest u Google’a. Cała organizacja Google przecież zarabia na reklamach, tam dziesiąt-parę procent jest na reklamach. Więc dodawanie innych produktów, to nie do końca wpasowuje się w ich biznes, w procesy, które mają. Więc tak, trochę to tak żyje, nie żyje, to idzie im pod górkę zdecydowanie.

Łukasz Kałużny: Jest to ciekawe. To co, lećmy z newsami po kolei co tam było. Czyli co? Gemini półtorej Pro?

Szymon Warda: Tak, dokładnie, milion tokenów, multimodalny, wszystko możemy robić. I tym się głównie chwalą tak naprawdę, że jest to model większy, lepszy i więcej może. Chwalą się liczbami po prostu.

Łukasz Kałużny: Wiesz co, ja bym przeszedł do tego, co z nim zrobili, bo to są ciekawsze elementy. Patrząc się Gemini to teraz cała rodzina Co-pilotów, bo nigdzie to nie pada tylko AI Assistance albo Duet IT, patrząc się, to pierwszy z takich newsów technicznych popatrząc, to polecieli sobie z Gemini for Google Cloud. Czyli Co-pilot, nasz asystent pomagający nam zarządzać chmurą. Jak ja sobie na to popatrzyłem, słuchaj i całość tutaj tych produktów, które są pod spodem, bo jest Code Assistance, Cloud Assistance, Security, BigQuery, Locker Database. Czyli jak popatrzymy, to co wszyscy też ogłaszali pod koniec zeszłego roku.

Szymon Warda: I te interesy nie są złe, żeby nie było tak naprawdę, ale faktycznie one są absolutnie wszędzie i one są, nie porywają. Co mi się podoba? To jest np. integracja, jeżeli chodzi o security właśnie, to, że on umie streszczać zagrożenia, umie reagować, itd. Ale jak na to spojrzymy na spokojnie, to to nie jest w sumie nic rewolucyjnego. To jest po prostu ładne obudowanie, ładna sumaryzacja tego, co już mamy. Tam nic więcej nie ma.

Łukasz Kałużny: Czy wiesz co Szymon, patrząc się na to, ja bym określił, to jest na zasadzie te wszystkie rzeczy powstały, bo konkurencja je ma, że wiesz, trochę checkbox w tabelce. My też mamy Co-pilota.

Szymon Warda: Czyli to było na zasadzie generalnie, że przecież doskonale wiemy z artykułów, zresztą z zeszłego roku, że w Google’u było wielkie poruszenie na zasadzie generalnie wszyscy teraz robią AI-a, więc po prostu wszystkie działy produktowe musiały jakoś tam AI-a doklepać i doklepały tego AI-a po prostu, że to jest sumaryzacja najprostsza tej wersji. Tak to wygląda, rewolucji nie mieli czasu zrobić tak naprawdę.

Łukasz Kałużny: Teraz tak, najbardziej patrzę na Gemini Code Asystenta z ciekawością, czyli odpowiednik GitHub Co-pilota.

Szymon Warda: Gemma.

Łukasz Kałużny: Gemma. I teraz dwie rzeczy, które tutaj lecą, które są dla mnie ciekawe, to chcę przetestować, bo słuchajcie, jest tak, że do jedenastego czerwca albo lipca jest on za darmo i można sobie przetestować i też położyć łapę, zobaczyć jaka jest jakość training setu, na którym to uczyli, bo to będzie ciekawe ile wewnętrznego kodu versus w miarę dobrego jakościowo versus open source’u, który tam załadowali. Więc tego jestem ciekaw, jak będzie jakościowo leciało, bo odwalili robotę, są integracje i z Visual Studio Code, JetBrainsami, wszystkie topowe języki są tam na dzień dobry złapane. I tym, czym się chwalą, że mają full code base awareness.

Szymon Warda: Też właśnie chciałem o tym powiedzieć. Tak, to jest ciekawe, ale to jest mocno nadmuchane pojęcie. Czyli nie do końca wiemy co się pod nim kryje i jak to jest jakościowo.

Łukasz Kałużny: Czyli że wrzucą Ci przez tą ilość tokenów, wrzucą Ci code base jeżeli zmieści się w oknie kontekstowym.

Szymon Warda: Tak, ale ogólnie chodzi tu o to, jak mówiliśmy nawet o Co-pilotach rok temu tak naprawdę, jak wchodziły, to jest to, że one mogą generować podpowiedzi generyczne albo podpowiedzi i kod w ramach naszego code base’u. I tu jest całe pytanie właśnie, jak bardzo w ramach code base’u i jak bardzo się zcustomizują. Ale mi też pokazuje to jedno, bo tam też właśnie są integracje, z jakimi repozytoriami się integrują. I to pokazuje jak genialnym zakupem był GitHub dla Microsoftu, bo tam ten cały kod siedzi tak naprawdę. Więc tak, też jestem ciekawy code base awareness. Nie wiążę z tym wielkich nadziei, że tak powiem.

Łukasz Kałużny: Wiesz co, ja chcę porównać to sobie, wziąć, skorzystać z tego przez tydzień czy dwa zamiast GitHub Co-pilota. Po prostu wyłączyć GitHub Co-pilota i zobaczyć czy będę mniej przeklinał czy więcej na to co mi wygeneruje.

Szymon Warda: Ale Łukasz, będziesz generował to na bazie swojego kodu, więc wydaje mi się, że lepiej nie będzie.

Łukasz Kałużny: Dobre, dobre.

Szymon Warda: Wydaje mi się full code base awareness w Twoim przypadku może być raczej bronią obusieczną.

Łukasz Kałużny: Kto to pisał? Jak dotknę starego projektu. Tak i co mnie martwi cenowo… Raczej cenowo martwi mnie. Jest jeden płaski cennik, 19 dolców za usera.

Szymon Warda: Co nie jest dużo, ustalmy.

Łukasz Kałużny: Nie jest dużo, ale AppFrontem.

Szymon Warda: Raczej, może inaczej, to nie jest dużo, to jest sporo, ale to jest o tyle dobre, że dla większych organizacji, bo raczej do tego jest skierowane, gdzie mamy dużo tego kodu, to się będzie opłacało po prostu. Dla małych…

Łukasz Kałużny: Wiesz, jak popatrzymy sobie, to wiesz, też jeden element, to zrównali się z GitHub Co-pilotem.

Szymon Warda: Na poziomie produktowym, powiedzmy sobie tak.

Łukasz Kałużny: Tak, jak sobie popatrzymy. Przy czym wiesz, nie jest to też GitHub Co-pilot Enterprise. I to jest taka, bo zobacz, że ten Co-pilot biznes, firmowy też kosztuje 19 dolców. Zrównali się z tym i zostaje jeszcze, i próbują, jak popatrzysz sobie, to cała zabawka jest tutaj, że próbują podlecieć z, jak to ładnie określić, że ten feature code base trochę awareness, który jest tutaj wrzucany, że jest w stanie Ci pokryć Co-pilota Enterprise możliwościami.

Szymon Warda: To wyjdzie bardzo mocno w praniu i to się będzie bardzo mocno rozwijało. I też pytanie ile? To są produkty, które właśnie ogłosili. One w pierwszej wersji będą dalekie od bycia idealnym. Pytanie tak naprawdę, ile Google będzie w stanie finansować ich dalszy rozwój? Bo pierwsze wersje nie będą jakieś super, nie oszukujmy się. Więc jestem ciekawy jak to będzie wyglądało powiedzmy za pół roku, za rok. To jest taka realna skala, jak to wyjdzie. Ale mnie jeszcze coś innego ucieszyło w tym wszystkim, już przejdę do kolejnego właśnie, Gemini w kontekście BigQuery i w kontekście analityki, bo to jest trochę ten ruch, w którym, mówiliśmy już parę odcinków temu, że do analityki użycie właśnie języka naturalnego, a do generowania SQL-i, to już mówiliśmy, że to może być kulawe, ale do generowania prostych wykresów, do generowania prostych raportów. Chwalą się jeszcze oczywiście gaining insights with AI powered capabilities. To mi trochę pachnie jak sumaryzacja danych, co potrafi być super efektem, może dać super wyniki, ale też, jeżeli jest bardzo płytkie, to właściwie dowiemy się tego co już wiemy. No nie? Co tam jeszcze wychodzi? Wychodzą jeszcze jakieś różne rekomendacje. Co jest fajne? To stworzyli notebooki a’la Jupiterowe do właśnie takiego operowania i zapytywania. To jest bardzo fajny ruch i to mi się np. bardzo, bardzo podoba, że to nie jest tylko prosty prompting, potem gubimy to gdzieś kompletnie, tylko faktycznie…

Łukasz Kałużny: Tylko sobie budujemy jak notebook w Jupiterze.

Szymon Warda: Tak, co potem możemy przełożyć ewentualnie na coś bardziej wydajnego, ale mamy to jakoś ustrukturyzowane, nie są to pojedyncze strzały i to jest naprawdę dobre. To mi się podoba bardzo.

Łukasz Kałużny: Wiesz czego się boję?

Szymon Warda: No?

Łukasz Kałużny: Powtarzalności, bo w Jupiterze, jak zrobiłeś tam querka czy cokolwiek, masz zagwarantowaną powtarzalność. Pomyśl sobie, że zamieniasz kod na prompta.

Szymon Warda: To będzie w ogóle ciekawe tak naprawdę właśnie, w ogóle jak modele podejdą do generowanych danych czy generowanych zapytań? Jak to będzie powtarzalne, jeżeli chodzi właśnie o wyniki za rok, powiedzmy sobie? Tak, to jest, jak wersjonować w ogóle te rzeczy? Raczej chyba nikomu na tym na razie nie zależy, ale to będzie ciekawe, To się zgadza jak najbardziej. Co mnie martwi, ale też ciekawi, to jest to, że jeszcze dali możliwości, żeby, nazwijmy to, AI już niech będzie, oczyszczał dane wejściowe.

Łukasz Kałużny: Mokry sen.

Szymon Warda: To jest mokry sen, ale to jest… Problem jest taki, że oczyszczenie jest najtrudniejsze, będzie kosztowne. Ale problem gdzie leży, to jest to, że jeżeli tu popełnimy błąd, wszystko się po kolei wywali i łatwo jest popełnić bardzo oczywiste błędy, które potem się będą ekstrapolowały znacząco na wszystkie operacje dalsze. Tak że boję się, że to będzie używane na pałę, na zasadzie: włączmy, o!, jest super, nie potrzebujemy tylu-set godzin oczyszczania tych danych. Ale ogólnie rzecz biorąc opcja wizualizacji notebooków tu mnie bardzo cieszy. To jest fajny kierunek rozwoju.

Łukasz Kałużny: Wiesz co, zobaczymy, jestem ciekaw tego w praniu wszystkiego. Dobra, z dalszych rzeczy, co tam jeszcze? W tych Gemini pojawiło się spore, nie wiem czy jest sens je wszystkie omawiać, bo patrząc się to powiedzieliśmy Security Operation, Cloud Assist. Co tam jeszcze jest? Database dla baz danych, następne do zarządzania i ostatnie ich studio do analityki.

Szymon Warda: Tak, tylko AI-em pokropili wszystkie serwisy i tam już nie ma za bardzo rewelacji, co się dzieje tak naprawdę. Po prostu tekstowe zapytania do właściwie każdej usługi. Tyle i sumaryzacja, nic więcej.

Łukasz Kałużny: Dobra, idąc dalej, bo to mamy widzę wspólne w notatkach, to to, że twarda infrastruktura. Czyli zaczynając od tego, że wypuścili VM-ki z ARM-ami Axion. Dobrze wymawiam? Axion?

Szymon Warda: Tak, Axion. 30% lepiej niż inne ARM-y, 50% szybciej, 60% wydajniej. Faktycznie liczby, które cytują, dużo dostawców chce się przerzucić właśnie i widzi przerzucenie się na ARM-a, mam wrażenie, że adopcja rynkowa nie idzie aż tak szybko. Więcej jest możliwości u dostawców niż mam wrażenie, że realnego użycia rynkowego. Takie jest moje wrażenie.

Łukasz Kałużny: Wiesz, to patrząc się, zawsze przypominam Cloudflare’a, oni np. pokazali powód przejścia, to była moc obliczeniowa którą uzyskują i to jest rzecz dostawców.

Szymon Warda: Jasne. Chodzi mi bardziej, wiesz co, bo w tym momencie mówimy o chmurach. Tak, mówimy o chmurach, ale w tym momencie mówimy bardziej chmury Azure, AWS, itd. Czyli systemy kierowane do użytkownika korporacyjnego, do klienta korporacyjnego. I czy tamten ARM jest adoptowany?

Łukasz Kałużny: No fucking way.

Szymon Warda: W ogóle, a to jest biznes, w który Google chce wejść i powiedzmy jakoś tam wchodzi. Może razem z kolejnymi adopcjami, wersjami Kubernetesa możliwe, ale dla mnie to przejście na Wasma, ok, tutaj faktycznie ARM może być takie cyk i jesteśmy na ARM-ie. Ale na razie tak trochę tego nie widzę do końca. Cloudflare jak najbardziej, ale oni są znowu bardziej dla bardzo wąskiego zbioru zastosowań.

Łukasz Kałużny: Tak, zrobili to pod siebie, optymalizowali to pod siebie. Słuchaj, to tak jak z. Kiedyś w serwerowniach dominowały, teraz mamy x86. Te ARM-y, to też jest proces, który trwa. Patrząc się na tą układankę i lecąc dalej z tymi rzeczami, to jest nowa generacja ich TPU TensorFlow unitów, czyli dedykowanego hardware’u do deep learningu.

Szymon Warda: Co jest tutaj ciekawe, to że wypuścili własne TPU, ale jednocześnie dalej chwalą się integracją z Nvidią, tak żeby to zaznaczyć.

Łukasz Kałużny: To jest właśnie ciekawa rzecz, że tu i dla mnie czarnym koniem troszeczkę Google Cloud, jeżeli chodzi o AI i całą zabawę, to właśnie były te TPU, jeżeli popatrzymy na to, że posiadali już naprawdę dobrze zoptymalizowaną swoją własną technologię do mocy obliczeniowej.

Szymon Warda: Wiesz co, tak, ale jednocześnie dla mnie to jest tak trochę, że mieli własny hardware z własnymi możliwościami, ale po prostu Nvidia wokół nich robi kółka jednocześnie.

Łukasz Kałużny: Patrząc na giełdzie to tak.

Szymon Warda: Patrząc na giełdzie, patrząc na możliwości, ale patrząc przede wszystkim na standard rynkowy, po prostu co jest wykorzystywane, jak jest wykorzystywany i czego ludzie szukają. Mało kto szuka alternatywy do Nvidii, bo wszyscy kojarzą AI to Nvidia po prostu.

Łukasz Kałużny: Raczej AMD też dostało tym po pysku, jakby nie patrzeć.

Szymon Warda: Ogólnie wszyscy dostali po pysku generalnie tym, co tam Nvidia teraz robi. Ale te pół, które wypuścili w wersji piątej, wersja 5P nawet tak naprawdę, chwalą się, że jest 4 razy szybszy niż poprzedni, itd. Więc te wyniki nie są złe. Ale co jest też ciekawe, nigdzie nie porównują się do Nvidii. To też znaczy, że to porównanie nie wyszło by zbyt pozytywnie.

Łukasz Kałużny: Tak i w tym samym newsie są również VM-ki nvidiowe.

Szymon Warda: Tak i to takie mocne, potężne i chwalenie się tym, że można właśnie A3 mega, itd., czyli takie potężne faktycznie do AI-a. Czyli ewidentnie pokazują, że TPU nasze dalej żyje, ale pewnie będziecie szukali Nvidii, więc mamy offering dla Nvidii po prostu.

Łukasz Kałużny: Dobra, co dalej u Ciebie z takich rzeczy?

Szymon Warda: Wiesz co, dalej patrząc jeszcze… Dla mnie przeglądając takie platformowe rzeczy, chmurowe, to jest bardzo dużo rzeczy wychodziło z preview tak naprawdę i to były raczej takie ogłoszenia, które normalnie na blogu są albo w jakimś news feedzie tak naprawdę, że coś się pojawiło, coś jest. Szczerze? Nie widzę tam niczego krytycznie ciekawego.

Łukasz Kałużny: Właśnie, to jest tak jak po wizytach, w notatkach mamy gdzieś, np. że polepszyli cloud storage fuse’a, czyli driver, żeby łatwiej się podpinać. Są jakieś Hyper Disk Storage Pulse, które są… Wymyślamy macierz w cloudzie, bo tak to troszeczkę brzmi w general availabilit.

Szymon Warda: Duży nacisk, z tego co praktycznie jest oczywiste generalnie, to jest oczywiście inwestycja cała w GDC, czyli Google Distributed Cloud, czyli żeby można było chmurę google’ową odpalić sobie na OnPremie, odpalić sobie połączenie w sposób, żeby AI-a mieć tu i tu. Czyli to samo co robi też MS, czyli podejście do tego, że ok, my mamy AI-a, Wy i tak tej Nvidii nie kupicie. Więc jakby tu połączyć, żeby to dalej działało? Wokół tego jest dużo faktycznie, wokół skalowania dysków, jak to połączyć, itd. Sporo właśnie takich rzeczy około właśnie governenc’u, networkingu pojawiło się, jak bardziej, żeby rzeczy chodziły bardziej po prywatnej sieci. Więc dużo bym powiedział, że uzupełnień wokół bazowych rzecz na poziomie sieci.

Łukasz Kałużny: Tak i z tych sieciowych ja sosibe dwie rzeczy zanotowałem, które poleciały. To jest model as a service endpoint, czyli wystawianie, sposób wystawiania modeli. To była pierwsza rzecz, taka zanotowana z tych newsów. Druga rzecz, którą sobie zanotowałem, raczej zanotowałem. Nie zauważyłbym tego, gdyby znajomy, który tworzył feature’y pod spodem, mi nie wysłał linka chwaląc się, że ogłosili. To jest coś takiego jak wykrywanie shadow API w środowisku Google Cloud. I to jest mega feature, czyli wykrywanie upublicznionych przez między load balancery np., upublicznionych czy w środku, czy na zewnątrz, nie podpiętych pod APIG naszych API.

Szymon Warda: Czyli tłumacząc to, mamy korporacyjne ustalenie, że wszystko idzie przez jedno APIG, odpowiednik API Management, a ktoś nagle boczkiem nie słuchając się ustaleń korporacyjnych wystawia sobie coś inaczej publicznie. I tu się zgodzę, super feature, mała rzecz, a bardzo cieszy.

Łukasz Kałużny: Tak, to jest właśnie wiesz, to jest na zasadzie tak popatrzyłem: oooo tak, chętnie bym skorzystał też w innych miejscach.

Szymon Warda: Tak, ale to jest też fajny sposób na nabijanie kasy i powiedzenie bardzo prostego, że tanie security korporacji opcje, że sprawdzajcie to, jednocześnie powiedzenie, że skoro tak, to nie oszukujmy się APIG, APIM są kosztownymi usługami. Powiedzenie, że jak więcej nabić, jak zwiększyć skalę, tak trochę patrząc na to tak, to finansowo.

Łukasz Kałużny: Nie, to tak, jest to chamskie, ale dobre. Dobry sposób trzepania kasy. Ja bym jeszcze dorzucił tutaj z takich rzeczy, to co się pojawiło, to jet stream. Kurde, nazwa jest w ogóle z bani, bo mi się od razu kojarzy z silnikiem Microsoftu starym bazodanowym, dobrze działającym nawet. To jest interface dla LLM-ów do napędzania ich. I w tym miejscu chodzi o to, żeby rzeczy, które były napisane m.in. na PyTorchu w łatwy sposób wykorzystywać z TPU. Tak, bardzo, bardzo pokrótce. Raczej jest to ściągająca do korzystania z ich mocy obliczeniowej.

Szymon Warda: W ogóle odnośnie tego, co ruszyłeś, mianowicie nazewnictwa, to mnie smuci to, że Google też idzie w kierunku nazewnictwa a’la AWS, czyli np. było kiedyś Data Studio, teraz nazywa się to Looker. Naprawdę. Czy naprawdę potrzebujemy sobie utrudniać życie? Ale trochę tak właśnie tych usług powstało. Jest. Temat, który mnie trochę bardziej interesuje tak naprawdę, to jest wiesz co? Bo chwalili się tym, w czym Google kiedyś był dobry, czyli właśnie wszystkie usługi wokół B2C. Czyli to tam idzie w kierunku właśnie Meetu, w kierunku Gmaila, itd. Ale znowu to są takie bardzo inkrementalne zmiany. Część w ogóle ma być płatna tak naprawdę, jeżeli chodzi o pisanie maili, odpowiedzi. Ogólnie to tak nic rewolucyjnego, co może być ułatwieniem do życia, ale tu też widać, że to zostało dorzucone i nie ma jakiegoś wielkiego pomysłu jak z tego skorzystać. Chociaż wydaje mi się, że to będzie najczęstszy sposób jak będziemy prowadzili interakcję tak naprawdę. Zobaczymy.

Łukasz Kałużny: Jedna z rzeczy, która jest tam ciekawa, to jest ten AI Security Addon, czyli DLP zostało nazwane jako AI Security.

Szymon Warda: Nazw jest tam dużo generalnie, tak. Patrzę, przeglądam jeszcze notatki, co tam jeszcze siedzi. Jeszcze duży rozwój, jeżeli chodzi o dane. Czyli mianowicie wokół Postgresa, dorzucenie mu vertexów, dorzucenie mu lepszego wsparcia wokół Redisa, żeby większą możliwość. Czyli wszystkie rzeczy, które potrzebne są, żeby budować modele sensowniej i sensowniej je serwować. Ale to są, to dania inkrementalne bardziej nadgonienia ty.M, co rynek ogłosił albo właśnie już ma tak naprawdę. Więc bez rewelacji bym powiedział i jeszcze jedna rzecz faktycznie, jeszcze dalej rozwijają Service Mesha bazującego na Istio, ale to też jest pojedyncza wzmianka i tam też nie wygląda by się jakoś bardzo dużo działo.

Łukasz Kałużny: Tak, wiesz co, ja bym dorzucił stąd dwie rzeczy, jak powiedziałeś. To jeszcze w tym Vertex AI-u, to jest rozwijanie Hybrid Searcha, którego u siebie do RAG-a. Kurde, suchar mi się rzuca jeden, czy będzie tak jakościowy jak ich wyszukiwarka aktualnie? Czyli słabej jakości.

Szymon Warda: Tak, dlatego ja na te ogłoszenia wszystkie patrzę na zasadzie generalnie to są coś co wychodzi z preview właśnie. Więc to nie będzie jakieś jakościowo super, mega fajne. Jestem ciekawy jak to się odbije po rynku, jakie będą wrażenia, ale nie spodziewam się zbyt dużo po tych ogłoszeniach, że tak powiem.

Łukasz Kałużny: Dobra i ostatni news, który mnie zaintrygował, bo może ktoś zrobi to wreszcie dobrze i zacznie to działać, to ogłosili Private Preview Cloud FinOps Anomaly Detection. I to jest taka rzecz, patrząc się, to jest pierdoła, która jak sobie popatrzymy na zarządzanie kosztami w Cloudach, jest chyba teraz dobre anomaly detection szybko działające, jest chyba najbardziej brakującą rzeczą u wszystkich tak realnie.

Szymon Warda: Łukasz, ale mówisz, że to jest pierdoła. To nie jest nic trudnego, to jest coś piekielnie czasochłonnego i które może być bardzo drogie dla organizacji dowolnej, a szczególnie małej.

Łukasz Kałużny: Tak, dlatego mówię, że to jest rzecz, która jest, wiesz, w diabły istotna i nikt tego nie zrobił jeszcze, patrząc się na rynek, nikt nie zrobił tego dobrze.

Szymon Warda: To może też polega na tym właśnie, moje marudzenie, że tam jest tylko sumaryzacja, itd. To samo jest w monitoringu, observability, w kosztach, w rzeczach, których mamy od groma sygnałów, a zrobienie akcji na tym właśnie i mądrej detekcji, to jest faktycznie super trudne. Mnie bardzo cieszy. Nawet w poprzednim odcinku mówiliśmy o tym, że przydałoby się iść. Dzieją się takie rzeczy wokół FinOpsa i jestem ponownie ciekaw jak to będzie działało. Czy to po prostu będzie wykrywanie trzech anomalii i koniec? Czy to będzie rozwijane? Bo tu rozwój ciągły tego jest super ważny, nie tylko checkbox, że mamy.

Łukasz Kałużny: Właśnie, więc wiesz, dlatego zobaczymy co z tego wyjdzie. Jak wiadomo jest to, całość jest inaczej, zobaczymy co im z tego wyjdzie w praktyce, bo to jest. Tutaj mówią, że obiecują niewiele, więc dobrze na początek, ale może to niewiele będzie naprawdę good enough. Zobacz, że przy tym zależy nam na tym, żeby ta usługa poinformowała Cię jak najszybciej, że coś się zaczyna dziać.

Szymon Warda: Tak i też jednocześnie wykrywa faktyczne anomalie. Nie to, że włączyłeś nową usługę. Zobaczymy. Ogólne podsumowanie tej konferencji jest chyba takie, że dużo małych ogłoszeń, rewolucji nie ma, Google nadgania i czekamy na weryfikację rynkową tak naprawdę. Tak?

Łukasz Kałużny: Tak. I przepraszam, AI wszędzie.

Szymon Warda: Tak, Gemini dokładnie rzecz biorąc.

Łukasz Kałużny: Gemini.

Szymon Warda: Pamiętaj o tym.

Łukasz Kałużny: Chyba tak pod koniec trochę Gemmę, czyli ten open source, który wypuścili na siedmiu milionach parametrów, pominęliśmy. Ale w sumie był przed, był ogłaszany już wcześniej, z tego co pamiętam.

Szymon Warda: Tak. Dobrze, to co, kończymy?

Łukasz Kałużny: Kończymy. Na razie.

Szymon Warda: Trzymajcie się.