#Short #Technology Radar #Azure #eBPF #AI
Deloitte wpadł na $440k raporcie wygenerowanym przez AI z “przepięknymi halucynacjami” - cytaty prowadziły do nieistniejących książek i przemówień. Łukasz komentuje sucho: “AI można używać, ale warto sprawdzić, co wygenerowało.” Tymczasem GitHub dostał rozkaz migracji z AWS do Azure w 18 miesięcy. 🎯
Allegro wypuściło swój Technology Radar - piękny graficznie, ale bez Rusta. Szymon kpi: “Definiowanie własnej tożsamości przez język programowania jest przerażające.” WebAssembly 3.0 wyszło z nowymi features, ale adopcja? “Mam coraz większe wątpliwości, czy to faktycznie kiedyś odpali.” eBPF + Open Telemetry łączą siły, a Kubernetes 1.34 dostaje GPU scheduling pod AI.
Na deser: OpenAI pokazuje Agent Builder (“pogromca low-code’owych startupów”), Pulumi ogłasza “pierwszego AI Power Platform Engineer”, a internet odpowiada memem: “Zmieniłem ’loading’ na ’thinking’. Jesteśmy teraz agentic AI startupem.”
Czy każdy vendor musi być teraz agentem? Sprawdź, zanim ktoś przemaluje twój loading spinner. ⚠️
Linki i ciekawe znaleziska
Transkrypcja
Łukasz Kałużny: Jest rzecz, która mnie bardziej zaskoczyła, jeżeli już szydzimy, nie ma tu rusta.
Szymon Warda: Ja się z tego śmieję bardzo mocno, ponieważ ilość linków odnośnie Go i miłości do Go i książek o Go, gdzie ludzie po prostu (…)
Łukasz Kałużny: Słuchaj, nie…
Szymon Warda: Własną tożsamość jest przerażająca.
Łukasz Kałużny: Szymon…
Szymon Warda: Dla mnie to jest taka informacja trochę późno chłopaki, ale to też pokazuje jedną rzecz bardzo, bardzo, bardzo mocno, że ten standard już się stał takim standardem rynkowym tak naprawdę. Ten temat, mimo mojej miłości, że bardzo bym chciał, żeby on się wydarzył, bo to naprawdę ma sens, jest zbyt długo przetrzymany. Mam coraz większe wątpliwości, czy to faktycznie odpali się kiedyś, czy po prostu stanie się, jeżeli w ogóle wypali w takiej masowej skali jak Docker, czy po prostu nie stanie się kolejnym enginem tak naprawdę, na który nie będziemy w ogóle zwracali uwagę.
Łukasz Kałużny: Cześć, słuchacie Patoarchitektów. Prowadzą Łukasz Kałużny…
Szymon Warda: I Szymon Warda. Wszystkie linki, wiadomo - Patoarchitekci.io, góra, dół, prawo, lewo, ogarniecie. Dobrze, dzisiaj co Łukaszu? Shorcik, shorcik, shorcik.
Łukasz Kałużny: Wracamy do, po 5 tygodniach albo 4 tygodniach tudzież odcinkach, wracamy do shortów. Więc na początek parę ogłoszeń. Pierwsze takie, że nareszcie, część z Was mogła już zauważyć, nareszcie wylądowała nowa strona Pato, więc…
Szymon Warda: Aż się łezka w oku kręci.
Łukasz Kałużny: Więc po bojach możecie. Mieliśmy swój mbankowy moment, bo testy na produkcji musiały być. Więc…
Szymon Warda: Nie mogłeś się powstrzymać rozumiem bez komentarza.
Łukasz Kałużny: Tak, nie mogłem. Więc część z Was przepraszamy, przepraszam za piątkowy pusty spam, który poleciał, bo zapomniałem zupełnie, że mamy integrację z MailerLite, która się rozjechała po migracji i tamten postanowił wysłać pustego maila. Dobra i jeszcze szkolenia, bo przy okazji nowej strony poszły trzy szkolenia, na które możecie się zapisać. Pierwsze to Architektura 101 ze mną, gdzie w listopadzie zaczynamy, 25 listopada i będą to cztery czterogodzinne spotkania, gdzie będziecie mogli uporządkować wiedzę na temat projektowania rozwiązań i myślenia architektonicznego. Tak to trochę określę. A Ty Szymonie potem?
Szymon Warda: Ja tym razem trochę skrócona wersja i bardziej okrojona, bo skupimy się na observability ze stosem Grafana. Czyli zakładam, że już co nieco wiecie o observability i skupimy się właśnie na tym, jak używać stosu Grafana z Prometheus’zem można powiedzieć, bo już niemalże w to wlicza. Czyli dokładnie zapoznamy się z Loki, Tempo i Prometheus’zem, jak tego używać, co, gdzie, jak i czy w ogóle to się dla Was nada. Jest taki mocno techniczny, mocno warsztatowy dzień.
Łukasz Kałużny: Tak. I ostatnie, 16 grudnia, tak na dobre zakończenie roku, bo w sumie to już będzie praktycznie końcówka roku, jak popatrzymy, zaraz święta, Sylwester, po dwóch latach publicznie wraca Kubernetes The Hard Way. Czyli będzie można spróbować zrozumieć jak działa Kubernetes pod spodem poprzez stawianie tego zupełnie, zupełnie z palca, bez żadnej pomocy. Zaczynamy od ściągania wszystkich binarek Kubernetesa z jego oficjalnego release’u i zero do tego pomocy.
Szymon Warda: Dobra, to lećmy w takim razie. Co tam wyszukałeś, wygooglałeś?
Łukasz Kałużny: Dobra, pierwsza rzecz, która mi się trafiła. Ty byś chciał zrobić z tego odcinek, ja uważam, że zupełnie bezsensownie, ale zaraz powiemy dlaczego. Allegro zazdrościło trochę Zalando, bo chyba tak to określę i potrzebuje employer brandingu od strony technologicznej, więc wypuścili swój Technology Radar.
Szymon Warda: Wersja pierwsza.
Łukasz Kałużny: Wersja pierwsza, tak. Bardzo ładna graficznie, więc za co dziewczyny, chłopaków chcę pochwalić, bo wygląda o wiele lepiej niż thoughtworksowy i zaczyna się go używać. Więc…
Szymon Warda: Tak, ale klikalność kwadratów jest znikoma, bo trzeba kliknąć na zoomin, żeby się przybliżyć. Ani kliknięcie na Languages, ani Quadrant1 nie pokazuje szczegółów.
Łukasz Kałużny: Tak i wiesz co teraz? Tak, jak popatrzymy na to, przejrzałem sobie, w szczególności zainteresowały mnie jak zawsze holdy i assaessy, jeżeli na to popatrzymy, na to, co działo się w danej wersji. I teraz tak, pierwsza rzecz - motywacja. Pewnie tak jak powiedziałem employer brandingowa, bo nie widzę innej, żeby firma produktowa takie coś wypuszczała i chwaliła się, czego używają, czego nie. O tak. I co mnie słuchaj zainteresowało? To po pierwsze, że Cassandra na holdzie, to jest takie ciekawe. Pewnie obstawiam, że pewnie inne bazy typu Couchbase, którego tutaj wskazują, Mongo, Postgres to wszystko przejęło jej rolę.
Szymon Warda: Znaczy to, że Couchbase jest zamiast Cassandry i Couchbase jest w adopcie, co jest ciekawe. Miałem do czynienia z Couchbase’m, w życiu bym go nie wziął tak wysoko. No ale okej.
Łukasz Kałużny: Dobra. Inna rzecz, która mnie stąd zainteresowała, bo mówię teraz database and infrastructure i druga rzecz na assessie jest Istio.
Szymon Warda: Też na to zwróciłem uwagę.
Łukasz Kałużny: W szczególności, że znajdziecie prezentację Allegro o tym, jak budowali swojego service mesha i control plane do service mesha. Dlatego mnie to zainteresowało jak to się tutaj znalazło?
Szymon Warda: Wiesz co, przy tej skali coś musieli wziąć podejrzewam.
Łukasz Kałużny: Ale nie, tylko wiesz co, jest ciekawa prezentacja, bo to jest, może ktoś z Allegro nas słucha i chciałby przyjść opowiedzieć co robią. A z jakiego powodu? Wiesz co, była prezentacja jak budowali control plane zintegrowany z ich platformą do wdrażania serwisów dlatego i wykorzystania envoya parę lat temu. Dlatego zdziwiło mi się, że tutaj to się tak pojawiło i to zostawmy.
Szymon Warda: Projekt się nie udał do końca. Tak też może być. Dla mnie, co mnie zaciekawiło, właśnie jak już mówimy o bazach danych, to jest sekcja database and infrastructure. To jest po prostu kolejny objaw tego, co widzę, że MySQL idzie do piachu. Bo z tym co tam ostatnio Oracle robił odnośnie licencji, że wywalił część zespołów utrzymujących open source’ową część i tak dalej, to właśnie tu jest MySQL na onholdzie i właśnie my się nawet dzieliliśmy tymi przemyśleniami, że no po prostu Postgres pozamiatał. Te wszystkie różne bazy, po prostu Postgres, Postgres, Postgres i wydaje mi się, że MySQL tam już jest na takim utrzymaniu i na dobiciu, że tak powiem.
Łukasz Kałużny: Może możecie kogoś polecić od Postgresa kto nie będzie Oskarem? Pozdrawiamy Cię Oskar. Z kim można byłoby porozmawiać na temat nowych feature’ów? Dobra.
Szymon Warda: To mnie zdziwiło jeszcze, Redis jest na trialu. Nie rozumiem czemu jest na trialu a nie na adopcie swoją drogą.
Łukasz Kałużny: Tak, okej. Wiesz, to są takie… Dlatego mówię, że context is the king w tym przypadku i tutaj w tym. Z rzeczy, które jeszcze mnie zdziwiło, bo mamy oddzielnie technic and tools i oddzielnie framework and tools. Więc w technikach coś co rozumiem, czyli GitHub Copilot na adopcie versus Cursor na holdzie. O tak. I to akurat rozumiem, że tak się pojawiło. Dla części osób może być to niezrozumiałe. No i teraz mój największy mindfuck. I to nie była Cassandra, tylko N8N na trialu w frameworkach.
Szymon Warda: Widziałem, wykorzystują. Znaczy generalnie, że w jakimś projekcie się sprawdziło i jest. Tyle.
Łukasz Kałużny: W sensie tak, ale zrobiło wiesz, takie… Ja wiem.
Szymon Warda: Ciekawsze jest do (…), który jest na holdzie i przy ich skali w pełni to rozumiem czemu jest na holdzie i czemu… Znowu, kwestie licencyjne, czemu się wycofują. Więc kupuję.
Łukasz Kałużny: Dobra i jedna rzecz, która to tak w sumie ok, rozumiem, zaskoczyło mnie, że bardzo dużo było u nich rzeczy, jeżeli chodzi o języki, bo wiemy, że Allegro mocno stało Javą w wielu miejscach, przy infrze też. I zaskoczyło mnie, że myślałem, że Golang będzie w adopcie, jak już zobaczyłem całą listę języków, które są. To jest jedna rzecz, która mnie tylko zaskoczyła.
Szymon Warda: Widocznie już nie są tacy bardzo hype jeżeli chodzi o employer branding. Nie dać Golanga w adopcie, to jest porażka, cały raport jest nieużyteczny.
Łukasz Kałużny: Ale nie.
Szymon Warda: Ja się z tego śmieję bardzo mocno, ponieważ ilość linków odnośnie Go i miłości do Go i książek o Go, gdzie ludzie po prostu…
Łukasz Kałużny: Słuchaj, nie.
Szymon Warda: (…) tożsamośc jest przerażająca.
Łukasz Kałużny: Szymon, przepraszam, jest inna, w sumie jest rzecz, która mnie bardziej zaskoczyła, jeżeli już szydzimy, nie ma tu Rusta.
Szymon Warda: To mnie nie dziwi.
Łukasz Kałużny: Zostawmy. Dobra, wiem jak mielibyśmy poszydzić na temat miłości i definicji życia, to powinno być kodowanie w Rust’cie w tym miejscu.
Szymon Warda: Oj nie, nie, wyślę Ci potem, może nawet dołączę do odcinka, tytuły książek. To brzmi jak filozofia i jak odkrywanie jogi albo innych rzeczy.
Łukasz Kałużny: Dobra tam, Go ma być, prosty, brzydki i działać. I pozdrawiamy IFERROR. Dobra leć dalej. Co u Ciebie?
Szymon Warda: Ja cała seria właściwie, bo kilka rzeczy się pojawiło i odnośnie monitorowania i eBPF-a i całej Open Telemetry. Pierwsza rzecz, która się pojawiła, to jest to, że pojawiło się OBI. Czym jest OBI? Open Telemetry eBPF Interface. I o co w tym chodzi? Chodzi o to, że ktoś siadł tak naprawdę… Znaczy instrumentation. Ktoś siadł i pomyślał o tym, jak to zrobić, żeby teraz powiedzieć na hype’ie (…) i zrobić na bazie tego Open Telemetry. Jest dość ciekawie. Co ma? No wiadomo, że generalnie ma moduły eBPF-owe, wiadomo. Ma możliwość instrumentacji nawet z trace’ami, oczywiście. Zbieranie, rozproszone tam i natywnie się integruje z Kubernetes’em, może wykonać TLS, SSL-a, tego typu rzeczy. No i wiadomo, że wysyła tego po prostu od groma. Mój komentarz jest taki, że po pierwsze mówiliśmy, że tak będzie, że ktoś stwierdzi, że Open Telemetry jest troszkę za trudne, to może teraz zbierajmy po prostu dane na poziomie kernela, czyli dość trochę nisko. Nie o to właściwie chodzi. To było nieuniknione, że to się pojawi, ale… Jest w ogóle ciekawe jak to się dalej rozwinie, od tego, to jest bardzo ciekawe. Ale teraz kilka dalszych linków. Pojawił się też fajny paper, który bada temat jak moduły eBPF-owe wpływają na wydajność. No i o dziwo, o dziwo okazuje się, że nie wszystkie wpływają pozytywnie, jak to się okazuje. Fajnie streszcza, że niektóre systemy właśnie dość mocno dostają po dupie, jeżeli chodzi o wydajność głównie sieciową. Wskazuje fajnie na powody czemu. Trochę właśnie kwestia kompilacji, trochę tego właśnie jak eBPF działa, jego ograniczenie, że chodzi o rejestry. Jest tam parę takich rzeczy, które pokazują, że można by co nieco nad tym eBPF-em posiedzieć, żeby to działało lepiej, skoro już mamy taką szeroką, a mamy szeroką adopcję. Co tam jeszcze jest takiego ciekawego? To jest to właśnie, że cała eBPF Foundation nie odpowiedziało na wyniki tych badań i eksperymentów. Tak że ciekaw jestem jak to się dalej rozwinie. I ostatni z tego z całej serii Open Telemetry. Jest co? Pierdoła, ale to fajnie pokazuje kierunek, w którym się rozwija. Google Cloud Observability pochwaliło się bardzo mocno, że tak już teraz mocno mogą przyjmować trace’y i wszystkie metryki i wszystkie inne rzeczy korzystając z Open Telemetry Protocol. Dla mnie to jest taka informacja trochę późno chłopaki, ale to też pokazuje jedną rzecz, bardzo, bardzo, bardzo mocno, że ten standard już się stał takim standardem rynkowym tak naprawdę. I to jest takie bardzo mocne pchanie w kierunku tego: ok, korzystajmy z tego, bo dzięki temu jak zrobicie lokalnie z czegoś, będziecie korzystali z jakiegoś produktu, to możecie przełączyć się na cokolwiek innego w chmurze. To jest jasne, że idą w tym kierunku.
Łukasz Kałużny: Raczej zabawa polega na odcięciu tego wszystkiego, Szymon. Popatrzmy sobie wprost, chodzi o to, żeby wreszcie… Inaczej, to jest świetny argument, że: słuchajcie guys, przepniecie tylko end pointa, w którym ten i my Wam damy nowe słodkie feature’y. Tylko zacznijcie wysyłać do nas.
Szymon Warda: I jeszcze idziemy dalej, to jest to, że mieliście aplikacje korporacyjne w on premise albo coś w tym stylu, to spokojnie wrzućcie to do chmury i korzystajcie z naszego. Nie musicie się już (…) za trace’a i innych rzeczy, my te wszystkie ładne dolary za Was zbierzemy. Ciekawe bardzo. Powiem tak, jasny ruch, ok.
Łukasz Kałużny: Dobra, ciekawostka i kurde zobaczymy co z tego wyjdzie, bo w wakacje odszedł prezes GitHuba, Thomas i nie ma następcy. To jest istotna rzecz. GitHub raportuje pod Core AI Team w Azure, jest po prostu kolejnym produktem azurowym. I teraz rzecz stała się niebywała. Bo to jest ciekawe, ponieważ nowe usługi w GitHubie są budowane na Azure. Jednym z takich przypadków, pierwsza usługa, która była budowana, to GitHub Actions, potem gdzieś jak tam popatrzymy. I po GitHub Actions, wszystkie nowe feature’y, które wymagały infry były budowane na Azure.
Szymon Warda: Też z racji tego, że trochę rzeczy, jeżeli chodzi o datacenter GitHub’owy tak trochę nie wyrabiam miejscami.
Łukasz Kałużny: Nie, bo oni trzymali większość publicznych rzeczy jednak w AWS-ie.
Szymon Warda: Tak, ale mieli też jakieś własne, coś tam mieli takiego.
Łukasz Kałużny: Nie, wiesz co, już większość chyba była, w tym momencie jak Microsoft kupował, jeżeli dobrze pamiętam, to już był głównie AWS, AWS. Jak zobaczymy na linki na przykład do repo, gdzieś artefakty, inne rzeczy pod spodem, S3 aż miło latała w pewnym momencie.
Szymon Warda: (…), ale nieważne, nie kłóćmy się.
Łukasz Kałużny: Dobra, i teraz co się dzieje? To wreszcie tracą niezależność. I tak jak LinkedIn, kopnęło ich przenoszenie do Azure’a.
Szymon Warda: Znaczy mają rozkaz przenoszenia do Azure’a.
Łukasz Kałużny: Tak, w ciągu roku mają się przenieść ze wszystkimi do Azure’a na infrę azurową. Dobra.
Szymon Warda: Nie, 18 miesięcy, a plan jest na rok.
Łukasz Kałużny: Tak, plan tak, ale dziwi mnie, że dopiero teraz, o tak. To jest, po tylu latach…
Szymon Warda: Trzeba było zachować, że wszystko niby jest w porządku.
Łukasz Kałużny: Po tylu latach. Ale najbardziej zabawna rzecz Szymon, my to samodzielnie popełniliśmy, muszą się zmigrować ze Slacka na Teamsy.
Szymon Warda: Widziałem, ze wszystkich usług zewnętrznych. Tak, tak, tak, tak, tak, to ich kopnie najbardziej.
Łukasz Kałużny: Tak, to jest najbardziej. Najbardziej zabawne było, bo pamiętam, teraz mogę się z tego pośmiać, jak w tym. Nie wiem jak jest, chyba na Office’a już przeszli w innych miejscach, bo jeszcze parę lat temu pamiętam taki rok po przejęciu. Wchodzę sobie na call’a dla VIP-ów z tym co dopiero się pojawi na konferencjach i ktoś z GitHuba wchodzi i zaczyna prezentować na Google Slides’ach z Chroma. To zabawnie wyglądało, o tak, jeszcze miał ten. Tak to mniej więcej w środku wtedy wyglądało. Plus plumkający Slack z liczbą powiadomień w tle. Więc tak to wyglądało. Więc zobaczymy, będą się migrować… Inaczej, ruch mnie w ogóle nie dziwi. Bo po co zostać (…) konkurencji?
Szymon Warda: Dobrze, to teraz z sekcji naszej dość regularnej, czyli shitshow w open source. Raportujemy co tam się dzieje.
Łukasz Kałużny: A, wyrzuciłem to nawet od siebie.
Szymon Warda: Ale są dwie rzeczy. Pierwsza rzecz, to jest to jest External Secrets Operator Kubernetes’owy, stwierdził, że mają tylko jednego utrzymującego, który jest na wakacjach, więc w sumie to wstrzymują się póki nie będzie minimum 5 utrzymujących i nie będzie żadnego rozwoju i tak dalej. Sensownie. To pokazuje ciekawie, że projekt na którym polega dużo organizacji jest utrzymany przez jedną osobę.
Łukasz Kałużny: Znaczy external, zauważ, że teraz, Szymon, sam korzystasz z SOPS-ów. Ten External Secret Operator…
Szymon Warda: Nie opiniuje tego. Wiem jak jest, ale to jest ciekawe jak te projekty się utrzymują załóżmy jak (…) ma jednego utrzymującego, taka z ciekawostek, który obsługuje wszystko. Ale z innych rzeczy, teraz, tym razem shitshow nie dotknął nawet największych hipsterów, czyli mianowicie Ruby. Całe zamieszanie… Słucham?
Łukasz Kałużny: Wiem już, o tak, ja też sobie już darowałem tutaj tego.
Szymon Warda: Tak, ogólnie rzecz biorąc, tak naprawdę skracając coś, co się w ogóle wydarzyło. Wydarzyło się to, że standard, czyli mianowicie ktoś zrobił rename’ma repozytorium, które było częściowo utrzymane przez firmę, częściowo przez open source’owych utrzymujących i tak dalej się. I całe powstało w takim razie przemianowanie, wyrzucili open source’owych, została jedna firma, nowa osoba została właścicielem, która teraz udaje, że w sumie nic się nie wydarzyło. A ci, którzy zostali wyrzuceni właśnie odpalają projekt równoległy.
Łukasz Kałużny: Wiecie co, jak popatrzycie, bo próbowano ten, jak tam popatrzymy, teraz było dużo zabawnych rzeczy. Jak tam popatrzymy na całość, tam się dzieją ciekawe rzeczy, ponieważ DHH, twórca Railsów jest w radzie nadzorczej Shopify’a, całe to sponsorowanie. Ogólnie, jak popatrzycie, najlepszą rzeczą z tego wszystkiego, zostawiam wątek na Twitterze, to są memy związane z próbą wprowadzenia Community Code of Conduct do paru projektów. I powstało nowe, piękne określenie: fork off. Czyli jak ci się nie podoba możesz zrobić forka. I proponuję zobaczyć Code of Conduct SQL Lite’a, jeżeli jeszcze nie widzieliście. Czy tam Code of Conduct, Code of Ethics, mają Code of Ethics, gdzie pierwsze, jeżeli zobaczycie, jest to totalna, zostawię do tego linka, jest to totalna szydera właśnie z tych wszystkich akcji. I chyba tyle bym powiedział, o tak. Zostawię też linka do memów, ponieważ były dobre.
Szymon Warda: Powiem tak, to pokazuje jedną rzecz, że taka opcja: jakoś się dogadamy, jakoś to będzie, już czas to upłynął i teraz po prostu wszystkie te, które się udały, będą musiały mieć jakąś konkretną organizację, fundację czy cokolwiek. I to będzie musiało być ustrukturyzowane, od tego nie uciekniemy.
Łukasz Kałużny: Szymon, jest przestrzeń, słuchajcie, jak ktoś, mi się tego nie chce organizować, ale coraz bardziej jest przestrzeń na Pudelka IT.
Szymon Warda: Oj, jak najbardziej jest, tak, to w ogóle bez dwóch zdań. Dobrze, Łukaszu, co tam masz?
Łukasz Kałużny: Zaczniemy z memem. Dla tych, co oglądają, mogą je teraz zobaczyć. Pewien polityk, Krzysztof Bosak, kiedyś napisał pięknego tweeta: jeden można, gdyby to było złe, to Bóg by inaczej świat stworzył. I teraz o co chodzi? Deloitte przeokrutnie wpadł na raporcie, który tworzył w Australii. Czyli jedna z dużych firm konsultingowych, tak zwanych Big Four, która w Polsce też ma za uszami, jak tam popatrzycie sobie po newsach. Ale o co chodzi w tym miejscu? Na czym wpadli? Był raport, za który wycena sięgała 440 tysięcy dolarów. No i słuchajcie, większość raportu nie tyle, że studentami, co wygenerowana AI-em.
Szymon Warda: Studenci wygenerowali AI-em.
Łukasz Kałużny: Tak i teraz, i można generować raporty AI-em. Można go używać, ale słuchajcie, trzeba przeczytać co tam się znalazło. I przepiękne halucynacje, ponieważ cytaty i inne rzeczy okazały się, że prowadzą do nieistniejących przemówień, nieistniejących książek, publikacji. Czyli taka piękna cała halucynacja. I tam było o obniżaniu ceny i innych takich rzeczach, więc zobaczycie. I to jest ciekawa rzecz. To tak jak z kodem, można używać, ale przydaje się sprawdzić co się tam wypluło. I to dość istotny element robienie quality check tego co robimy.
Szymon Warda: Dobra, to ja jeszcze wrócę na chwilę do jednej rzeczy, mianowicie do całego observability i tak dalej. Ciekawy artykuł, długi i całkiem niezły od Clickhouse’a. I podsumowanie artykułu jest takie, że LLM-y nie zastąpią roli SRE. Jak to wygląda? Zrobili test, odpalili 4 modele, piąty potem dorzucili i stwierdzili czy one będą umiały diagnozować co się właściwie nam wywaliło. Znaczy jedna bardzo ważna tutaj uwaga odnośnie tego artykułu, Clickhouse ma swój produkt, który umie namierzać co jest problemem i właśnie wspierać tego typu rzeczy. Wyszło im, że ich produkt jest najlepszy, tutaj w ogóle nie mamy dyskusji kompletnie żadnej. Więc artykuł wiadomo, trzeba przymrużyć oczy i przeczytać go. Ale co jest ciekawe? Co było najciekawsze w sumie, to było to, jak element kosztowy, bo wyszło, że Claude, który wypada w ogóle najlepiej, jeżeli chodzi o te wszystkie rzeczy…
Łukasz Kałużny: Jest najdroższy prawdopodobnie.
Szymon Warda: Jest, tak, około 4 dolarów za diagnozę pojedynczego, gdzie na przykład w kontekście OpenAI o3 w okolicy 1,5 dolara z reguły tam oscylował. A OpenAI Chat GPT 4.1 w okolicach 20 do pół dolara. Więc kosztowo to bardzo niewesoło wygląda. Ja się z tym wnioskiem zgodzę. To jeszcze nie jest ten czas na to, żeby LLM-y głównie właśnie z racji na wolumen tego, ile tego się pojawia. To jest jedna rzecz. To, co oni zauważyli, to jest to, że LLM-y czasami czepiają się pojedynczej linii i jednego problemu… Znaczy optymalizują lokalnie bardzo mocno. Zgodzę, ale też ta uwaga, że jako wsparcie, na przykład przeczytanie logów, diagnoza, sumaryzacja, są bardzo dobre i to się zgadza po prostu. Problem pojawia się…
Łukasz Kałużny: Z drugiej strony Szymon, teraz tak, patrzę sobie na te prompty na przykład, które były wrzucone.
Szymon Warda: Są tanie, bez rewelacji, tak.
Łukasz Kałużny: Dobra, You’re an Observability agent and have access to Open Telemetry data from a demo application. Users have reported issues using the application, can you identidfy what is the issue, the root cause and suggest potential solutions? Kurde, powiem dwie rzeczy jak na to patrzę. Ja wiem, że to jest marketing Szymon, tak jak powiedziałaś, pewne rzeczy. Inaczej, zgodzę się z tym, że takie autonomiczne agenty mają ze sobą w diabły problemów, od diabła. Ale jak…
Szymon Warda: Przy wolumenie danych.
Łukasz Kałużny: Tak, przy tym wolumenie danych. Ale jak widzę taki prompt, kurde, to nie jest vibe coding, że zaczynamy sobie spokojnie robić elementy, tylko nawet nikt, w sensie mam z tego polewę, bo to co zawsze polecam, to dla takiego Soneta, nie wiem jak z Gemini, bo tego akurat nigdy nie rozgryzałem, ale… Dobra, w sensie nie rozgryzłem, nikt nie wziął handbooka do promptów i nie wziął tego prompta i nie przerzucił na handbooka. Tu jest zero shot, nadzieja, że coś zadziała, bo ma tool’e.
Szymon Warda: Jest to marketing. To zostało zrobione tak, żeby wynik był jaki miał być. W ogóle tu nie ma dyskusji.
Łukasz Kałużny: Dobra to lecimy.
Szymon Warda: (…), to dalej ma sens.
Łukasz Kałużny: Dobra lecimy. Ty masz linka z całością, ja mam do jednej sweetaśnej pierdoły w Kubernetesie 1.34. Fajny przykład się pokazał: use and init container to define app environment variables. I teraz o co chodzi? Możecie init kontenerem wygenerować sobie plik env przykładowo i następnie wrzucając go na emptydir, czyli ten taki lokalny tymczasowy wolumen. I następnie jak init container zakończy swoją pracę, startuje nasza normalna aplikacja. To Kubernetes pozwala zrobić teraz file key refa, czyli referencję do tego pliku, który znajduje się na tym wolumenie i wciągnąć te zmienne środowiskowe. I to jest taka ciekawa pierdoła, która ominie wiele różnych dziwnych haków.
Szymon Warda: Czyli mówiąc prosto możemy refencjonować envy wygenerowane dynamicznie.
Łukasz Kałużny: Tak, które robi nam inny kontener.
Szymon Warda: Tak. Z rzeczy innych ciekawych, tak już totalne pod AI-a i to jest bardzo mocno, to są Dynamic Resource Allocation, DRA. Czyli cały myk o tym jak mając klaster i mamy różne nody, które mają GPU i wszystkie inne różne zabawki, to jak schedule ma sobie lepiej z tym radzić, gdzie ma co alokować, gdzie ma nie alokować i tak dalej. Czyli komplikujemy dość ważną rolę. No ale to jest typowo pod AI-a, nie oszukujmy się, to nie jest absolutnie pod nic innego. I tam weszły też rzeczy, jeżeli chodzi o alfy, bety i tak dalej, asynchroniczne wywołanie API w schedule, że to jest to, że mechanizm jest pod certificate request, kontenery mogą żądać certyfikatów dla (…) autoryzacji i tam jeszcze jakieś tam inne… A i rzeczy (…), to jest w becie weszła opcja in-place pod resizing. To może być dość ciekawe i też może pomóc głównie z dużymi systemami, które nie do końca lubią restarty.
Łukasz Kałużny: To ja teraz jedna rzecz pod Kubernetesa w tym - Linux Node Swap Support. To jest jedna z tych rzeczy, która tutaj… To się zaczęło w 1.22, ale zawsze mówiliśmy, że normalnie domyślnie cub let, instalacja powinna latać z wyłączonym swapem, żeby kontenery nam nie swap’owały. Ale jeżeli ktoś chce się skrzywdzić, bo ma tego potrzeby, to tutaj można powiedzieć, że work was done, jak to ładnie określają pod KEPem. Bardzo ładny KEP w ogóle, numerek zmiany, 2400, taki równiutki.
Szymon Warda: Parę rzeczy doszło, parę rzeczy się pojawiło, tyle właściwie.
Łukasz Kałużny: Tak.
Szymon Warda: Dobrze, a jak już mówimy o takich rzeczach, to w takim razie powiedzmy jeszcze informacyjnie, Wasm 3.0 został wydany. Parę rzeczy doszło, jest 64-bitowy, adresacja, większy obszar pamięci, ma garbage collection, ma resekcję dla typów i ma jeszcze wsparcie dla (…). Ale nic większego się nie wydarzyło i dalej (…).
Łukasz Kałużny: Wiesz co, to jest rzecz, która… Mam żal, że adopcja jednak nie idzie. Jak patrzę, kontenery mają się dobrze i tyle.
Szymon Warda: Nie idzie i dalej jest, jeżeli chodzi o… W ogóle adopcja. Adopcja jest dość słaba nawet w przeglądarkach, od tego zacznijmy. Safari to oczywiście wiedzie prym jeżeli chodzi o bycie z tyłu. Kto by się spodziewał. Ale ten temat mimo mojej miłości, że bardzo bym chciał, żeby on się wydarzył, bo to naprawdę ma sens, jest zbyt długo przetrzymany. Mam coraz większe wątpliwości, czy to faktycznie odpali się kiedyś, czy po prostu stanie się, jeżeli w ogóle wypali w takiej masowej skali jak Docker, czy po prostu nie stanie się kolejnym enginem tak naprawdę, na który nie będziemy w ogóle zwracali uwagę. Ale droga jeszcze długa, ciągnie się za bardzo, żeby było…
Łukasz Kałużny: Ale jakoś po prostu to nie ma trakcji ciągle. Mimo sensu i logiki to nie ma, w sensie to nie osiągnęło trakcji po prostu.
Łukasz Kałużny: Nie osiągnęło trakcji. Ale też ludzie, którzy rozwijają, piszą, też nie do końca widać, że jeszcze mają trochę problemów do rozwiązania. Tak że nie ma trakcji w wielu obszarach. Szkoda, była.
Łukasz Kałużny: Dobra. AI-owe newsy na koniec, czyli to co tam poleciało. Pojawił się Sonet 4,5. Pewnie, jeżeli oglądacie LinkedIna, to pewnie mogliście zauważyć na swoim wallu masturbację społeczną, socjalną tym, że wyszedł i jaki to on jest super albo jaki nie jest. Druga rzecz, która była, to ogłoszenie przez OpenAI, zabrania finansowania startupom. Czyli dlaczego o tym mówię w ten sposób? Ponieważ opublikowali AI AgentKit’a do budowania agentów, jak sama nazwa wskazuje. Ale najważniejszą rzeczą, którą pokazali, dlaczego mówię w tym, to pokazali UI-owy edytor do budowy flow z agentami - Agent Builder. I to jest chyba najważniejsza część taka, która pokazuje właśnie narzędzia i inne rzeczy. Zobaczycie sobie screen, to z linka, to będziecie wiedzieli dlaczego nazywam to pogromcą takich low code’owych startupów. I z drugiej strony z całości, którą tam patrzę i mnie zainteresowała, to jest reinforcement finetuning, który się pojawia tam pod spodem. I to jest rzecz, bo teraz finetuning, można robić finetuning na przykład modeli Open AI-owych, możecie zrobić to w Azure, możecie zrobić to płacąc za tokeny też w Open AI-u. Zaczyna to gdzieś tam wyglądać. Problemem były datasety, że trzeba generować datasety. I druga sprawa, że to nie prowadziło do takiej nakładki jaką byśmy chcieli osiągnąć w jakości. I tutaj reinforcement właśnie finetuning może pomóc nakierować właśnie w jaki sposób te toole mają być używane, wykonywane dla akcji. I to może być jednym z tych elementów, jeżeli włożymy trochę pracy, żeby pozwolić właśnie customizować sobie model. To jest tak, że dla OpenAI-a o4 mini jest to już dostępne, a dla GTP5, na którą sobie tam patrzę, zobaczymy co będzie, jest w tym momencie jeszcze w private becie. Zobaczymy w jaki sposób to będzie wyglądać, w jaki sposób będzie można to wykorzystywać potem w praktyce. I mamy właśnie tam opisane, w jaki sposób w JSONL-u zbudować sobie format tych wiadomości użytkownika, czego my potem oczekujemy, w jaki sposób to ma wyglądać, Więc zobaczymy jakie będą wyniki używania tego. Ja w szczególności patrzę na tą część związaną z toolami, bo tego jeszcze tutaj do końca w tym dla Omni nie ma, dla o4 Omni nie ma. Dla GT5 właśnie będą te toole. I to jest taka część, na którą, zobaczymy co z tego wyjdzie.
Szymon Warda: Łukasz ja jestem w absolutnym szoku. Jestem w szoku, nie wiem jak to przeżyję, że nie wspomniałeś o najważniejszym ogłoszeniu, jeżeli chodzi o AI-a.
Łukasz Kałużny: Jakim?
Szymon Warda: Pulumi Neo ogłasza, że stworzyło pierwszego AI Power Platform Engineer. Ja się z tego nabijam trochę generalnie, ale o co chodzi? Zwracam uwagę na to - AI Power Platform Engineer, czyli Pulumi, czyli cały OPS, nasza ulubiona jeżeli chodzi koło Terraforma i Bicepa i jeszcze innych, ogłosiło właśnie, że stworzyło AI-a, który jest zoptymalizowany na pisanie kodu IaC-owego. Wiadomo w Pulumi, bo o to chodzi. Też możesz z Terraformem integrować, więc zobaczymy jak to wygląda. Mnie zaciekawiło jak to jest reklamowane, że to jest reklamowane jako pracownik niejako. Wydaje mi się, że to nie jest (…)
Łukasz Kałużny: Jak każdy agent.
Szymon Warda: Co tam to umie zrobić. Platform Engineer to brzmi jak pracownik. Tak że marketing, marketing, marketing oczywiście. Ogólnie uważam, że ruch nie jest taki wcale głupi jeżeli chodzi o optymalizację, żeby to pisało. Jestem bardzo ciekawy wyników i jak to będzie trzymało standardy i tak dalej, i tak dalej.
Łukasz Kałużny: Dobra, wiesz co Szymon, ja podsumuję to, co zrobił Pulumi po tym jak wszedłem na ich stronę. Jest taki tweet, zostawię im też tu na ekranie, dla mnie to już jest mem: I changed all our “loading” states to “thinking”. We are an agentic AI startup now.
Szymon Warda: Tam próbują się rebrandować, żeby być teraz bardziej cool. Ale wydaje mi się, że to nas czeka też od pozostałych dostawców. Takie rzeczy będą powstawały i nie oszukujmy się, AI do generowania IaC-a jest dobry.
Łukasz Kałużny: Wszyscy chcą być agenticiem.
Szymon Warda: Wszyscy będą zaraz agenticiem, oczywiście, że nie ma innej opcji.
Łukasz Kałużny: To trzymajcie się i życzymy miłego dnia.
Szymon Warda: Miłego. Heja.

Wypełnij poniższy formularz, aby być na bieżąco ze wszystkimi
odcinkami Patoarchitektów
i uzyskać dostęp do dodatkowych
materiałów.