#140 Short #64: Stack Overflow Decline, Deep Seek AI, Cloudflare SSH, Observability Reality

2025, Feb 07

Stack Overflow upada, a DeepSeek AI wkracza na scenę w najnowszym odcinku Short #64. Patoarchitekci analizują upadek legendarnej platformy programistów i badają chińskiego konkurenta dla ChatGPT.

Zespół zagłębia się w świat Cloudflare SSH na żądanie i demaskuje marketingowy szum wokół Observability 2.0. Networking wraca do łask, a eBPF może zastąpić drogie narzędzia monitoringu?

Masz dość wydawania fortuny na Dynatrace czy New Relic? Dołącz do dyskusji o tym, jak open source i sprytne rozwiązania mogą uratować Twój budżet IT. Posłuchaj, zanim Twój szef podpisze kolejną kosztowną umowę!

Słuchasz Patoarchitektów dzięki PROTOPII – firmie, w której Łukasz i Szymon działają na co dzień, wspierając zespoły IT na każdym etapie: od projektowania, przez wdrożenia i migracje, aż po optymalizację i zabezpieczenia. Oferujemy też mentoring i szkolenia dostosowane do potrzeb każdej firmy, niezależnie od wielkości. Sprawdź nas: protopia.tech

Discord 👉 https://discord.gg/78zPcEaP22

Linki i ciekawe znaleziska:

Transkrypcja

Szymon Warda: Cześć, słuchacie Patoarchitektów. Prowadzą Szymon Warda…

Łukasz Kałużny: I Łukasz Kałużny. Wszystkie linki do tego odcinka znajdziecie na Patoarchitekci.io lub gdzieś tu na dole. Ogarniecie, wierzymy w Was.

Szymon Warda: Tak.

Łukasz Kałużny: Z drobnych zapowiedzi parafialnych, to powoli tworzy się nowa strona Pato, już landing, zacznie się tam kilka ciekawych rzeczy. Plus do tego chyba dograliśmy już szkolenia i w ciągu najbliższych dwóch tygodni zobaczycie kalendarz i nasze nowe pomysły na szkolenia, w których będziecie mogli wziąć udział. Chyba trzeba o dwóch powiedzieć ciekawych, które się pojawią, na pewno.

Szymon Warda: Czyżbyś myślał o eBPF-ach?

Łukasz Kałużny: Tak, Szymon pokaże observability na Kubernetesie za pomocą eBPF-ów.

Szymon Warda: Bardziej profiling i tego typu rzeczy. Nie wiem czy nazwiemy to observability, bo nam się oberwie jeszcze i będziecie na ten temat marudzili, że same eBPF-y to nie do końca jest observability. Czemu to robimy? Bo widzimy, że organizacje wydają tak sześć cyferek, siedem cyferek na narzędzia typu Dynatrace, New Relic, itd. A część z tych rzeczy można zrobić po prostu za dużo mniejsze pieniądze open sourcem i łatwiej i lepiej, szybciej właściwie.

Łukasz Kałużny: Tak, da się to ogarnąć. A ja za to wprowadzam taki bardzo podstawowy temat, ale bardzo potrzebny. Ostatnio nawet widziałem wykres kompetencji, że networking wróci do łask bardzo mocno i to co będę robił to całodniowe szkolenie z podstaw networkingu dla developerów.

Szymon Warda: W końcu udało mi się Łukasza namówić na zrobienie takiego szkolenia. Szczerze? Naprawdę uważam, że to jest bardzo ważne i to, że networking wraca do łask chyba dlatego, że ludzi kopnął Kubernetes w czułe miejsce i stwierdzili, że przydałoby się ogarnąć to co się dzieje.

Łukasz Kałużny: Ale i chmura i zwalone modele networkingowe, ja mówię, muszę opatentować serverless networking wreszcie, networkless serverless.

Szymon Warda: No to jest, lecisz po publicu.

Łukasz Kałużny: Dobra, idziemy teraz słuchajcie z tematami. Szymon to co, zaczynaj, bo ja mam jeden nudny temat.

Łukasz Kałużny: Będzie dzisiaj dużo wokół AI, itd. Ale zacznijmy od tego, jakiś czas temu, w zeszłym roku pisaliśmy o tym właśnie, co się dzieje ze Stack Overflow tak naprawdę. I znowu Pragmatic Engineer, o nim będzie trochę dzisiaj mowy, popełnił całkiem ciekawy wpis. Ciekawy, ciekawy, on twierdzi, że cały upadek Stacka, bo tak to trzeba nazwać, Stack Overflow już ani nie jest wysoko w wynikach wyszukiwania Google’a. Ja osobiście jak szukam czegokolwiek, to częściej tam znajduję pytania z brakiem odpowiedzi, tudzież pytania z dalszymi pytaniami tak naprawdę. I on twierdzi, że to wszystko upada, że tak powiem przez chata, może inaczej, obecnie chaty właściwie tak naprawdę. Moja teoria jest zupełnie inna, że po prostu tam było, nawet informacja o tym właśnie o trochę takiej słabej polityce moderacji, itd., trochę mniejszym zainteresowaniu tego wszystkiego. Artykuł warty na zerknięcie, bo tam jest trochę liczb, ale też jestem trochę ciekawy właśnie jak Wy to widzicie, jak często na Stacka wchodzicie? Widzicie w ogóle go w wynikach wyszukiwania? Bo już tego w ogóle prawie nie widziałem.

Łukasz Kałużny: Ale jedno jest śmieszniejsze, zauważ, że nie mówimy o tąpnięciu przy ChacieGPT, ale zobacz, że to jest w ogóle 2014-2020 już był powolny… Była równia pochyła, a potem walnęła krawędź po prostu.

Szymon Warda: Znaczy on się przeżarł, po prostu zaczęła być trochę taka toksyczna moderacja typu “to już było”. Takich wpisów było dość dużo. To już było, to już było, to już było.

Łukasz Kałużny: Słuchaj, czy metoda, żeby pierwszym odpowiedzieć i zaczynasz robić, że robisz prosty wpis, a potem work in progress i edytujesz ciągle tam inne porady, jak nabić te punkty i inne rzeczy. Zaczął się z tego ten RPG robić normalny, Massive Online RPG.

Szymon Warda: Zbijanie punktów, to było fajne na rozwój, ale oni trochę tego nie pociągnęli dalej. Jestem ciekaw jaka będzie przyszłość całego Stacka. Zobaczymy co wykombinują.

Łukasz Kałużny: Wiesz co, ale to jest tak jak… Inaczej, fora sobie poleciały i zniknęły. Jak popatrzymy jak działają społeczności internetowe. Fora prawie nie istnieją…

Szymon Warda: Elektroda.pl to jest forum, na które wchodzisz i dostajesz bęcki.

Łukasz Kałużny: Jak to było? Ten, zasilacz z listy zakazanych, zamykam temat.

Szymon Warda: Tak, dokładnie to jest to, pytanie i wpierdol.

Łukasz Kałużny: Tak. Oj, będzie trzeba wypipczeć dla przedszkolaków.

Szymon Warda: Możliwe, że tak.

Łukasz Kałużny: Ale to Elektroda… Nie, więc tutaj ten upadek nie jest… Jak popatrzysz na resztę procesów, które się dzieją, to ludzie w większości konsumują, nie dzielą się, nie tworzą albo walą komentarz z tyłka.

Szymon Warda: Tak, ale to też pokazuje jak bardzo blogi trochę odeszły już z takiej fali uwielbienia, itd. Dużo się pozmieniało.

Łukasz Kałużny: Nawet nam się nie chce pisać, wolimy gadać.

Szymon Warda: Trochę tak to wygląda. Tak że ja bym tego wszystkiego na Chata nie zwalał. Przemyślenia dość ciekawe, ale może niekoniecznie. Dobrze, Łukaszu, co tam masz? Zacznij swoim tematem.

Łukasz Kałużny: Dobra, on jest już taki wielki, napompowany, ale muszę. Wyszło takie badziewie, którego jest bardzo dużo teraz na LinkedInie… Inaczej, niestety przez to, że patrzę na te sociale i pokazują mi się rzeczy technologiczne i ci nieszczęśni szamani od AI-ów, to głównym tematem ostatnich dni albo tygodni, w zależności w którym momencie tego słuchacie, jest czwartek 30 stycznia, jak to nagrywamy, to jest istotne, ten moment, to jesteśmy już od paru dni zarażeni DeepSeekiem, czyli nowym chińskim LLM-em. I co się z nim zadziało? Słuchajcie, bo to są…

Szymon Warda: Nie do końca chiński, bo tak pół na pół bym powiedział, że jest chiński.

Łukasz Kałużny: Tak, Jeżeli polecimy, tam jest kilka istotnych elementów, jest dużo bardzo ciekawych wątków, które są. Po pierwsze, on nie przyszedł znikąd, bo to jest takie ważne założenie. Jeżeli posłuchamy tego, jak firma, która za nim stoi, jak właściciel, który stoi za tą firmą, on planował już to zrobić kilka lat temu, więc to nie jest nic nowego. Poza tym mieli zakupione potężne klastry obliczeniowe. Fakt, że na starszych tych kartach Nvidii, ale nadal mieli zbudowane klastry pod trenowanie.

Szymon Warda: Ja się dowiedziałem na ten temat, że oni wydali pół miliarda na całe klastry.

Łukasz Kałużny: No właśnie, no właśnie. I teraz tak i teraz ważna rzecz, która jest tutaj w całości tego, której trzeba być świadomym. Ludzie zapominają, że ten koleś i ta firma jest z Chin. W Chinach nic nie dzieje się bez zgody partii w tej skali. Jeżeli dorzucimy do tego, że Alibaba 3 dni potem wydaje swój model, to wszystko ma troszeczkę inne rzeczy. I co tutaj jest ciekawego? Z jednej z takich rzeczy faktycznie w benchmarkach ten model robi robotę.

Szymon Warda: Wygląda bardzo ładnie.

Łukasz Kałużny: Tak, w szczególności w wersji open source’owej. Dorzucę Wam też linka o architekturze, jeżeli ktoś jest ciekawy. Całość polega na bardzo mocnej optymalizacji i podejściu do tak zwanego mixture-of-agents, że nie cała sieć neuronowa jest odpalana w jednym momencie, w trakcie tego obliczenia. I dwie rzeczy, które są istotne z całości. Akurat udało się to zrobić Chinom, firmie z Chin, jest to, że ktoś wreszcie posiedział nad optymalizacją budowania inferencingu.

Szymon Warda: Powiedzmy sobie szczerze generalnie, bo cały rozwój był, na chwilę obecną tańsze i szybsze dużo jest dorzucanie obecnie mocy obliczeniowej.

Łukasz Kałużny: Ale inaczej, jeżeli popatrzymy na tryb, w którym żyje zachodnie, w szczególności Stany, które polega na tym, że jak najszybciej trzeba przepalać gotówkę, żeby rosnąć, to nikt się nie będzie martwił w tym momencie optymalizacją.

Szymon Warda: Znaczy pokazywać wyniki giełdowe tak po prostu.

Łukasz Kałużny: Dokładnie. I nikt się nie będzie przejmował optymalizacją, a tamci dzięki ograniczonym zasobom pokazali. I teraz jak ktoś mi mówi, że trenowanie kosztuje zamiast 100 milionów, tam 5 milionów dolarów. Sorry, tylko trzeba było mieć sprzęt za 500 milionów, żeby w ogóle to zrobić. I tutaj jest…

Szymon Warda: Różnica.

Łukasz Kałużny: Tak. I tutaj dochodzimy do takich rzeczy. I teraz, jeżeli tam popatrzymy, to jest kilka rzeczy, które jest dla mnie fascynujących od strony API, jak i szamanów AI i tego, co się dzieje i jak na to patrzymy. Czyli po pierwsze giełda, a w szczególności Nvidia. Wyparowała gotówka po prostu.

Szymon Warda: 10%.

Łukasz Kałużny: Różnie. Zostawmy. Inaczej, wczoraj zastanawiałem się - kupować czy shortować? To było pytanie. To było bardzo trudne pytanie i nic nie zrobi. Stwierdziłem, że najbezpieczniej będzie tego nie dotykać.

Szymon Warda: A ja inne ruchy zrobiłem niż… Akcja mimo wszystko jakaś była. Dobrze.

Łukasz Kałużny: Dobra, jeżeli teraz popatrzymy na to, to faktycznie giełda, słusznie, inwestorzy wycenili ryzyko. Inaczej, tutaj karawana jedzie dalej i tak będzie, to potem znowu wróci do swoich poziomów i będzie rosło. Nie oszukujmy się z tym.

Szymon Warda: Przede wszystkim było, tąpnięcie też wynikało z tego, że tam poleciała informacja, że o ile trenowanie było na Nvidii, to faktyczne działanie leci na chipach Huawei’a.

Łukasz Kałużny: No właśnie i to jest takie w tym. Tylko z drugiej strony, Chiny mają problem z x86, nie z ARM-ami, z grafikami.

Szymon Warda: I to mają poważny.

Łukasz Kałużny: Tak, ale to jest jedyny taki problem licencyjny i architektoniczny, który mają. Bo jeżeli chodzi o GPU zobaczcie produkuje się tam mobile i inne rzeczy. Chipy do mobile, które no sorry, jeżeli popatrzymy na wielkość chipa i dostarczaną moc są potężne.

Szymon Warda: Tak, ale też przejście z takiego chipa mobilnego GPU na GPU, które będzie zasilało cały data center i będzie mega giga waty właściwie zbierało, no to też jest trochę inny krok.

Łukasz Kałużny: Jest to wyzwanie, jest to wyzwanie, tylko raczej chodzi o czas, a nie o zasoby czy inne rzeczy. Ale dobra. I teraz z rzeczy ciekawych, które się pojawiają smaczki. Po pierwsze, polityka prywatności. Ludzie się rzucili na chata. Polityka prywatności jest piękna: zbieramy wszystko, trzymamy to w Chinach, gońcie się.

Szymon Warda: Ale to już przy okazji TikToka i innych usług.

Łukasz Kałużny: Tak. I teraz tak, druga rzecz pokazująca, że jest to bardzo chiński model. Fajnie tutaj, aż muszę tutaj polecieć kto na Discordzie z naszych słuchaczy to wrzucał. Bo to jest to, odpalał lokalnie jeden z modeli tych open sourceowych, nie tylko hostowanych jako API, a pytał o kurde, jak się wymawia ten słynny plac chiński?

Szymon Warda: Tain’anmen.

Łukasz Kałużny: Tain’anmen, tak, to zawsze mam z tym problem. Zapytał o ten plac i w pierwszej wersji dostał, że nie może powiedzieć. I to uwaga, w modelu open sourceowym hostowanym u siebie, ale już filtry nie zadziałały jak poprosiłeś, żeby powiedział w kontekście historycznym, to bezosobowo powiedział. A, to Mateusz. Mateusz Dev odpalił model wersję 32 lokalnie. Pozdrowienia Mateuszu. I za to są zabawne rzeczy, bo filtrowanie odpowiedzi Zrobili na frontendzie i możecie… Pewnie natknęliście się na te wspaniałe filmiki jak pojawia się odpowiedź, a potem znika nagle. Więc content filtering był totalnie asynchroniczny na froncie. I czy mnie to dziwi? Nie, ponieważ jeżeli się zagłębimy w temat generative AI w Chinach, po pierwsze, do pewnych rzeczy już procesów sam chiński rząd wytrenował sobie swój model. Nie wspominaliśmy o tym, ale jest który odpowiada zgodnie z literą partii, zgodnie z przesłaniem partii. I czy dziwi Cię to, że firma, która jest z Chin, odpowiada zgodnie z kulturą Chin?

Szymon Warda: Ona przede wszystkim musi, bo inaczej wyleci. To co mówiliśmy, zaczyna się o tym mówić, że w Chinach jest wszystko fajnie, ale miliarderem jesteś, ale już jutro możesz nie być jak coś złego powiesz.

Łukasz Kałużny: Tak, więc…

Szymon Warda: Miało miejsce już kilka razy.

Łukasz Kałużny: Tak. I teraz rzecz, która się najciekawsza zadziałała w ciągu ostatnich dwóch dni, to na oficjalnie w AWS-ie, w Bedrocku, w Azure wczoraj, w tym momencie jak nagrywamy, czyli 29, pokazały się deepseeki do hostowania as a service.

Szymon Warda: A czemu nie?

Łukasz Kałużny: Czemu nie? I teraz Szymon rzecz, która mnie rozwaliła tak totalnie, to właśnie DeepSeekR1 w Microsofcie pojawił się za darmo w AIFoundry jako serwer. Widzę teraz tak, dla tych, którzy nie widzą video, mina Szymona jest: what the fuck? Szymon, to na GitHubie, na githubowym marketplace do API jak i na AIFoundry hostowane as a service serverlessosowo pojawiły się w postaci, nawet nie z cennikiem, patrzę, for free. Dawanie narkotyków i zbieranie po prostu real time marketing.

Szymon Warda: Wydaje mi się, skok na giełdę, skok na zainteresowanie.

Łukasz Kałużny: Tak, dokładnie to jest w tym, jeżeli popatrzymy, to tak. I z zabawnych rzeczy, kończąc ten przynudny wątek LLM-owy, którego więcej dzisiaj nie będę miał. Ale dwie rzeczy, dwie… Przepraszam, są trzy elementy takie, które mogę wrzucić, które są ciekawe. Po pierwsze, jak zawsze jakaś baza musi być wystawiona. Baza od chatów, ClickHouse był wystawiony do internetu bez logowania. To taka pierwsza ciekawa rzecz. Druga rzecz ze względu, że tam są chińskie znaczki i inne rzeczy, to zaczyna się robić ciekawie z tokenami.

Szymon Warda: Bo nagle chińskie znaczki zajmują trochę więcej miejsca.

Łukasz Kałużny: Tak, tam jest w ogóle z innych ciekawych rzeczy, jest dość duży, zaczyna się robić w ogóle dość duży research, co tak naprawdę w tym modelu siedzi od strony seqowej i czy nie generuje backdoorów.

Szymon Warda: Racja.

Łukasz Kałużny: Racja. Kolejny wątek, który jest ciekawy, to ludzie podpinający sobie Visual Studio Code, ponieważ API jest zgodne, te API które wystawiają, taniutkie, as a service, bo cena też jest mocno zdumpowana, jest zgodne z OpenAI-em. Po prostu API OpenAI-owe jest można powiedzieć standardem teraz, więc ludzie podpinając sobie taki plugin do Visual Studio Code mogą przepięknie oddać swój code base bez zastanowienia dalej.

Szymon Warda: Oni są na etapie zbierania danych tak naprawdę.

Łukasz Kałużny: Tak, jak TikTok.

Szymon Warda: Do uczenia i do innych celów.

Łukasz Kałużny: Jak TikTok.

Szymon Warda: Oczywiście, że tak.

Łukasz Kałużny: Tak. I ostatni ciekawy wątek, który mnie w ogóle nie dziwi, bo same karty graficzne były kupowane przez spółki, jak tam wejdziemy dokładnie. Okazało się, że już wcześniej były tam restrykcje pewne dla Chin w tematach zakupu GPU. Tak, jeszcze były tam wcześniej, to kupowano, żeby też się nie wychylać za bardzo, karty graficzne były kupowane przez spółki fasadowe.

Szymon Warda: Tak samo jak Amerykanie kupili od ruskich Tytan, żeby SR-71 zbudować.

Łukasz Kałużny: Tak, zdarza się. No i ostatnia z najciekawszych rzeczy, która wypłynęła, która mnie totalnie nie dziwi, Chiny lubią kraść wartość intelektualną. Nie ma co się oszukiwać.

Szymon Warda: Prawo, faktycznie w Chinach trochę inaczej wygląda niż wszędzie indziej.

Łukasz Kałużny: Raczej ważne, żebyś nie kradł wewnątrz kraju. Z zewnątrz, jeżeli rozwija gospodarkę, jest jak najbardziej dozwolone. Nie ma hańby. No więc to co leci, to ten proces nauki w postaci distilation, oczywiście zrobili na API OpenAI-owym. Open OpenAI tak mówi, że zaczęło wypuszczać, że DeepSeek użył ich technologii do trenowania swoich modeli. Co nie zaskoczy mnie to, ponieważ tych paperów researchowych też jest sporo na temat wykorzystania do nauki SLM-ów i innych rzeczy.

Szymon Warda: Znaczy, tam pewnie będą jakieś odcienie szarości, bo to czy wiadomo, że OpenAI tak musi powiedzieć, no bo to lepiej wygląda. To czy oni wykorzystywali to API do trenowania, czy do porównywania, czy do czegokolwiek innego, jasne, że wykorzystywali. Porównać się musieli, musieli wiedzieć jak to wygląda. Więc ja bym powiedział, tam gdzieś jest skala szarości, powiedzmy sobie, ale rzeczywiście tak było.

Łukasz Kałużny: Wiesz co, jedna skala szarości, którą trzeba dodać i hipokryzji. Kto wcześniej zescrapował bez zgody cały internet?

Szymon Warda: I dalej to robi.

Łukasz Kałużny: Dokładnie. Dobra, to przydługi wątek LLM-owy, jak popatrzycie na DeepSeeka oceniając - kit czy hit, jest w połowie, w zależności od wątku. Jedna rzecz, która mi wyszła praktycznie, bo ciągle próbuję okodować ładnie tego AskPato na naszym Discordzie, żeby można było zapytać o dowolny odcinek, to DeepSeek ma jeden plus Szymon. Jest…

Szymon Warda: Tani.

Łukasz Kałużny: Jest tani, a te dane i tak są publiczne.

Szymon Warda: Tak patrząc, ja na DepSeeka bardziej patrzę z perspektywy biznesowej. Fajnie, że nagle ruszyło się i zachód stwierdził: ok, musimy ruszyć dupska, bo nie będziemy nawzajem chwalić się jacy jesteśmy wspaniali. Więc fajnie, że ktoś zamieszał.

Łukasz Kałużny: Problem oczywiście jak zawsze w Europie, żeby się skonsolidować.

Szymon Warda: Ale oczywiście, że tak. Dobra, zmieniając temat na rzeczy bardziej praktyczne, trochę inna opcja. Dawno nie było o Cloudflare u nas.

Łukasz Kałużny: Dawno, czyli z dwa odcinki.

Szymon Warda: Nawet może trzy.

Łukasz Kałużny: Dwa obstawiam, bo raport omawialiśmy.

Szymon Warda: A faktycznie, dobra. SSH na żądanie. Usługa, którą wypuścili w zeszłym roku pod koniec. O co chodzi? Chodzi o to, że jak mamy sobie SSH do jakiejkolwiek maszyny, no to ogarnięcie tego takie szczególne enterprisowe, jeśli chodzi o dostępy, just in time, itd., nie jest takie bardzo miłe. No i Cloudflare wypuścił usługę właśnie SSH na żądanie. Jak to sobie działa? Ona działa tak, że dodajemy serwer do cloudflare’owego root CA, żeby był tam jego rootem. No i w tym momencie Cloudflare po prostu tworzy odpowiednie certyfikaty podpisane tym root CA i w tym momencie daje nam dostęp kluczy ważnych na 3 minuty, dzięki czemu my podpinamy swoją własną tożsamość, czy to będzie Entra, czy to będzie cokolwiek innego. I w tym momencie ładnie logujemy się naszą tożsamością, dostajemy klucz, logujemy się i wszystko ładnie śmiga. Wiadomo, że ten klucz jest ważny tylko na ten czas włączenia, mamy te 3 minuty, później to już po prostu śmiga jak już się połączymy. Usługa nie jest jakąś super nowością, bo inni też to dostarczali w pewien sposób.

Łukasz Kałużny: Zero Trust, tam były teleporty, było sporo takich rozwiązań. Ja bym Szymon jeszcze dodał jedną ważną rzecz, że tego serwera nie wystawiamy w żaden sposób do internetu, tylko on wpina się. Instalujemy sobie na jakiejś stacji przesiadkowej w naszej infrze. Cloudflare D, który powoduje, że to on inicjuje połączenie do Cloudflare, jest tunel zwrotny VPN-owy, przez który lecimy. To jest istotny element.

Szymon Warda: Zapomniałem, w ogóle to się integruje całkiem fajnie z podstawowymi usługami od Cloudflare’a, więc mała rzecz a cieszy biorąc pod uwagę to, że wystawienie SSH jest ryzykowne, tym bardziej, że jeszcze publicznie, to w ogóle jest masakra. Tak że może się komuś przyda do zerknięcia z tą gwiazdką, że pojawiały się u nas czasami narzekania właśnie na Cloudflare’a, że czasami to nie wygląda tak bardzo bardzo różowo, ale z reguły wygląda całkiem nieźle. I mam drugi temat jeszcze.

Łukasz Kałużny: No właśnie, dawaj rant.

Szymon Warda: Bo trochę nadrabiałem zaległości, chodzi o podcasty i na Pragmatic Engineer rzuciłem okiem, co tam jest. I trzy odcinki, bo reszta trochę jest taka nijaka właśnie można powiedzieć, nie robiąc szydery z konkurencji jakkolwiek. Michael Novati fajny, całkiem ciekawy, głównie dla juniorów bym powiedział, dla osób nowszych w naszym świecie, o rekrutacji, o tym jak zabłysnąć w organizacji. On miał jeden fajny hint, który faktycznie jest, warto było powtórzyć, trzymanie notatnika z tym co się zrobiło, żeby potem wylistować i zabłysnąć. Pierdoła, naprawdę działa. Co więcej, dla team leaderów jeszcze poleca takie, że właśnie trzymanie i obserwowanie i spisywanie, ogólnie wpisywanie co się robiło. Grady Booch, człowiek od teraz obecnie IBM-a, który w niejednej rzeczy swoje ręce macał. Fajny odcinek o prehistorii i historii IT tak naprawdę, więc polecam, bo nie będziemy tego u nas wskrzeszać, ale odcinek który zacząłem, ale nie dałem rady, nie, cztery razy do niego podchodziłem, nie dałem rady. O czym? O Observability 2.0 z Charity Majors. Tego się nie da słuchać, naprawdę, tego się Łukasz nie da słuchać. O co chodzi? Chodzi o cały trend, który nam został raz [niesłyszalne 00:21:58] odnośnie tego, że Observability 1.0 to w ogóle fe, nic tam się nie robi, tylko zbiera się logi, metryki i nic więcej i w ogóle patrzy się na dashboardy. Tak to może wyglądało lat temu 5, 6. A dopiero Observability 2.0 to jest wnioskowanie, to jest bycie reaktywnym, proaktywnym nawet, itd. I to oczywiście dodajmy jeszcze AI-a. Żeby było jasne, nie neguję… Jeszcze ważne [niesłyszalne 00:22:21] Observability 2.0, to jest ten obszar, że nie mamy już tych trzech filarów logów, metryk i trace’ów, tylko mamy logi, takie trochę bardziej wzbogacone logi i z tego wyciągamy. Nie neguję całego ruchu, który chodzi o wyciąganie, robienie czegoś mądrego z observability, bo to jak najbardziej trzeba, samo nie wystarczy. Ale naprawdę ten odcinek brzmi jak jedna wielka reklama dwóch właściwie konkretnych usług. Tego się po prostu źle słucha. A jeżeli ktoś chce się ograniczać do tego, że Observability 1.0 to jest takie tylko proste, to śmiała droga. Ale od dawna mówione było to, że zróbmy coś z tym. My chyba już od wielu lat mówiliśmy, że posiadanie dashboardu, który będzie pokazywał na ekranie, to jest zerowa wartość tak naprawdę, alerty, itd. Korelacje muszą być i tam wiele rzeczy powinno się robić. A wszystko fajnie, ale jak się poczyta odnośnie właśnie usługi, którą Charity Majors reklamuje, to po prostu tam problem jest taki, że to kosztuje. Wiadomo, że wszystko można by robić na tekście i to w sumie byłoby nawet lepiej. Tylko koszt tego wszystkiego będzie po prostu za duży.

Łukasz Kałużny: Słuchaj, jeżeli zakładasz, że logi to jest observability, no to sorry, jesteś… Inaczej, w ogóle pójdźmy do korzeni observability. I definicja observability z systemów przemysłowych, mechanicznych. Tam nie ma logów, tam są czujniki, tam jest stream. W porównaniu do IT to jest stream metryk na bieżąco.

Szymon Warda: Tak, które są ustandaryzowane, itd. Więc jest taki fajny, totalnie z innej bajki, kanał na YouTubie, GMTK. On właśnie mówi, on robi analizę gier, ale on mówi o innej ważnej rzeczy, że robienie wszystkiego to jest kompromis między tym, co możemy zrobić, a tym, co chcielibyśmy zrobić. Tak samo observability, ok, możemy mieć terabajty logów, zbierać, będziemy pewnie mogli zbierać, tylko potem będzie problem jak to trzymać. Koszt tego robi się zbyt duży. Więc tak, metryki, itd., są pewnym kompromisem, ale jak je dobrze ogarniemy, to to działa.

Łukasz Kałużny: Raczej zobacz, że jak popatrzysz sobie w ogóle na kolejność jaka powinna być, masz logi, które wystarczają Ci do debugu, ewentualnie audytu. Powinieneś dobrze zdumpować stack trace jeżeli masz jakikolwiek wyjątek, ewentualnie jakieś metryki, żeby było wiadome, raczej logi, żeby wiadome pi razy drzwi co się działo. I na tym się kończy i nie powinieneś robić na nich full-text search’a, bo full-text search na logach oznacza, że Ty w ogóle nie wiesz co się dzieje realnie.

Szymon Warda: Tak, to tzw. explorer research, czyli otwieram i co tu siedzi.

Łukasz Kałużny: Tak, więc to jest podstawa. Potem powinieneś dopieścić na maksa metryki. Wykochać je i w ogóle. Potem wchodzi na tych metrykach jakieś anomaly detection.

Szymon Warda: Które wcale nie musi być robione za pomocą AI-a. Można zrobić dużo inaczej.

Łukasz Kałużny: Z-score, tak, z-index, z-score, zawsze zapominam.

Szymon Warda: Tak, z-score.

Łukasz Kałużny: Z-score, tak, statystyczny, z-score. Podlinkuję aż do taki, ma już z 7 lat ten artykuł od GitLaba - jak nie płacić za anomaly detection? Jak nie trenować modelu na pojedynczej metryce?

Szymon Warda: Jak sobie ułatwić życie? Okazuje się, że prosta matematyka jest lepsza niż często…

Łukasz Kałużny: I na tym można zapiąć… Inaczej, na tym możecie zapiąć alerty i to zadziała. No będzie lepsze niż to, cokolwiek wyklikacie i ustalicie na sztywno kroki. I na końcu jest takie creme de la creme w postaci distributed tracingu.

Szymon Warda: Ja bym się zgodził. Wiesz co, znaczy dla mnie też jeszcze jedna rzecz jest ważniejsza - wypracowanie procedur. Mianowicie, bo po co mamy observability? Observability mamy po to, żeby dowiedzieć się, co się stało, że się popsuło. Nazwijmy tak, żeby było przedszkole friendly, bo to jest kwestia wypracowania. Od czego nasze wartości zależą, czy od ruchu, czy od ilości transakcji, itd. Umiejętność porównania co się dzieje teraz, a co się działo wczoraj, jak to wyglądało wczoraj i w tym momencie mierzymy. To jest ta możliwość zejścia, poziom, to samo co mamy w mapach C4, zejścia poziom niżej i niżej i niżej, aż dojdziemy do jakiegoś developera albo administratora, który musi coś poprawić, bo tak to z reguły działa po prostu. Wiadomo, są jeszcze eBPF-y, są jeszcze inne rzeczy, ale to są bardziej rzeczy do profilowania albo sytuacji, kiedy faktycznie nie wiesz co się stało, że się wywaliło. Ale to są ostateczności, tak samo jak logi, o których właśnie mówiłeś.

Łukasz Kałużny: No, znaczy ja uwielbiam robienie tracingu, żeby poznać nasz system, z czym się komunikuje. To jest w ogóle, to jest rysowanie mapy, mapy połączeń i innych rzeczy. To jest obraz największej patoli.

Szymon Warda: Tak, patoli, ale to jest też bardzo wartościowe narzędzie, jak wchodzi ktoś, kto nie zna systemu po prostu, dostaje w utrzymanie. I taka mapa jest po prostu przegenialną opcją.

Łukasz Kałużny: Jest przegenialną, ale wiesz, że osoby, które znają system, nie wiedzą co się dzieje.

Szymon Warda: A to oczywiście, że tak, ale mamy taką rotację ludzi, itd., więc to się przydaje. Dla mnie telemetria jest fenomenalnym narzędziem, jeżeli do niej podejdziemy nie w sposób transakcyjny, czyli dany request, co tam mamy zrobić, tylko w sposób właśnie raportowy, czyli statystyki, co optymalizować, jak to wygląda, itd. Tam jest wartość, to jest duża wartość, ale to jest trudne. No ale dobra, to już się trochę zagłębiliśmy, trochę rozciągamy, to za chwilę okazuje się, że to będzie odcinek bardziej o Observability 2.0, a nie o DeepSeeku Łukasz. To tak byśmy nie mogli zrobić. Dobra, tyle w takim razie.

Łukasz Kałużny: Trzymajcie się, na razie.

Szymon Warda: Trzymajcie się. Hej.