W najnowszym odcinku Short #65 stawiamy Javę i Pythona do walki w ringu AI! Nasz PatoAI na Discordzie właśnie dostał upgrade i może pochwalić się bazą 76 odcinków w swojej wektorowej pamięci.
Azure serwuje nam nowe network tools dla App Service, a DoorDash kombinuje jak połączyć klastry cross-region. Tymczasem PostgreSQL po cichu przejmuje tron wśród baz danych, a GitHub Copilot dostaje tryb agenta-ninja.
Chcesz wiedzieć, czy Java faktycznie ma szanse wykopać Pythona z AI? A może ciekawi Cię, na co Alphabet wyda 75 miliardów dolarów? Włącz ten odcinek i przekonaj się, czy DeepSeek wytrzyma nasze zapytania!
Słuchasz Patoarchitektów dzięki PROTOPII – firmie, w której Łukasz i Szymon działają na co dzień, wspierając zespoły IT na każdym etapie: od projektowania, przez wdrożenia i migracje, aż po optymalizację i zabezpieczenia. Oferujemy też mentoring i szkolenia dostosowane do potrzeb każdej firmy, niezależnie od wielkości. Sprawdź nas: protopia.tech
Discord 👉 https://discord.gg/78zPcEaP22
Linki i ciekawe znaleziska:
Łukasz Kałużny: Cześć, słuchacie Patoarchitektów. Prowadzą Łukasz Kałużny…
Szymon Warda: I Szymon Warda. Wszystkie linki do tego odcinka Patoarchitekci.io lub gdzieś na dole w opisie, gdziekolwiek, ogarniecie.
Łukasz Kałużny: Dobra, Szymonie, radiowy głos dzisiaj.
Szymon Warda: Bardzo radiowy głos i chorobowy ubiór. No zobaczymy jak to będzie wyglądało.
Łukasz Kałużny: No dobra, to lecimy. Znalazłem chwilę czasu, żeby dokończyć bota na Discordzie, więc nasz bot, który tam witał tylko HAL 900 dorobił się funkcjonalności PatoAI.
Szymon Warda: Wszystkie szczegóły na Pato od kuchni Łukasza w opisie.
Łukasz Kałużny: Tak, co się dzieje, ale co ważne do RAG-a, którym jest to darmowy tier na quadrancie w bazie wektorowej, jest załadowane bodajże 76 odcinków, transkrypcje, podsumowania z 76 odcinków. Oczywiście część z Was już znalazła ciekawe bugi związane z tym jak działa. Tutaj ulubione: ile razy padło słowo “de facto”? To jest jeden z ulubionych dowcipów, który się teraz pojawia.
Szymon Warda: Jeszcze inne słowa by się znalazły u nas.
Łukasz Kałużny: Tak, ale idąc teraz do linku, który pójdzie, bo nawet… Inaczej, mieliśmy całe tam dramy, hype jak to nazwiemy wokół DeepSeeka.
Szymon Warda: Było.
Łukasz Kałużny: Było i stwierdziłem, że do bota będąc polskim Januszem DeepSeek będzie bardzo dobrą rzeczą do danych, które i tak są publiczne, bo całe transkrypcje leżą sobie luzem na GitHubie, więc i pytania, które będą tam zadawane, leżą do publicznego contentu.
Szymon Warda: Czyli po prostu chcesz powiedzieć, że odpaliłeś DeepSeeka do naszego PatoAI, do odpowiedzi.
Łukasz Kałużny: Chciałem. I co się teraz dzieje? Lecimy z pierwszym linkiem. DeepSeek zawiesił doładowywania API. Nie można wejść na stronę i doładować. Ze względu na to, że skala ich przerosła, to nie przyjmują już nowych klientów. Nie możesz doładować API.
Szymon Warda: Znaczy bo to fajnie pokazuje jeden element w IT, że ok, jedna rzecz to jest zrobić coś, ale druga rzecz to jest przeskalować to do odpowiedniego rozmiaru. To nie zawsze idzie w parze tak naprawdę. Więc pochwalenie się jednym wynikiem czy jeszcze jedną metryką, fajnie, ale co potem dalej? Cała dojrzałość organizacyjna.
Łukasz Kałużny: Tak więc taki dowcip, że tymczasowo za ten, aż teraz wejdę, mamy dzisiaj, ja to sprawdzałem w piątek bodajże, wtedy próbowałem zrobić test, od 6 mamy już, news jest z 6 lutego. Zupełnie go przegapiłem. Dowiedziałem się próbując doładować. Mamy dzisiaj 11. Nadal nie da się doładować.
Szymon Warda: Tak, takie warunki. Dojrzałość organizacyjna i skalowania produktu, to nie jest takie super łatwe. Ale OpenAI też miał problemy na starcie, tak swoją drogą, żeby nie być kompletnie jednostronnym.
Łukasz Kałużny: Wiesz co? Dobra, ale czy problemy na API, oczywiście tak, były, tylko oni też mieli mniejsze. Bo zobacz, że oni dorastali razem. To o czym się nie mówi, ja też siedziałem przecież przy tym, korzystałem z tego API wcześniej, bo było API GPT 3, przed Chatem jeszcze. Czyli już ta generacja trzecia, ale jeszcze przed Chatem, gdzie nie było formy Chatu, tylko był tylko endpoint do embeddingów i completion. Więc jak sobie popatrzymy było ciekawe. I co do naszego bota discordowego to skończyło się na najtańszym w sumie modelu, który dawał dobre wyniki, czyli GPT-4o mini. Ciekawostka jeszcze z tego bota tylko dla słuchaczy, żeby osiągnąć dobre wyniki jakościowo, bo zrobiłem sobie też proof taki, bardziej proof of concept, który nie poszedł w świat. To jedno zapytanie zjadało od 100 do 200 000 tokenów, żeby być naprawdę precyzyjnym.
Szymon Warda: To jest dużo.
Łukasz Kałużny: Dużo. Gdzie cały podcast, ciekawostka, to jest, aktualnie połowa podcastu to są 3 miliony tokenów Szymon.
Szymon Warda: To masz spore zdanie, ilość tokenów, tak naprawdę poważne.
Łukasz Kałużny: Tak, jestem w tym. Dobra, co u Ciebie?
Szymon Warda: Śmigamy dalej. Ja dwie rzeczy w sumie, taka drobnica. Jedna, trochę takie z konieczności reporterskiej, ChatGPT Gov, czyli ChatGPT specjalnie dla pracowników.
Łukasz Kałużny: Rządowych.
Szymon Warda: Rządowych, których teraz będzie mniej, dużo mniej generalnie. Ale czemu to jest ważne? Bo to pokazuje faktycznie, że Big Techy bardziej się ukłaniają w kierunku rządu amerykańskiego i będzie to wydzielane. To jest jedna rzecz. Druga rzecz, też taka trochę odpowiedzialność reporterska, to są planowane wydatki, bo to się dość mocno odbiło na giełdzie, wydatki CAPEX-owe.
Łukasz Kałużny: Wiesz co, jeszcze dodam tylko z tego Twojego dziennikarskiego: Agencies may deploy the tool in their own Microsoft Cloud, czyli do cloudu azure’owy GOV.
Szymon Warda: Tak, to będzie się po prostu działo. To będzie używane z racji jeszcze tam różnych prawnych rzeczy odnośnie zakazania, wykorzystania innych modeli, itd. Wydaje mi się, że to jest dobry strzał na zarobienie dużej ilości pieniędzy ogólnie rzecz biorąc. A jak już jesteśmy przy pieniądzach, to wydatki. Alphabet, 75 miliardów wydawanych na rzeczy wokoło AI, czyli głównie na chipy Nvidii, nie oszukujmy się, bo to są CAPEX-owe. Meta, między 60 a 65 mld. Tesla - 5, czyli nie poszaleją chłopaki. Amazon totalnie wypalił, czyli 100 miliardów. I Microsoft ok. 80 miliardów. To jest dużo kasy, ustalmy.
Łukasz Kałużny: Na ten najbliższy rok.
Szymon Warda: Tak, zaplanowane tak naprawdę, to się wydarzy. Wiadomo, część z tego pewnie się zmieni, zobaczymy, bo to też są ogłoszenia głównie, które idą pod giełdę, no bo tak, tak naprawdę. Ale czy te alokacje będą mniej więcej w tych regionach? Więc kasy pójdzie bardzo dużo.
Łukasz Kałużny: Inaczej, ale trzeba pamiętać, to jest infra, marketing, sprzedaż i inne rzeczy. Tam jest wszystko wrzucone w ten worek, jak się popatrzy co jest pod spodem tak realnie. Ale nadal to są zatrważające kwoty.
Szymon Warda: No i jeszcze te elektrownie atomowe. [niesłyszalne 00:06:58]
Łukasz Kałużny: I węgla. Słuchaj, węgiel, węgiel mój drogi.
Szymon Warda: Też tam będzie, jak najbardziej. Dobra, co tam masz?
Łukasz Kałużny: Rzecz, która Ciebie ucieszy, w sumie już ucieszyła, bo trochę dorzuciłem. To w App Service’ie azure’owym, to jest taka pierdoła, ale której brakowało i mnie zawsze wkurzało. Mianowicie poprawiają network trouble shootera.
Szymon Warda: Do wyjaśnienia czemu miałoby mnie to ucieszyć. Bo dla jednego klienta pracowaliśmy sporo na App Service’ach i tam ciekawostki, wokoło połączenia właśnie App Service’u z różnymi innymi usługami potrafią być tak, zajmować dużo czasu, tak to nazwijmy, delikatnie nazywając.
Łukasz Kałużny: Tak, więc pojawiło się i teraz wrzucili tam 4 rzeczy. Więc Szymonie, wykrywanie, że Network Security Groupy Cię blokują.
Szymon Warda: Przydatne.
Łukasz Kałużny: Public Network Access do tych zależności do DNS-u i private endpointów.
Szymon Warda: Ok.
Łukasz Kałużny: Dobra. Virtual Network Integration and Routing Options to chyba Twój ulubiony punkt.
Szymon Warda: Tak, to jest dobre. Ja tam czekam na inną rzecz, żeby zmienili w App Service’ach tak naprawdę. Zaraz powiemy. No i czwarta opcja.
Łukasz Kałużny: Tak i: connectivity failures due to SNAT issues. To jest dopiero wprowadzone. Brakuje jeszcze chyba tylko file’sów, prawda?
Szymon Warda: Właśnie o tym mowa. Mi brakuje najbardziej tego, żeby połączenie file’sów ze storage accountem nie odbywało się po kluczu. Fajnie by było, gdyby to było po tożsamości.
Łukasz Kałużny: Ale zaczęli to poprawiać, wiesz, bo też mam w innym miejscu, w rzeczach ML-owych jest ten sam problem.
Szymon Warda: Łukasz, ja pamiętam, że preview do Docker Compose’a na App Service’ach było w preview chyba przez 3 lata, jakoś tak.
Łukasz Kałużny: Dłużej.
Szymon Warda: No właśnie, właśnie, więc no. Jak zobaczę to uwierzę, że tak powiem.
Łukasz Kałużny: Dobra, lecisz dalej.
Szymon Warda: Dobra, co tam dalej się dzieje? Całkiem ciekawy artykuł odnośnie dominacji Javy w kontekście AI i co się będzie dalej z Javą działo. To jest w ogóle ciekawy link, artykuł, wywiad, jakkolwiek to nazwiemy w kontekście tego, co mieliśmy, rozmawialiśmy z Jarkiem Pałką parę odcinków temu odnośnie tego właśnie, co jest największym wyzwaniem dla Javy. I tam Simon Ritter, CTO od Azul System, nie Azure tylko Azul, wypowiada się właśnie co, jak, gdzie i właściwie, że dominacja Pythona w tym obszarze jest w ogóle przypadkowa. O tym, że to jest zaszłość, że Java spisuje się lepiej, jest bardziej wydajna i ponieważ pokazała swoją przydatność w kontekście pisania aplikacji enterprise’owych, to w tym momencie faktycznie będzie nadawała się super do AI. I że to jest kwestia czasu, aż Java przejmie ten ogródek. Czytając artykuł mi się przypomniało jedno, te wszystkie zrywy, które widzieliśmy w .Net’cie, że to będziemy teraz wykorzystywali .Net do tego, a to będzie SaaS do tego, do tego, te zrywy nigdy nie działają.
Łukasz Kałużny: Ale inaczej, problem jest następujący, Python pozwala Ci napisać przez to, jak zostały teraz zbudowane te wszystkie, cały ekosystem, to co powiedział właśnie Jarek, też zalinkujemy tą rozmowę, to tak, Jarek powiedział, że popularność powstała tego, że było sporo wrapperów na gotowe części API systemu operacyjnego. I to była jedna z większych zalet Javy w tamtym momencie, że korzystasz z systemu operacyjnego i kernela, a nie bawisz się w kodowanie tego w samym JVM-ie.
Szymon Warda: Ok, tak, dla mnie Python po prostu się zadomowił, jest łatwy do nauki, bardzo łatwy.
Łukasz Kałużny: I Szymon i teraz wejdę Ci w słowo.
Szymon Warda: No tak, zdaję sobie z tego sprawę.
Łukasz Kałużny: Przez to, że masz tę bibliotekę… Inaczej, przez to, że wszystkie biblioteki, które powstały dla Pythona wokół AI, zobacz, że research na Pythonie nie jest robiony przez zawodowych programistów, tylko dla ludzi, którzy piszą skrypty i piszą bardzo cudowny kod z perspektywy nie utrzymywania go.
Szymon Warda: Ja pamiętam jak wchodził ML, wiem, że to był dawny okres czasu, to był podział na ML scientistów i ML engineerów. Czyli generalnie osoby, które jedne pisały algorytm, a drugie przekładały to na język programowania prawidłowo.
Łukasz Kałużny: Ale jak pójdziesz tak, jak pójdziesz jeszcze krok wstecz, to do researchu nie wykorzystywali MATLAB-a i RK-ę.
Szymon Warda: Tak, dwa super, bardzo, bardzo wydajne języki, można powiedzieć, czy środowiska, może bardziej tak. Znaczy dla mnie całe to spojrzenie jest takie trochę oszukiwanie się. Nie, mamy różne języki, to co dziś powiedzieliśmy, masę rzeczy pisane jest przez nie programistów, przez ludzi, przez fizyków, przez matematyków, itd. Ludzie, którzy wykorzystują ten język tylko po to, żeby osiągnąć jakiś konkretny cel, nie interesuje ich, czy to będzie chodziło o 10% szybciej, itd., nie chcą się bawić w cały system javowy, itd. Zryw fajny, jakoś go nie kupuję. Wywiad ciekawy do przeczytania, ja bardziej go widziałem w kontekście tego co tam, takiego trochę patrzenia przez swoją perspektywę i taki wishlist można powiedzieć odnośnie tego, co fajnie byłoby, żeby się wydarzyło. Tyle. Obstawiam, że się nie wydarzy. Takie nasze predykcje.
Łukasz Kałużny: Ale słuchaj, w ML-u też były. W każdym języku znajdziesz informację, że jest super do AI-a.
Szymon Warda: Ale każdy język, który żył jakiś dłuższy czas, będzie, jak idzie jakiś hype, to pojawiają się biblioteki, możliwości wsparcia dla tego hype’u. Dla ML-a było, dla AI-a było, dla wszystkiego po kolei było i będzie, no bo tak to wygląda.
Łukasz Kałużny: Link, nie chcę teraz, ale chyba Oskar mi go podsyłał, więc pozdrowienia dla Oskara, na temat, jest tutaj jakaś tam, nie wiem do czego to FODI w ogóle służy, nie sprawdzałem, ale ciekawa funkcjonalność i licencjonowanie open source’u, które mówi, że jak nie sponsorujesz to prawdopodobnie Twoje issue to pull request zostanie zamknięty bez dodatkowego sprawdzania. Czyli GitHub Actions uwalić po prostu.
Szymon Warda: Jest to, może tak to nazwijmy, kontrowersyjne, co powiem, jest to bardzo dobry pomysł. Jest to jakiś ze sposobów na zarabianie na open source, bo nie oszukujmy się, trzeba jakoś tych ludzi opłacić, którzy to utrzymują. A jak faktycznie coś chcesz, jesteś firmą, potrzebujesz to każdy kod jest dodatkowym obciążeniem, który dodajemy tam. Więc skoro dodajemy, skoro potrzebujemy, potrzebuje tego firma, to jak najbardziej, zapłać za koszt utrzymania tego. Mi się podoba.
Łukasz Kałużny: Nie, więc tak, super rzecz, fajny pomysł na automatyzację. Dobry pomysł, naprawdę. Dobra, co u Ciebie teraz?
Szymon Warda: U mnie dość ciekawy artykuł od DoorDasha i ja przeczytałem go. Pierwszy taki miałem problem, to takie miałem trochę podejście, że sami sobie ten problem stworzyli, ale tak mam coraz większe wątpliwości odnośnie tego. O co chodzi? DoorDash ma sobie klastry AKS-owe, które są rozpięte między wieloma regionami chmurowymi, a konkretnie to w AWS-ie. Więc mają klaster, który między wieloma regionami po to właśnie, żeby osiągnąć lepszą odporność, resilience, jeżeli chodzi o to, jak region padnie, itd. Więc pojawił się problem taki, że zaczęło ich boleć co? Ceny ruchu między regionami. Bo przypomnijmy, że ruch między regionami w większości chmur jest płatny. Więc co zrobili? Więc zainstalowali sobie Service Mesh ‘a i tam zrobili, dodali sobie odpowiednie routery, które będą preferować ruch w ramach konkretnego regionu. A oczywiście wszystko nazwane zostało jako self-base architecture, no bo wiadomo, hasło jest popularne, więc żeby było hype to trzeba sobie dodać architecture, czyli, że preferują komunikację wokół danego regionu. I tak sobie myślę, artykuł jest w ogóle napisany naprawdę dobrze. Fajnie opisuje technikalia, więc przeczytajcie go. Jest dość długi, więc nie będziemy go tak skracać. Ale tak zastanawiam się nad jedną prostą rzeczą, czy naprawdę, czy to nie jest problem samostworzony? Bo okej, mają pewne plusy, jeżeli chodzi o rozpięcie tego klastra AKS-owego między wieloma regionami, jak najbardziej. Pytanie, czy dobrze zrobiony load balancing pomiędzy regionami i usunięcie komunikacji crossregionowej by tego nie osiągnął tak naprawdę?
Łukasz Kałużny: I crosszonalnej.
Szymon Warda: Tak, dokładnie. W sensie uproszczenie, że mamy osobne klastry, odpowiednio kierujemy ruch, mamy odpowiednie health checki na poszczególne klastry i odpowiednie dane replikujemy, chociaż tam tego i tak nie potrzeba, bo i tak zapisują do lokalnych baz danych, więc to jest spoko. Czy to właściwie nie rozwiązuje problemu?
Łukasz Kałużny: Problem masz następujący, jeżeli popatrzysz, jest tam rzecz taka, że w Kubernetesie ten zone… Czysty Kubernetes… Teraz nie będę…
Szymon Warda: Muszą ogarniać takie rzeczy odnośnie komunikacji.
Łukasz Kałużny: Tak, tylko że to jest nie do końca, o tak, to jest taki problem, że nie do końca, ale kwestia, że ma to 2 lata, o tak, bo to jest od 1.27, to jest Topology Aware Hints.
Szymon Warda: Dokładnie tak. O to mi chodzi.
Łukasz Kałużny: I działają, uwaga, nie potrzebujesz do tego Service Mesha.
Szymon Warda: Tak. Dodajmy, że Service Mesha. Oni to mają Service Mesha z sidecarami, więc grubo.
Łukasz Kałużny: Tak. Więc jak sobie popatrzymy Jest tam kilka różnych elementów. Kurde, jak popatrzycie, uwielbiam AWS-a, bo u nich marża jest robiona na transferach.
Szymon Warda: To rzucili.
Łukasz Kałużny: Tak, bo Microsoft zszedł w ogóle z opłat na przykład pomiędzy zone’ami.
Szymon Warda: Każdy zarabia na czym może. Artykuł jest dobry, do przemyślenia tak naprawdę według mnie. Nie na teraz, zapraszam na Discorda, dajcie znać co Wy o tym myślicie. Ja czym bardziej o tym artykule myślę, tym bardziej stwierdzam, że to jest trochę samostworzony problem. Tym bardziej, że jeszcze w opisie, jak go rozwiązali, co jeszcze planują dalej, ewidentnie brną jeszcze w większe skomplikowanie tego całego systemu. Tak że trochę nie kupuję tego rozwiązania.
Łukasz Kałużny: Wiesz co, ale pamiętaj też, że przy większej skali zaczyna się zabawa z bazami danych, ich zone’alnością i innymi rzeczami. To wiesz, to też…
Szymon Warda: Jak najbardziej tak, tylko że oni tego właśnie dotykają. Ich najbardziej właśnie zabolał ten ruch cross service’owy.
Łukasz Kałużny: Ale cross service’owy, odpowiednie rozrzucenie po zone’ach, Topology Aware Hints i dziękujemy, jazda!
Szymon Warda: Zgadza się, ich w ogóle tam zabolało… Dokładnie, zabolało ich wewnętrzny router, który rutował pomiędzy serwisami wewnątrz komunikacji. To ich zabolało najbardziej. Więc nie kupuję tego do końca. Dobrze, Łukaszu, lecimy dalej. Co tam masz?
Łukasz Kałużny: Dobrze, jak już tu jesteśmy. Hmm, teraz muszę się pośmiać z Microsoftu. Dla odmiany muszę się z nich pośmiać, tak jak pochwaliłem za nowy, za ten trouble shooter. Microsoft ma tam teraz ten Automatic Cluster, czyli odpowiednik też GKE Autopilota. Inaczej i to jest rzecz, którą w ogóle olałem. Ale że robię prezentację o nowościach, na Meetup robię prezentację o nowościach w AKS-ie i co warto zobaczyć, to stwierdziłem, że wrócę do tego Automatic Cluster i zobaczę co jest. I co mnie teraz rozśmieszyło? Uwaga, Automatic Cluster Preview in Custom Virtual Network, czyli w pierwszej wersji w ogóle nie mogłeś użyć, zrobić Blink Arrow Network.
Szymon Warda: To tak trochę padaka właściwie, to jest niewykorzystywane dla większości sytuacji, gdzie on będzie realnie wykorzystywany.
Łukasz Kałużny: Inaczej, poza Labem albo Podsem, takim naprawdę Podsem, Podsem, MVP, no nie ma sensu.
Szymon Warda: Znaczy nikt się na to nie zgodzi, od tego zaczniemy bardziej. No tak, no okej, dobra.
Łukasz Kałużny: Lecimy dalej. Co masz?
Szymon Warda: Ja mam jeszcze jeden artykuł. Jeden artykuł, Database Retrospective 2024. Człowiek jest dość ciekawy, bo ja go bardzo polubiłem za Retrospektywy z 2022 roku, gdzie napisał dość fajne podsumowanie odnośnie tego, że blockchain database is still a stupid idea. Czyli to dokładnie, doskonale oddaje moje podejście do całego hype’u wokół baz blockchainowych.
Łukasz Kałużny: Że to jeszcze żyje. Ja myślałem, że przez to, że…
Szymon Warda: Już nie żyje właściwie, bo Amazon QLDB, który właśnie był taką bazą blockchainową jako SaaS, właśnie Amazon to ubija. Więc można powiedzieć, że no sorry, ale skoro Amazon na tym nie umie zrobić pieniędzy, a umieją zrobić pieniądze na bardzo wielu rzeczach, no to w tym momencie to po prostu temat nie żyje. Artykuł jest bardzo mięsisty i bardzo dużo linków, odwołań, co się w ogóle wydarzyło. Więc takie listowanie tego byłoby czytaniem go na żywo. Z rzeczy ważniejszych, fajna analiza, jeżeli chodzi o wzrost popularności Postgressa, a przede wszystkim jego ekosystemu, jeżeli chodzi o popularność ekosystemu, wtyczek, rozszerzeń, itd. Więc to dość fajnie wyszło i tym, że to, co my widzimy w projektach, Postgress powoli staje się domyślną bazą relacyjną dla systemów w Javie i .Net’cie, to coraz częściej widzę. Tak że no ciekawie, że tak będzie. Przy okazji odwołuję się…
Łukasz Kałużny: Inaczej, powstała książka nawet, w menningu jest chyba w tym… Zawsze kurde mylę tą nazwę tego wydawnictwa. Te z tymi średniowiecznymi okładkami.
Szymon Warda: Oh really, że tak powiem.
Łukasz Kałużny: Nie. Menning, Manning?
Szymon Warda: Tak, tak, tak, są.
Łukasz Kałużny: Tak.
Szymon Warda: Tak.
Łukasz Kałużny: To słuchaj, to już wklejam linka do naszych notatek, Wy też to zobaczycie, powstała książka “Just Use Postgress”. Teraz…
Szymon Warda: Będzie. Ciekawa obserwacja z tego jeszcze, mamy link do prezentacji, która fajnie naśmiewa się z tego jaki mieliśmy przegląd języków do zapytań do baz, do baz relacyjnych i nierelacyjnych. Bardzo fajne, zabawne, zapraszam do posłuchania. Nawet jak w tle do tego lunchu czy obiadu, czy jakkolwiek to nazwiemy. Z takich obserwacji jeszcze, AWS Valkey, czyli odpowiednik Redisa, w offeringu, w cenach AWS-a jest 30% tańszy niż Redis. Bo o co chodzi? To jest oczywiście alternatywa dla Redisa, bo Redis zmienił swoją licencję, itd. O tym mówiliśmy parę odcinków wcześniej. I AWS oferuje obydwa, ale ich własny silnik jest o 30% tańszy i jest zgodny z Redisem, więc no sorry, że tak powiem. Ostatnia rzecz, którą fajnie wyłapał, to jest to, że statystyki, że większość zapytań OLAP-owych, czyli raportowych, przeszukuje mniej więcej, mediana, nie większość, mediana przeszukuje około 100 megabajtów danych. To jest bardzo mało, bo te bazy z reguły mają po setki terabajtów tak naprawdę. Dobry artykuł, bardzo, bardzo mięsisty w kontekście, tam jeszcze jest dużo kto kogo kupił, za ile kupił, jakie są trendy, itd., ale to trochę byłoby listowanie tego całego artykułu, więc odsyłamy do przeczytania.
Łukasz Kałużny: Dobra, to ja polecę teraz z trzema rzeczami. Jedna jest ciekawa, reszta to takie kronikarskie popierdółki na koniec. Zacznijmy od tego, że tam w Open API, czyli kiedyś Swagger, ciągle się rozwija. I zmiany, które tam są, jest tam parę rzeczy, ale pojawiło się Arazzo Specification. I co jest ciekawe, ja to w ogóle zupełnie przegapiłem, to Arazzo description is a JSON or Jamu document detailing sequence of API cause chaining them together into more complex workflows. Czyli dostajemy teraz już dokumentację, w której będzie można powiedzieć w jaki sposób tak realnie używać naszego API i format maszynowy do jego opisu.
Szymon Warda: To jest fajne, ukłon też i przydatne bardzo w kontekście oczywiście LLM-ów i wszystkich chatbotów.
Łukasz Kałużny: Tak, to wiadomo, że tak. Ale z drugiej strony też pozwala, to będzie następny taki element do uporządkowania i automatyzacji tego uporządkowania.
Szymon Warda: Znaczy dobra dokumentacja i standaryzacja tego jak nasze API wyglądają jest dobra, więc polecamy, zapoznajcie się.
Łukasz Kałużny: Lecimy, nie ma odcinka bez AI-owych prześmiewek. Po pierwsze, Microsoft idzie po Cursora i innych i inne nowoczesne IDE. I GitHub Copilot dostaje Agent Mode, the agent awakens, jak to sami nazwali. Ciekawie, o tak, ciekawie.
Szymon Warda: Walka IDE będzie i będzie się odbywała, bo faktycznie tu będzie można sporą kasę zarobić. VS Code, bardzo fajnie mu idzie, ok, szło właściwie przez wiele, wiele lat, a teraz faktycznie. No bo o co chodzi? Chodzi o to, że jakieś narzędzie będzie do wspomagania programowania i kto to będzie. I patrząc na ilość developerów i na możliwości ułatwienia i szybkości pisania kodu, tam będzie można sporo kasy zarobić. A przy okazji trochę jeszcze kodu czyjegoś pobrać, żeby się nauczyć lepiej, to już w ogóle samonapędzający się mechanizm. Tak że nie ma się co dziwić, oczywiście.
Łukasz Kałużny: Dobra, a teraz prześmiewczo i duża prześmiewczość. Producing the AI Agent Builder, uwaga, w Postmanie.
Szymon Warda: Ja wiem, że już każdy to musi mieć.
Łukasz Kałużny: Tak, to jest tutaj w tym, przypomina właśnie, nie wiem czy przypomina mi, jak oglądam ten N8N czy make.com, jak patrzę na to, w jaki sposób to wygląda.
Szymon Warda: Wygląda jak marzenie każdej osoby, która marzyła o tym, żeby zbudować flow biznesowy w UI-u, naprawdę.
Łukasz Kałużny: Czyli każdy typowy, Szymon, każdy typowy low code, który jak wiemy kochasz.
Szymon Warda: Tak, który wydaje mi się, że się nie sprawdzi na dłuższą metę. Ale okej. Ale nie, uważam, że low code sprawdza się w rzeczach nie B2B. W rzeczach takich właśnie wykorzystania indywidualnego? Tak, to może mieć.
Łukasz Kałużny: SMB w małych rzeczach.
Szymon Warda: Tak, to tam to się sprawdzi, jak najbardziej.
Łukasz Kałużny: No, to tak w ramach końcowej ciekawostki. No to co, kończymy?
Szymon Warda: Trzymajcie się. Hej.
Łukasz Kałużny: Trzymajcie się. Hej.