Powrót z wakacji i Szymon z Łukaszem podsumowują sezon ogórkowy, który był pełen niespodzianek. “Newsy wyglądają jak strzały dopaminowe z TikToka” - komentują prowadzący.
Amazon zaskoczyła podejściem do migracji Kafka na KRaft - zamiast upgrade’u wymaga kasowania całego klastra. Pulumi dodaje wsparcie dla modułów Terraform, a Kubernetes wprowadza KYAML jako “nowszy” standard, który przypomina… JSON.
GitHub prezentuje Agentic Workflows - automatyzację z “autonomicznymi” agentami. Microsoft przepisuje kod na Rust, a Meta rozważa integrację z modelami Google i OpenAI.
Omawiają też praktyczne doświadczenia z Claude’em do kodowania (“planowanie w 4.1, pisanie w Sonecie”), kontrowersje wokół GPT-5, Flutter 3.5 z WebAssembly oraz Nano Banana - AI zagrażające grafikom.
Czy “autonomiczny agent” to największe kłamstwo technologiczne? Posłuchaj, jak rozwija się świat gdzie technologia przypomina social media. 🎯
Słuchasz Patoarchitektów dzięki PROTOPII – firmie, w której Łukasz i Szymon działają na co dzień, wspierając zespoły IT na każdym etapie: od projektowania, przez wdrożenia i migracje, aż po optymalizację i zabezpieczenia. Oferujemy też mentoring i szkolenia dostosowane do potrzeb każdej firmy, niezależnie od wielkości. Sprawdź nas: protopia.tech
Discord 👉 https://discord.gg/78zPcEaP22
Linki i ciekawe znaleziska:
Connecting to a Private AKS Cluster with Azure Bastion – No Jump Box Needed!
[OpenRewrite by Moderne | Large Scale Automated Refactoring | OpenRewrite Docs](https://docs.openrewrite.org/) |
Amazon MSK Forces a Kafka Cluster Migration from ZooKeeper to KRaft
[Introducing gpt-oss | OpenAI](https://openai.com/index/introducing-gpt-oss) |
GitHub - notaryproject/notation: A CLI tool to sign and verify artifacts
[Introducing GPT-5 | OpenAI](https://openai.com/index/introducing-gpt-5) |
Anthropic unveils new rate limits to curb Claude Code power users
[Meta's AI leaders discuss using Google, OpenAI models in apps, The Information says | Reuters](https://www.reuters.com/business/metas-ai-leaders-discuss-using-google-openai-models-apps-information-says-2025-08-30) |
Łukasz Kałużny: Przepraszam, ale określę, debile z Microsoftu, jak i potem debile czytający bez zrozumienia Architecture Center.
Szymon Warda: Ok, wygląda jak coś starego, jak najbardziej tak, ale jest czymś nowym.
Łukasz Kałużny: I jedno ciekawe jest w tym nowe prawo w Chinach, AI+. I kurde życzę sobie, żeby wjechało wszędzie. Np. YouTube będzie robił bardzo ostrą teraz demonetyzację.
Szymon Warda: Cześć, słuchacie patoarchitektów. Prowadzą Szymon Warda…
Łukasz Kałużny: I Łukasz Kałużny. Wszystkie linki do tego odcinka klasycznie gdzieś na Patoarchitekci.io lub gdzieś tu na dole. Jak jesteście przy okazji Patoarchitekci.io, to zerknijcie, bo strona po czterech latach, pięciu dokonała wreszcie swojego mocnego odświeżenia. I też zerknijcie na wszystkie szkolenia, które się wydarzą do końca roku, więc już opublikowaliśmy je na stronie, więc możecie się zapisywać.
Szymon Warda: To jest ten moment, kiedy już otworzyłem stronę, bo czekam na upgrade już od jakiegoś czasu, ale tego jeszcze nie ma, ale pewnie będzie w momencie jak będziecie Wy odtwarzali. A już miałem nadzieję, że jest wcześniej. Dobrze, Łukaszu, co tam znalazłeś?
Łukasz Kałużny: Dobra, mamy shorta powakacyjnego, czyli z trzech miesięcy. Zacznę od rzeczy nie AI-owych, a potem przejdziemy do tego bagienka. Aczkolwiek mimo sezonu ogórkowego, to te wszystkie newsy wyglądają jak strzały dopaminowe z TikToka, bo chyba tak teraz wygląda rozwój technologii, jak popatrzymy. Dobra, pierwsza rzecz dowcipna. Kiedyś tam wspominaliśmy, że wreszcie Kafka pozbywa się ZooKeepera i będzie miała wbudowanego Rafta, czyli implementację Rafta do uzyskiwania kworum. Tak, zarządzanie metadanymi, czyli swojego KRafta. I mamy najzabawniejszą rzecz. Mamy zarządzaną Kafkę jako usługę w AWS-ie. I teraz zabawa polega na tym, że migrację na KRafta możesz zrobić zero downtime. Czyli możesz zupgrade’ować Kafkę i przełączyć się w tym podejściu zero downtime w uproszczeniu. Upraszczam, ale jest taka opcja. Ale powiedzmy, że możesz wziąć wyłączyć klaster i włączyć go z powrotem na KRafcie. Zabawa polega na tym, że w Amazonie ktoś dość zabawnie pomyślał, że nie możesz zrobić upgrade’u do nowszej wersji i przepiąć się, tylko musisz stary klaster skasować i postawić nowy.
Szymon Warda: Pomijając fakt, że normalnie można, a tu nie można, to opcja kasowania klastra kafkowego, gdzie mamy założenie, że możemy odtwarzać zdarzenia z tego, czytać wstecz i tak dalej, jest absurdalne totalnie.
Łukasz Kałużny: Słuchaj, nawet indeksy, stany, przeniesienie się, upewnienie się, jest to masakra, o tak, w kilku aktach.
Szymon Warda: Wydaje mi się, że będzie z tego jakieś wycofanie, że jednak będą kombinowali, żeby…
Łukasz Kałużny: Nie, nie będą. Nie, wątpię. Użyj natywnych usług, a nie tych, które są manage third party.
Szymon Warda: A, bo to jest do… Ok, dobra.
Łukasz Kałużny: Więc jak popatrzymy. Dobra, to co teraz u Ciebie?
Szymon Warda: Z newsów. Ja mam trochę drobnicy. Pulumi nasze kochane doczekało się wspierania modułów terraforma. Czyli z Pulmi możemy odpalić Terraforma.
Łukasz Kałużny: Już mogliśmy… Raczej tutaj direct, to też jest ważne, bo już wcześniej mogłeś odpalić w tym.
Szymon Warda: Ale chodzi o to, że direct, czyli jest to dużo, dużo łatwiejsze i jest to sposób na zachęcanie. Podejście jest ciekawe, bo to wypełnia pewną dziurę, którą Pulumi miało i teraz możemy robić wszystko. Czy jest to podejście dobre? Z całym szacunkiem, mieszanie już dwóch podejść i dwóch języków dla mnie brzmi ciekawie jako przejście z jednego na drugi, chociaż nie rozumiem takiej migracji, czemu miałaby się dziać. Ale używanie dwóch naraz, to jest masakra ogólnie rzecz biorąc.
Łukasz Kałużny: Wiesz co? To tak jak ja powiem, nadal będę twierdził, że języki programowania nie nadają się do infrastruktury z jednego prostego powodu, pozwalają na zbyt dużo i pozwalają na wepchnięcie tam logiki, gdzie jej nie powinno być. Oczywiście, czy przeklinam na Terraforma, Bicepa i inne rzeczy? Czy czasami hakuję? Oczywiście, tylko robię to świadomie wtedy. A większość jestem sobie już wyobrazić kod stawiający w Pulumi wyobrazić, widziałem to, który będzie napisany w .Necie zgodnie z prawidłami Solida.
Szymon Warda: I naprawdę trochę się wydarzyło. Czyli jest tylko problem z tym, że ograniczenia języków typu Baicep, Terraform są upierdliwe, ale one są po to, żeby nie robić tam wielkiej kupy. Pozdrowienia dla wszystkich przedszkolaków, jako że zaczął się sezon przedszkolny to jak najbardziej i to powinno tam istnieć tak naprawdę. IF-y czy tam jakieś pętle są upierdliwe. One ograniczają, żeby tam nie było żadnego pierdolnika. Więc tak, też się zgodzę, że Pulumi, nie rozumiem tego całego hype’u, który się wokół tego dzieje.
Łukasz Kałużny: Dobrze, to ja teraz sobie z drobnicy jeszcze, bo też mam trochę drobnicy, to się wepchnę w Twoją i akurat z Kubernetesem i dokładniej z Azurem. Przez długi czas w referencyjnych architekturach było, Microsoft ma taką usługę Azure Bastion, czyli to jest jumpbox, stacja przesiadkowa. I przepraszam, ale określę debile z Microsoftu, jak i potem debile czytający bez zrozumienia Architecture Center wstawiali tego jumpboxa bez żadnej VM-ki, która jest potrzebna, bo on jest tylko reverse proxy. Czyli stawiali reverse proxy. I do czego my się będziemy podłączać? Do węzłów na przykład. Ale przecież na nich SSH by default wyłączamy, więc po co się na nie zalogowywać. Ale co teraz zrobili? To dodali do tego reverse proxy możliwość też przepięcia się bezpośrednio do klastra AKS-owego. Czyli możemy zrobić sobie reverse proxy do klastra AKS-owego bez wystawiania bezpośrednio API Servera na świat i bez odpalania VPN-a. To jest taka pierdoła, ale w startupowych scenariuszach w niektórych miejscach może czy tam małych aplikacjach może dobrze wyglądać.
Szymon Warda: Jest użyteczna. To jest z serii małe rzeczy.
Łukasz Kałużny: Przy czym prawdopodobnie jej nigdy nie użyję, bo jak popatrzymy potem, że potrzebujesz kawałek VPN-a, to nie ma sensu jej stawiać. Ale odnotujmy, że wreszcie rysunki stały się prawdą.
Szymon Warda: Dobrze, teraz lecimy. Ja podtrzymam ten motyw, że trochę o Kubernetesie. Więc mówimy o KYAML-u. I to jest ciekawy trend odnośnie też dyskusji, którą miałem wcześniej. Czym jest KYAML? KYAML jest podzbiorem YAML-a, który po prostu jest bardziej JSON-em. Bo tak to wygląda, ma więcej nawiasów, jest bardziej machine readable, że tak powiem, jest mniej [niesłyszalne 00:07:29], ale wygląda dobrze.
Łukasz Kałużny: Właśnie, z drugiej strony ma być też, prowadzić do mniejszej ilości błędów przez człowieka, przez to, że pewne rzeczy są bardziej jawnie zadeklarowane.
Szymon Warda: Każdy kto mówił jakiemukolwiek czatowi czy cokolwiek: popraw mi małą sekcję YAML-a, a on się walnął z wcięciem, doskonale wie o czym mowa. Jest podzbiór, który będzie działał z dowolnym QTL-em. Bo czemu? Bo bo spokojnie jest to podzbiór…
Łukasz Kałużny: Od 1.34, to jest teraz ważne.
Szymon Warda: Nie, 1.34 daje możliwość outputu do KYAML-a, ale możesz używać KYAML-a nawet we wcześniejszych wersjach, bo to jest podzbiór, więc zadziała. Co zmienili? Ogólnie zawsze double quote’ujemy stringi, klucze są bez cudzysłowu, mamy nawiasy klamrowe do mapowań i nawiasy kwadratowe do list. Po prostu jest bardziej dokładne. Dla mnie to jest jedno ważne tutaj. To jest ewidentnie ruch w kierunku tego, żeby YAML, który jest trochę upierdliwy w większych plikach, był bardziej, łatwiej interpretowany przez maszynę. To jest dobry, dobry kierunek.
Łukasz Kałużny: Ale Szymon, teraz będę, powiem tak, dlaczego uważam to za takie sobie?
Szymon Warda: To dajesz.
Łukasz Kałużny: Przecież JSON był support… Jedyna różnica, jest tylko jedna różnica taka, że jak sobie na to popatrzysz, tak z punktu widzenia zwykłego człowieka, kogoś, kto nie wchodzi w detale, smaczki i inne rzeczy, bo YAML ma przepotężną specyfikację i JSON to jest tylko kawałek. Do diabła, supportowany JSON w narzędziach Kubernetesowych jest od zawsze. W sensie jedyna różnica… Są dwie rzeczy, komentarze, ale w sumie JSONC to adresuje. Druga rzecz, która jest w YAML-u nie ma w JSON-ie, to jest wieloobiektowość dokumentu poprzez te sławetne trzy kreski w manifeście, że możemy oddzielać pomiędzy sobą obiekty.
Szymon Warda: Bo JSON jest nudny, jest stary. Wymyśliliśmy nowego YAML-a.
Łukasz Kałużny: Ale to jest JSON.
Szymon Warda: Bo jest nowy. Ale tak, ale teraz mamy KYAML-a, który jest czymś nowszym niż YAML. Ok, wygląda jak coś starego, jak najbardziej tak, ale jest czymś nowym. Więc gwarantuję Ci, że będą projekty migracji YAML-a do KYAML-a. Doskonale o tym wiemy we dwóch.
Łukasz Kałużny: Zupełnie… Inaczej, sławetne spacje. Wystarczy sobie włączyć, żeby zamiast white space’ów pokazywało kropeczki.
Szymon Warda: Wiesz co? Dla Ciebie tak, dla interpretacji do maszyn i tak dalej, to już trochę gorzej wygląda przy dużych plikach. Więc to jest ciekawy ruch w tym kierunku.
Łukasz Kałużny: Dobra, druga rzecz, która się pokazała w ramach GitHub Next, czyli tego całego researchowego, nad czym GitHub pracuje, inaczej, zostawia publiczne koncepcje, żeby pokazać możliwości. Jest sobie research prototype o nazwie Agentic Workflows.
Szymon Warda: Widziałem, widziałem.
Łukasz Kałużny: I słuchajcie o co chodzi? Bardzo proste. Mamy GitHub Actions w YAML-u, żeby nie było, który…
Szymon Warda: Jeszcze.
Łukasz Kałużny: Jeszcze, tak, nie sądzę, że to się zmieni, w którym mamy na przykład documentation updater. Czyli mamy sobie GitHub Actions, które jest wywoływane i za pomocą agenta np. analizuje repozytorium i wprowadza zmiany w jego dokumentacji.
Szymon Warda: Okej.
Łukasz Kałużny: Czyli mamy sobie, podajemy sobie dostępne na przykład narzędzia, czyli na przykład może creator update file, create branch, delete file, put files, create pull request, czyli dajemy sobie jakieś te narzędzia, które są dostępne na przykład w ramach agenta GitHubowego. I tutaj jest tam na przykładzie Cloude’a na przykład jakie narzędzia agent samego Copilota i Cloude’a ma dostępne. Czyli budujemy sobie, założenie, że workflow, ten agentic, oczywiście autonomiczny agent nie istnieje, bo reagują na eventy. Teraz właśnie to jest ten. Odkrywamy największe kłamstwo. Autonomiczny oznacza, że coś go wywołało. Więc w tym wypadku na przykład commit czy pull request wywołuje agenta: weź zupdate’uj dokumentację.
Szymon Warda: To jest fajny, ciekawy sposób na konfigurację, co ma agent, jakie ma agent narzędzia i co agent może zrobić.
Łukasz Kałużny: Tak i widzę na przykład plus taki z issuesami. Dokonaj triażu… Workflow, dokonaj triażu issuesów i zaproponuj wstępny pull request.
Szymon Warda: Tak, ładniejsza konfiguracja. Dobra, a to ciekawe, bo i serią linków, które jakoś mi się natchnęły, to była cała seria, która jest wokół tego, że co się dzieje? Mianowicie wokół tego, że to będzie trochę dłuższe, więc pozwól, że to się rozbuduje, trochę dłuższy case. Microsoft teraz przepisuje dużą część swoich rzeczy na raz. Chwalą się, że tu przepisali prędkość i tak dalej. To nie jest clue tej całej rozmowy. Co mnie bardziej zaciekawiło to jest to, że obecnie właśnie developują narzędzie, które będzie automatycznie portowało kod z C i C++ na RAST-a. Sensowne, bez dwóch zdań. I co mnie naszło tak naprawdę w tym wszystkim? To jest to, że jestem ciekawy jak się rozwinie cały rynek. On się rozwija. Zresztą widzieliśmy na ogłoszeniach w zeszłym roku wszystkich chmurowych, modułów, agentów, AI całego, jakkolwiek to nazwiemy, który [niesłyszalne 00:13:20] ze starych języków na nowsze języki, nazwijmy sobie to. Nawet zacząłem trochę grzebać. I co tam wygrzebałem? Jest coś takiego jak Openright i to sobie tworzy ludzki semantic trees dla całego języka? Ale też co tam ma? Ma też takie przepisy recipe na często wykonywane akcje typu upgrade’y czegoś tam, do .Neta, Javy i tak dalej. Co mnie tutaj zaciekawiło, to jest to właśnie, taka myśl, bo zawsze mówiliśmy o tym, że okej, tam ludzie od COBOL-a będą trzymali te systemy na wiele, wiele lat i mają bezpieczeństwo pracy. No właśnie. I moje pytanie jest teraz takie, czy to się nie zmienia właśnie?
Łukasz Kałużny: Dobra Szymon, jak popatrzysz, to będzie trzeba nauczyć, w sensie też to nie jest tak, że wrzucisz do LLM-ów specyfikację języków.
Szymon Warda: Jeszcze.
Łukasz Kałużny: Jeszcze, w sensie aktualnie. Może inaczej, zróbmy to aktualnie. W przyszłości mogę sobie wyobrazić… Tylko widzisz i teraz to wszystko to są mityczne stwory, te automatyczne… Automatyczne upgrade’y, one nawet działają. W sensie jak masz mały rework, lecisz na bieżąco, to takie rzeczy wiesz, one działają, automatyczne.
Szymon Warda: Utrzymywanie [niesłyszalne 00:14:32] budowy.
Łukasz Kałużny: Tak. Oskar ciągle na swoim za dobrym codebase próbuje, żeby mu zaimplementowało coś i zawsze wychodzi w tym albo przepisz, to mówi, że wychodzą fuckupy. Czy wiesz co, ostatnio robiłem, potrzebowałem kawałek kodu w Pythonie i z ciekawości tam jedna była taka rzecz. Nie chciało mi się go pisać i była tam jedna rzecz, że potrzebowałem obtestować pewną rzecz w tym kodzie. Jak z rzadka po prostu potrzebowałem bardziej sobie zaplanować mocne testowanie, żeby mieć gwarancję faktyczną tam na regułach biznesowych. I kod w Pythonie, którego mi, z ciekawości użyłem GPT 5, o którym wspomnimy i kod w Pythonie przypominał heksagonalnego solidowego .Neta. To był taki, w sensie żaden pythonowiec by tak nie napisał. Czy będzie to tak jak było dowcip o tym, że w tym, nie trzeba było się pytać programisty Javy o doświadczenie, jeżeli przychodził pisać w Golangu. To było widać.
Szymon Warda: Jeszcze ten kod w Pythonie miał więcej proporcji jeden do jednego plików pythonowych i plików [niesłyszalne 00:15:42] co te pliki robią. Absolutnie [niesłyszalne 00:15:46] w tym, jak to obecnie wygląda i ten kod jest over engineers przeudokumentowany i tak dalej. Jednak te wszystkie stare systemy to jest żyła złota, jeżeli chodzi o systemy do aktualizacji, modernizacji i utrzymywania. I mój teraz taki strzał kompletnie od czapy to jest to, czy za chwilę nie zobaczymy języki, które są pisane i optymalizowane nie pod człowieka, jak obecnie mamy, ale właśnie pod liczenie maszynowe, takie metajęzyki, które opisują, jak programy wyglądają. I to by było dużo łatwiejsze w utrzymaniu.
Łukasz Kałużny: Czy wiesz co, jak to było? Używanie procedur z agentów LLM-owych jako Rest API.
Szymon Warda: Tak, to teraz kończę ten temat, to wystawię Ci kolejny temat, ponieważ piszemy o tym już, ponieważ taka też jest jedna firma mianowicie Cloude. Oni się regularnie chwalą tym, jak dobre są ich modele, bo uważają, że są dobre, właśnie wykonane.
Łukasz Kałużny: Anthropic.
Szymon Warda: Tak, dokładnie. I Cloude Opus uzyskał 74,5% w SWE-bench odnośnie właśnie jakości, które kodu pisze. To już nie są jakieś rewolucje, ale to są niezłe wyniki naprawdę.
Łukasz Kałużny: Czy wiesz co, tak, tylko jak pójdziesz w detale tych testów i inne rzeczy…
Szymon Warda: Są proste. Tak, ale zobacz, to pokazuje po prostu to, w jakim kierunku Anthropic optymalizuje, co jest ich celem. Zresztą nie tylko Anthropica, bo Google też się chwalił tym bardzo mocno na konferencji, o której mówiliśmy swoją drogą w poprzednich odcinkach. Jest, dawaj, lecisz ze swoim AI-em.
Łukasz Kałużny: Dobra, to co, lecimy? Chyba polećmy sobie teraz z newsami. I to mnie zaskoczyło, że to poleciało sobie gdzieś bokiem, bardziej giełdowo i z Reutersa jest news, że była dyskusja w Mecie, żeby wspomagać się modelami od Google’a i OpenAI-a. To jest taka ciekawostka integracji rzeczy, które są między innymi z Gemini w Mecie. I to jest w ogóle ciekawa rzecz, że oni w tamtym kierunku patrzą. Bo Meta, jak tam popatrzymy na te ich open sourceowe modele i inne rzeczy, oni nie przespali tego w żaden sposób, tylko u nich…
Szymon Warda: Poszli trochę inaczej. Teraz dorzucili, Mark rzucił kartą kredytową i kupił dużo wiedzy.
Łukasz Kałużny: Tak…
Szymon Warda: Kupił dużo wiedzy.
Łukasz Kałużny: Tak. I teraz tak, jak popatrzymy sobie na Zuckerbrga i Metę, nie mają komercjalizacji tego, bo oni żyją dokładnie… Bardziej niż Google żyją z reklam.
Szymon Warda: I z reklam, całkiem nieźle im to idzie, dokładnie.
Łukasz Kałużny: Jak jesteśmy przy big techach, to jeszcze dwie takie ciekawostki. Po pierwsze, jest piękny link Reutersa też tam z tej serii, który warto zobaczyć, podsumowanie tych wszystkich pozwów, które widzimy, ile i kto ma wytoczonych. Czyli mamy Google, Metę, Amazona, Apple, Microsoft. I teraz to co ciekawe, jest też ponoć wokół Nvidii jakaś sprawa. Raczej pozew nie został żaden złożony, ale była sobie gdzieś tam też przegląd, że tak powiem, jak to się ładnie nazywa, antitrust probe, czyli zobaczenie, czy przypadkiem nie za bardzo się rozrośli.
Szymon Warda: Mój drogi, generalnie Nvidia sobie teraz wykupiła zniesienie taryf, tak że problem zniknął, można powiedzieć.
Łukasz Kałużny: Nie, to po stronie Stanów, to jest po stronie Stanów Szymon. To jest istotne, to są pozwy po stronie Stanów.
Szymon Warda: Ja też o tym mówię. Zniesienie taryf na eksport chipów do Chin zostało zniesione, bo teraz będzie Nvidia oddawała 10% swoich przychodów z tego, sprzedaży właśnie zaawansowanych kart do Chin. Więc tak się dogadali fajnie. Dobrze, wiesz co, to ja mam jeszcze takich trochę, takich małych, krótkich i całkiem ciekawych. Co się wydarzyło? Znowu mój temat, mianowicie observability. Całkiem ciekawy wpis odnośnie tego jak się zaczął Prometheus dogadywać z Open Telemetry, bo tam jest takie trochę love-hate relationship, że tak powiem. I z rzeczy Łukasz najważniejszych i najbardziej krytycznych, Prometheus wspiera teraz kropki w nazwach metryk.
Łukasz Kałużny: Do zgodności z Open Telemetry.
Szymon Warda: Dokładnie tak, bo to było coś… Influx miał kropki, żeby tam tworzyć strukturę hierarchiczną. I teraz zawsze było zabawne, ponieważ standard Open Telemetry nazewnictwa metryk sugerował kropki. Prometheus nie przyjmował nigdy kropek. Więc teraz Prometheus wspiera, żeby nazwy metryk były z kropkami. Ale to nie jest tyle. Bo teraz uważaj, to jest naprawdę ważny element, który zmieni się co do observability. I mamy też dzięki temu, ponieważ teraz wspiera UTF8, to masz też teraz emoji, możesz mieć w nazwach.
Łukasz Kałużny: To są te zgodności?
Szymon Warda: Zgodności między innymi. Ale, ale, co ma być? Ma być wsparcie do raportowania delt w Prometheuszu, dodanie native histograms, który ma się różnić od classic histograms. Tam jest taki problem, że histogramy są świetne, tylko problem z nimi jest taki, że trzeba na starcie zdefiniować sobie ładnie buckety, do których raportujemy i tak dalej. Jest to trochę upierdliwe. Ogólnie rzecz biorąc Prometheus od wersji 3.0, tak im się pozmieniało, zaczyna dużo lepiej grać właśnie z Open Telemetry. Mamy też pusha, dość sporo rzeczy dostaliśmy, tak że już jest dużo lepiej, że tak powiem. Ciekawie, ciekawie do przejścia. Nie będziemy się już tak gryźli, że tak powiem. Małe, ale cieszy.
Łukasz Kałużny: To polecimy sobie jeszcze z tym, z rzeczami, które się pojawiły, z modelami, przez okres wakacji. To co, Anthropiki wydał Claude’a Opusa 4.1, bo trzeba było coś wydać, o tak. W sensie, tak jak powiedziałeś, ten SWE-bench, że wyżej, inne element. Inaczej…
Szymon Warda: To jest to, że z Opusa 4 na Opus 4.1 ten SWE-bench poszedł z 72,5 na 74,5. Czyli dokładnie to, co powiedziałeś, coś trzeba było wydać, bo te różnice są.
Łukasz Kałużny: Tak, ale ja inaczej. Słuchajcie i teraz tak, tak jak… Bo moim głównym toolem jest, jeżeli chodzi teraz o developerkę, jak tam siadam, robię PoC-e i inne rzeczy, vibecode’uję, to będzie to sobie właśnie Anthropic z Claude Codem. To jest mój główny. I Szymon i moje ustawienie jest następujące modelu. Planowanie w 4.1. Pisanie kodu w Sonecie. Nie używam. Nie używam pusa do kodowania, ponieważ…
Szymon Warda: Mam to samo, dokładnie.
Łukasz Kałużny: Ponieważ przy kodowaniu tak bardzo nie trzyma się instrukcji i tak bardzo dodaje różnych rzeczy, że to wyrzuciłem sobie zupełnie i przełączam, jak odpalam, to na nowym projekcie, to przełączam, żeby właśnie Opus - planowanie, a potem lecimy już z Sonetem. I przy okazji nie wyczerpuje to limitów. I to jest też news, który sobie płynnie przejdę, słuchajcie, ponieważ Anthropic w wakacje załadował takie bardzo mocne limity, rate limitation. I słuchajcie, możemy znaleźć projekty open source w postaci TUI czy w postaci przeglądarkowej bota na Discorda. Jest tego trochę, zostawię do tego jeszcze linki, które ludzie chwalili się i ile to naraz odpalają Clause Code jednocześnie do kodowania. Tak można podsumować całość rzeczy, które robią. Czyli po prostu dowcip, które miałem, generują głównie gówno kod w React’cie, jak tam popatrzymy na detale. Ale było, że ile to ja nie odpalę naraz tych sesji, Claude właśnie z taskami.
Szymon Warda: Te limity są, one są takie, dość mocno przecięli, ale dalej trochę w miarę sensownie to wygląda mimo wszystko.
Łukasz Kałużny: Czy wiesz co, jedna rzecz mi na przykład, teraz tak miałem, w tym momencie płacę za najdroższego maksa, tego za 180 euro… Inaczej, zwraca się. To też jest istotne, że on mi się naprawdę zwraca. I jedna z ciekawych rzeczy, która się pojawiła, ja zostawię właśnie do tego linka, będzie to problematyczn, czyli podejście do tego, że przez przeglądarkę odpalamy sobie czy przez innym wrzucamy zadania na kolejkę do takiego agenta i potem review’uujemy jego. Tam postów na LinkedInie można zobaczyć masę o takim, że ktoś sobie coś takiego zrobił. I to jest z jednej strony ciekawa rzecz. Z drugiej strony przerażające, jak popatrzymy na jakość modeli, pod spodem co się dzieje, ale warto sobie zerknąć, w jaki sposób do tego niektórzy podchodzą. A niektórzy, jak przeczytałem, abuse’zują, kupią dwie licencje na całą firmę i wrzucajmy przez przeglądarkę.
Szymon Warda: Słuchaj Łukaszu, to ja teraz polecę trochę, powrót do dawnych, dawnych lat. Czy pamiętasz XSLT?
Łukasz Kałużny: Bożesz, XSLT…
Szymon Warda: To był ten pomysł w przeglądarkach internetowych, żeby mieć dane w XML-u i mieć plik SLT…
Łukasz Kałużny: Wyświetlać.
Szymon Warda: Dokładnie, który na bazie tych danych odpowiednio robi, żeby to wyglądało ładnie. I to kiedyś było bardzo modne w ogóle. Nie wiem czy pamiętasz? Idea była taka, że mamy jedne dane i mamy różne pliki XSLT do wyświetlania wersji do druku, wersji na przykład do PDF-a, wersji do przeglądania i tak dalej. I zaczęła się całkiem ciekawa dyskusja odnośnie wywalenia tego, bo okazuje się, że mniej więcej jest tam 2% użycia, w 2013 roku było i Firefox po raz kolejny przymierza się do wywalenia tego, ale kończy się to z reguły na tym, że po prostu łatają dziury bezpieczeństwa, które tam są, bo jak można się domyślić będzie tam tego trochę. To znowu podbija cały mój temat odnośnie aktualizacji starych rzeczy. Bo to by było pierwsze wywalenie jakiejś funkcjonalności, które powodowały, że stare strony internetowe nie pokazywałyby się już w ogóle w nowych przeglądarkach. Bo obecnie takie wsparcie wsteczne mamy dość rewelacyjne w HTML-u, to działa.
Łukasz Kałużny: Raczej czekaj Szymon, mówisz o starych rzeczach. Czekaj Ty teraz, bo w zeszłym roku, w tym roku miałeś wycieczkę do Stanów. Rozumiem, że ten portal zgłaszania nadal wygląda tak przedpotopowo czy nie? Ten portal do zgłaszania wjazdu, to jest ta ESTA? Zawsze zapominam nazwy.
Szymon Warda: Wali to Javą jak nie wiem co. Oczywiście, że tak.
Łukasz Kałużny: Nie, nie, bo ja pamiętam jak składałem, tak sobie przypomniałem, parę lat wstecz, jak składałem o wizę wniosek amerykańską, to przeniosłem się do 1996 roku, jak zobaczyłem tą, wypełniałem tą ankietę na stronie.
Szymon Warda: Tak, te okrągłe przyciski bardzo mocno pokazują z którego to jest roku. Tak, takie rzeczy są. To jest w ogóle ciekawy temat, bo użycie jest niewielkie, ale widzimy ile przeglądarki zbierały tego ładunku i ile utrzymują swoją drogą. Taka ciekawostka. Jestem ciekawy, napiszcie kto w ogóle z XSLT korzysta, widział albo ma gdzieś w swojej pracy, bo to jest strasznie ciekawy kawałek chleba. Dobrze, co tam jeszcze masz?
Łukasz Kałużny: Dobra, to teraz tak, modele od OpenAI, bo też wyszły, warto sobie powiedzieć. Pierwsza to GPT5 i było z nią trochę kontrowersji. Może Wam się obiło, że zaczęło być gorzej, że dla części użytkowników wycofano przełącznik, żeby nie korzystać ze starszych modeli. Czytajmy GTP5 dla mnie technicznie to jest, do kodowania jest koszmarna moim zdaniem, jak popatrzę. I dla mnie jest to mechanizm, który obcina koszty serwowania inferencingu OpenAI-owi. To było posprzątanie całej historyczności, która tam u nich jest.
Szymon Warda: Tak, ale odnośnie GPT5, jest dobry do debugging na przykład jak jakiś kawałek kodu nie działa. Do kodowania, generowania kodu nie do końca, ale do znalezienia jakichś małych poprawek, naprawdę się spisuje. I niestety teraz też już mniej chwali. Więc nie wiem czy słyszałeś, całe było zamieszanie, że bardzo dużo ludzi się oburzyło o to, bardzo dużo. Ludzie się oburzyli o to właśnie, że stracili przyjaciela, bo zawiązali… Jest grupa osób, która nawiązała przyjacielską relację z GPT i on już nie jest taki miły i że stracili przyjaciela. I OpenAI wróciło do tych modeli, niektórym użytkownikom [niesłyszalne 00:28:47].
Łukasz Kałużny: Tak, albo było, że kreatywność, że prompty nie działają jak należy. Dobra, ludzie się spodziewali, że wszystko będzie stabilne. Kiedy to wszystko jest na shitting edge’u. I jeszcze jeden z GPT. To też GPT pokazało swój większy model open sourceowy na 20 bilionów parametrów i na 120. Odpaliłem u siebie ten mały i w całości to jest tak, jak tam na moim Macu, ciekawa jakość, o tak. Jak tam popatrzymy w szczególności w tym, bardzo byłem pozytywnie zaskoczony, o tak, na tym małym modelu.
Szymon Warda: Już odpalałem, bawię się tymi trochę mniejszymi. Dobrze, teraz z innych rzeczy. Znowu przy okazji Flutter 3.5 wyszedł. To jest ciekawa informacja odnośnie tego, że tam było dużo zamieszania…
Łukasz Kałużny: Były dramy.
Szymon Warda: Były dramy z Googlem. Oczywiście wywalili część zespołu, więc Flutter się utrzymuje. Nowa wersja ma 1100 commitów od 100, ponad 150 kontrybutorów, z czego 309 nowych, tyle tego wychodzi. Ogólnie nie będę przechodził przez release notesy, bo to nie o to mi chodzi. Co tam jest ciekawe i co zwróciło moją uwagę? Domyślnie włączone jest sprawdzanie kompatybilności kodu z Wasmem - Web Assembly. Czyli jeżeli macie kawałek kodu, który jest niekompatybilny z Web Assembly, będziecie dostawali warningi w outpucie. To oczywiście można wyłączyć, ale jest to fajny ruch, bo ja jestem wielkim fanem Web Assembly i adopcji trochę szerszej. W przeglądarce może niekoniecznie, ale do innych rzeczy. Tak powoli, powoli to idzie w tym kierunku, więc mnie to na przykład bardzo ucieszyło, że może doczekamy się.
Łukasz Kałużny: Przy czym dla buildów stargetowanych na web, to też trzeba podkreślić.
Szymon Warda: Tak, [niesłyszalne 00:30:41]. Mnie bardziej ucieszyłyby buildy stargetowane na kontenery i tak dalej, żeby zastępować, ale zobaczymy.
Łukasz Kałużny: Dobra, z ostatnich to też jest szał. Pewnie do Was dojdzie. Nano Banana, nazwa kodowa pod spodem, czyli jakby to powiedzieć, model, który zastępuje Photoshopa.
Szymon Warda: Słyszałem, ale nie przeglądałem.
Łukasz Kałużny: To jest warto Szymon, tak, to tam wyszło z dwa tygodnie temu, jak teraz nagrywamy, pod koniec sierpnia. I założenie jest takie, że w łatwy sposób możesz opisać, co chcemy zmienić. Są do tego jakieś, właśnie na YouTubie są porównania już i inne takie rzeczy. Oczywiście profesjonalny grafik porównuje, to są takie rzeczy. To pokazuje ciekawy model zmiany i dobrą rzeczą jest tutaj w miarę stabilność utrzymania oryginalnego obrazu, że jakby nie regeneruje, tylko że wprowadza zmiany, o tak, jak tam popatrzymy.
Szymon Warda: Adobe jest potentatem na rynku, konkurencji nie za bardzo jest. Takie możliwości, co to oferuje, czyli dodanie małej zmiany i tak dalej, to wykosi całą drobnicę, drobnych prac z różnych obszarów, gdzie biznes potrzebuje, właśnie takich prac graficznych. Funkcjonalnie? Świetne, genialne, super. Usuwa taką ilość osób z potrzeb, że ciekawie.
Łukasz Kałużny: Z szybkich potrzeb. Ja bym powiedział, że z szybkich potrzeb typu marketer. Na przykład będzie marketer, nie będzie musiał prosić grafika, że: weź mi przerób to zdjęcie czy coś, popraw. To są takie… Będę bardzo…
Szymon Warda: Albo do [niesłyszalne 00:32:22] albo tak dalej. I cały kanał na Reddicie na zasadzie, że: czy możesz poprawić moje zdjęcie, który jest bardzo popularny.
Łukasz Kałużny: Tak.
Szymon Warda: Dobra, to jeszcze teraz z drobnicy i ogłoszeń parafialnych. Content trust w Dockerze już jest na wygaszeniu. Mianowicie od 8 sierpnia tego roku jest ogłoszone, że będzie wygaszany i te certyfikaty będą już teraz wygaszane. Może przydać się oczywiście na Sigstore, może przydać się na Notation. Opinie o tym nasze są takie, że tak, ale właściwie po co? Tak, można, jak ktoś bardzo chce. Ale to jest fajne, bo to kiedyś było bardzo głośne. Kiedyś był taki bardzo mocny ruch w kierunku: tak, brońmy się przed man in the middle attack, jeżeli chodzi o nasz content [niesłyszalne 00:33:03].
Łukasz Kałużny: Szymon, tak, ja o tym content trust’cie, jak rozmawialiśmy, uważam to za bullshit niewarty uwagi, jak teraz popatrzymy. To tak jak z podpisywaniem driverów na Windowsie i kodów.
Szymon Warda: Z [niesłyszalne 00:33:20] trochę więcej było roboty.
Łukasz Kałużny: Tak, ale w sensie to było ciekawe, w sensie mówię wiesz, były też podatności na to ciekawe, bo komuś pociekły klucze. Było dużo takich, wiesz, w sensie jeżeli…
Szymon Warda: Jest ciekawe, że to się nie przyjęło.
Łukasz Kałużny: Nie. To się w sensie wiesz, to tu się nie przyjęło, zależy to podpisywanie… Poza paczkami do systemów, tak jak popatrzymy, to to się nie przyjęło szerzej. Gdzieś tam, raczej gdzieś… Inaczej, nuggety masz podpisywane przez Microsoft chyba, są tam jakieś takie elementy. Ale to też nie. Ja dorzucę jeszcze jedną rzecz, ostatnią, która też się pojawiła, tam gadaliśmy sobie z Szymonem przed na temat Chin jeszcze. I jedno ciekawe jest nowe prawo w Chinach, AI+. I kurde życzę sobie, żeby wjechało wszędzie. Jedna z tych rzeczy. Obowiązkowe watermarkowanie treści na dwóch poziomach, że treść pochodzi, jest wygenerowana AI-em. W szczególności wideo, właśnie takie przeróbki, żeby było to pokazane… W sensie jest to rzecz i tam patrząc, to jest dłuższa w ogóle ustawa, bo też, jak to nie zabrzmi, ale etyka i nadzór nad AI, o tak, to jest jedna z części tego. Ale to co będzie to explicite labels, czyli że użytkownik ma dostrzec, że coś było generowane przez AI. I druga rzecz, implicite labels, czyli metadane lub znaki wodne.
Szymon Warda: Zgodzę się z tym, że przydałoby się. Jestem ciekawy jak będzie wyglądało egzekwowanie tego i udowodnienie, że coś było albo nie było.
Łukasz Kałużny: Szymon, powiem tak, zrobilibyśmy na LinkedInie filtr: odfiltruj wszystkie generowane AI-em.
Szymon Warda: Masz te narzędzie Google’owe, które dodaje. I teraz wyobraź sobie, że w tym momencie narzędzie ma sens. W tym momencie będzie miało watermarka, że było zmieniane AI-em, to już w ogóle nie ma żadnego sensu. Tak, bo już tego nikt nie użyje na swojej stronie.
Łukasz Kałużny: Raczej tak, tylko że to będzie dotyczyło wszystkich. Jeżeli dotyczyłoby wszystkich platform, to… Raczej zobacz, że tu masz też ukryte. Więc prawdopodobnie chodzi o to, żebyś też olabelował. To jest też strzelenie w platformy social mediowe. Tutaj w ogóle to nie ma, też trzeba sobie powiedzieć wprost, że to jest mocne strzelenie w platformy social mediowe. I jak popatrzymy, jak bardzo w Google’u chc, na przykład YouTube będzie robił bardzo ostrą teraz demonetyzację treści generowanych AI-em, będą watermarkować i wszystkie tam shorty, autogenerowane filmy i inne rzeczy po prostu wycinać, demonetyzować, że nie będzie się dało na nich zarobić. I nagle się okaże, że znowu spadnie ilość contentu wrzuconego na YouTube’a.
Szymon Warda: Akurat to im nie zaszkodzi. Dobra, jestem ciekawY, jak to się rozwinie i czy to się przeniesie na jakieś ustawy u nas, że tak powiem. I czy…
Łukasz Kałużny: Raczej pomysł jest dobry. Tutaj w ogóle…
Szymon Warda: Pomysł jest dobry. Dobra, masz coś jeszcze?
Łukasz Kałużny: Nie, ja, już u mnie wszystko.
Szymon Warda: Tyle, działo się przez te wakacje jednak.
Łukasz Kałużny: Na razie. Trzymajcie się.
Szymon Warda: Na razie, hej.