#145 Short #67: Śliwka i Bielik, Allegro LLM, TechTrends, Antropic Reasoning, CRO, Event Destinations

2025, Mar 14

Śliwka, Bielik i LLM-y znów goszczą w naszym skróconym odcinku! Polskie modele językowe rozwijają się jak szalone, a Allegro dorzuca swoje tłumaczenie międzysłowiańskie. Event Destinations mogą wreszcie zastąpić nasze ukochane (czytaj: znienawidzone) webhooki.

Raport Tech Trends 2025 od Deloitte potwierdza to, co wiemy - AI zjada budżety IT. Microsoft anuluje centra danych dla AI o mocy 200 megawatów. Anthropic wprowadza model Sonnet 3.7 z hybrydowym reasoningiem, a dot run próbuje zastąpić Kubernetes.

Sprawdź, czy Digital Twins mają sens w twoim przemyśle. Zoptymalizuj swój workflow z LLM-ami w kodowaniu. Posłuchaj, zanim twój szef wyda miliony na AI, które nie generuje wartości!

Słuchasz Patoarchitektów dzięki PROTOPII – firmie, w której Łukasz i Szymon działają na co dzień, wspierając zespoły IT na każdym etapie: od projektowania, przez wdrożenia i migracje, aż po optymalizację i zabezpieczenia. Oferujemy też mentoring i szkolenia dostosowane do potrzeb każdej firmy, niezależnie od wielkości. Sprawdź nas: protopia.tech

Discord 👉 https://discord.gg/78zPcEaP22

Linki i ciekawe znaleziska:

Transkrypcja

Łukasz Kałużny: Cześć, słuchacie Patoarchitektów. Prowadzą Łukasz Kałużny…

Szymon Warda: I Szymon Warda. Wszystkie linki do tego odcinka oczywiście na Patoarchitekci.io, gdzieś w opisie na dole, to ogarniecie albo wygooglacie, wbingacie, cokolwiek.

Łukasz Kałużny: Dobra, szybkie ogłoszenia parafialne. Sprawdźcie Discorda, newsletter, o którym jeszcze dzisiaj wspomnimy i nadchodzące na kwiecień szkolenia. Na pewno znajdziecie termin już na Architekturę 101, bardziej majowo-czerwcową i Szymon na początku kwietnia - Observability.

Szymon Warda: Dokładnie tak. Dobrze Łukaszu, co tam wyszukałeś?

Łukasz Kałużny: Dobra, to co? Aktualizacje na temat polskich modeli różnego rodzaju i zacząłbym od Allegro, bo nie jest to typowy LLM, tak to nazwijmy. Więc coś przyjemniejszego w tym momencie. I Allegro udostępniło, jak to ładnie nazywają, Multilanguage Cross-Slavic Machine Translation Model w postaci open source’u. Jest 10 par modeli do translacji z różnych języków na polski i z polskiego na różne słowiańskie, czyli tak jak ich potrzeby wewnętrzne, które mają u siebie. Jest też ciekawostka, bo na ich page’u facebookowym też się chwalili tym, że złapali jakąś nagrodę właśnie za te modele, za Allegro Translation Engine.

Szymon Warda: No i od tego mamy Allegro, wysyłka z Polski, z Czech i Słowacji, itd., więc nie ma się co dziwić.

Łukasz Kałużny: Tak i to jest pierwsza taka ciekawostka z modeli. Druga jeszcze, mamy Śliwkę, czyli konkurencję, Plum, czyli konkurencję rządową dla Bielika. Nie patrzyłem jeszcze jak działa. Jest tam chat, jest online’owo, udostępnili chat wystawiony właśnie z tym modelem Plum. I druga rzecz, która się pojawiła, to pojawiły się wreszcie te modele… Wreszcie dograno licencje i Ministerstwo Cyfryzacji wystawiło te modele na Hugging Face również.

Szymon Warda: O!

Łukasz Kałużny: Tak, to się teraz stało, więc jak nagrywamy, to jest jeszcze w miarę świeże. Jak będziecie tego słuchać, to już będzie miało to ogłoszenie ze dwa tygodnie.

Szymon Warda: Tak. Dobra, to ja pociągnę ten temat AI-owy, bo ja dorwałem się do, uwaga, uwaga, Tech Trends 2025 od Deloitte.

Łukasz Kałużny: Czyli maszynka do naciągania na…

Szymon Warda: Powiem Ci, że też tak myślałem i ogólnie podszedłem do tego jak do: a, pośmiejmy się, pośmiejmy się, pośmiejmy się. Oczywiście wiadomo, że… Zacznijmy, cały raport jest o AI-u, ale niczego innego byśmy się nie spodziewali. Dobra, ale kilka rzeczy, które faktycznie wydaje mi się, że się dzieją. Po pierwsze, co też pokazuje Allegro właśnie, Twój link, coraz większe parcie w kierunku właśnie mniejszych modeli, zamiast tych LLM’ów. Z kilku powodów, żeby być dokładniejszym, itd. Ok, przewidywanie to w kontekście jeszcze kolejnego newsa będzie takie trochę nie za bardzo. Obecnie wydatki na serwery do AI stanowią 60% wydatków wielkich dostawców chmurowych. To jest dużo, ustalmy. Tak. Dalej. Tam jest parę, z Gartnera wyciągnęli parę takich statystyk rynkowych. Mniej niż jedna trzecia projektów AI-owych wchodzi na produkcję.

Łukasz Kałużny: Prawda, oj prawda.

Szymon Warda: Co się okazało? Cały wzrost AI-a spowodował co? Wzrost inwestycji w jakość danych. No kto by się domyślał. Ale to akurat wszystkich cieszy.

Łukasz Kałużny: Inaczej, czemu nie wchodzą na produkcję? Bo przez jakość danych nie spełniają oczekiwań.

Szymon Warda: Albo przez to, że nie wiedzą co mają w danych, to nie mogą przez całe reguły bezpieczeństwa i danych nie mogą tych danych użyć tak naprawdę. No dobrze. Kolejny ciekawy nurt, który zauważyli, to jest to, że właśnie, że nie wejście w LLM-y, tylko właśnie mniejsze modele wyspecjalizowane właśnie w zarządzanie, kontrolowanie, wsparcie, itd. Takie mikro zadania tak naprawdę. I to, z tym bym powiedział, że ok, to ma jakiś tam sens. Wiadomo, oczywiście wskazują na problemy z regulacjami wokół danych. Dobrze, co jeszcze dalej jest? I oczywiście, to już nie mogę ominąć, ruch w kierunku właśnie agentowości. Teraz co mnie zaciekawiło bardzo mocno, to jest - drugim wielkim punktem tego raportu jest spatial computing, czyli HoloLens i Augmented Reality. No właśnie i to była moja pierwsza reakcja, że no przecież tak, Microsoft dział HoloLens pozamykał, nie ma tego już. Powiedzmy sobie to, że…

Łukasz Kałużny: Inaczej Apple też się wycofał z VR-ów swoich.

Szymon Warda: Wycofał się z tego. Ale jak się w to wczyta, jest jeden temat, który faktycznie ma sens. Cała idea Digital Twins, czyli modelowanie procesów, itd. Pierw właśnie w wersji cyfrowej CAD/CAM-owej, itd., i potem przenoszenie tego. I to faktycznie się dzieje w przemyśle. Widuję.

Łukasz Kałużny: Inaczej, jak popatrzysz technicznie, dla mnie to jest tak, VR dla mnie, z mojej takiej perspektywy, VR to są gry i to ma się dobrze, co pokazuje zresztą…

Szymon Warda: Ma się jakoś tam, nie powiedziałbym, że ma się dobrze.

Łukasz Kałużny: Może nie dobrze, sobie żyje, o tak, to może lepsze będzie określenie, sobie żyje. No wiesz, jak popatrzysz, to masz, i potem augmented reality, czyli nakładanie na rzeczywistość. To są 3 rzeczy, które widzisz - przemysł, przemysłowo-serwisowe, medycyna gdzieś tam się powoli ten. Trzecie, te najgorsze, które istnieje i jest z tym problem etyczny, czyli zastosowania militarne.

Szymon Warda: Ale z tego np. wojsko amerykańskie się wycofało i dlatego między innymi MS swój dział HoloLens zamknął, bo żołnierze mieli problemy z zawrotami głowy, można powiedzieć, bo to jeszcze nie jest ta prędkość odświeżania. W przemyśle to faktycznie weszło i to tam będzie się działo. Medycyna edukacyjnie wchodzi, jak najbardziej tak. Ale jeszcze parę innych ciekawych statystyk. Wydatki na IT szacują, że w 2024 wzrosły o 7,5% względem 2023 i w 2023 wynosiły 5,26 tryliona dolarów. I ten wzrost jest w miarę stabilny, od 5 do 8-9% tak naprawdę, wchodzimy po kolei, po kolei, po kolei. Tak że raport nie jest zły, bardziej w kontekście zebrania statystyk. Maszynka sprzedażowa bardzo mocno bym powiedział, tam jest cała lista, skontaktuj się z nami.

Łukasz Kałużny: Agenti. Ale jak już mamy o agentach, to jest już naciąganie hype’u.

Szymon Warda: Jest naciąganie, dlatego mówię, ciekawe spojrzenie na te właśnie Digital Twins i Spatial. A i oczywiście jest wielki niepokój, żeby nie użyć innego słowa, ponieważ wiem, że przedszkolaki mogą słuchać, to jest odnośnie algorytmów kwantowych i jaka to będzie tragedia i że to będzie powtórka z roku 2000, dla tych, którzy wiedzą o co chodzi. Jak nie, to się zapytajcie starszych kolegów albo koleżanek właściwie. Tak że tyle. Ciekawe do przekartkowania bym tak to powiedział.

Łukasz Kałużny: Tak, mi się to podoba, z tym, że zazwyczaj potrzebujesz, jak o agentach mówisz, to nawet fajnie Anthropic mówił, że zazwyczaj potrzebujesz raczej prosty flow, prosty workflow wzbogacony LMM-em, jeżeli już masz potrzebę niż agenta.

Szymon Warda: Ale hype musiał być, więc jest, no nie oszukujmy się. Ale parę rzeczy tam było faktycznie niegłupich. Dobra, co innego znalazłeś tam?

Łukasz Kałużny: Dobra, to lecimy. Ja jestem kurde monotematyczny, ale niech tak będzie. Jest jedna rzecz, którą wrzucałem już w newsletter, więc Ci, którzy czytają, mogli go zobaczyć. Jedno to jest właśnie My LLM Codegen Workflow. Cały wpis pokazuje, jeżeli popatrzycie, polecam sobie na niego zerknąć, dla ludzi w szczególności, którzy hejtują. Jest sobie wpis jaki jest sposób pracy do użycia LLM-ów do kodowania. Jaki może być Twój workflow w pracy, do czego można to wykorzystać. I to jest dobry przykład, w szczególności patrząc na podsumowanie, że można naprawdę dobrze używać, ale warto zostać sceptycznym. Czyli po prostu zwykłe krytyczne myślenie.

Szymon Warda: Tak, no to jest dobre narzędzie i to jest “narzędzie” z naciskiem. Nie jest to kolejny srebrny pocisk, że wszystko nam rozwiąże.

Łukasz Kałużny: Zrobi, tak. Więc artykuł jest po prostu… Inaczej, jest bardzo obiektywnie napisany. Ten ktoś pokazuje swój flow i mówi też o sceptyczności. I rzecz, która się pojawia za tym, chyba już ileś razy powtarzaliśmy, że jedną z mocy takich copilotów i innych rzeczy, kiedy zaczną, da się załadować coraz więcej w ten kontekst, to będzie wykorzystanie tego do dokumentowania i tłumaczenia tego, co się dzieje w jakimś starym codebase’ie.

Szymon Warda: I translacji z języków na języki, aktualizacji frameworków i tego typu rzeczy.

Łukasz Kałużny: To się powoli, powoli wszystkie automatyzacje i w tym podejściu podrzucił właśnie jak można wykorzystać, GitHub podrzucił wpis właśnie jak wykorzystać do Legacy codebase’u GitHub Copilota, do takiej części, jak w takich prostych rzeczach podejść do tego, jak tego użyć.

Szymon Warda: Dobra.

Łukasz Kałużny: Czekaj, spodobało mi się jedno zdanie tylko. A, translate code into a language You understand. Think of it like translating idioms with Google Translate - it can handle the raw translation but may require human input for context.

Szymon Warda: I tak i w tym kierunku to ma sens, tłumaczenie języka naturalnego na kod. Jak już flow biznesowy, jakoś tego jeszcze nie widzę.

Łukasz Kałużny: Ale z kodu do ludzkiego? Nie. Chyba, że ktoś przekombinował. Tak, dopóki nie będzie z abstrakcją, z którą sobie też on nie poradzi do rozczytania.

Szymon Warda: Tak. Dobra, to ja dwie rzeczy takie drobniejsze. Craw.run, czyli nowe podejście, alternatywa dla Customize’a i Helm’a. Jak inaczej spojrzeć i jak inaczej nie klepać tyle w Kubernetesie? Współpraca Microsoftu i Wszystkich Świętych właściwie w CNCF-ie, itd. Czym to jest? Tworzymy sobie Resource Graph Definition, który jest oczywiście CRD-ekiem, czyli Custom Resource Definition i to nam opisuje aplikację. No potem możemy tworzyć obiekt dla aplikacji i to wykorzystuje nasz template, aplikacja skaluje, itd. Ideowo jest to fajne. Powstało z misją, że uprośćmy standardy, które mamy, będzie lepiej. I to jak w tym komiksie XKCD, mamy dwa standardy, upraszczamy, czyli teraz mamy trzy standardy.

Łukasz Kałużny: Słuchaj, wiesz co jest najgorsze? Inaczej, bo teraz ja w ogóle tego nie wyłapałem. I teraz, jak patrzę na to, Szymon, moja pierwsza rzecz, którą widzę. Widzę tutaj, że jest ten schemat, a potem użycie tego.

Szymon Warda: Tak.

Łukasz Kałużny: I to jest spoko. Czyli słuchajcie, dla Was to, że w Yamlu definiujemy obiekty, które chcemy powołać…

Szymon Warda: Aplikację.

Łukasz Kałużny: Raczej w sensie definiujemy czym jest nasza aplikacja i korzystając z obiektów Kubernetesowych ją opisujemy, a potem developer może już zastosować to i do każdej z tych rzeczy podrzucić swój obiekt, który mówi, że zdeploy’uj web application, takie obrazy, tyle replik i tyle.

Szymon Warda: Czyli to jest coś, co próbujemy zrobić w Helmie, ale z reguły nie wychodzi.

Łukasz Kałużny: Właśnie i wiesz jaki jest mój pierwszy, jak widzę to, że tylko jest jeden plus. Tu nie ma infologii Szymon. Dlatego i tu się pojawia taki duży znak zapytania, jak nie ma IF-ów, to się nie przyjmie.

Szymon Warda: Znaczy może moje inne ‘ale’ jest takie, że to właśnie jest ten Custom Resource Definition i to nagle nam sporo komplikuje, żeby to były takie bardziej wykorzystanie…

Łukasz Kałużny: No tak, bo musisz go zainstalować na klastrze, a potem ewentualnie zupgrade’ować do wersji, którą używasz.

Szymon Warda: To siedzi w tym klastrze, itd. To tak samo jak połaczenie Helma z Helm Operatorem.

Łukasz Kałużny: To jest operator, czyli coś stoi nam na klastrze, trzeba to będzie update’ować. Więc inaczej, i co jest najlepsze? Zobacz, że Helm w wersji trzeciej, został wyrżnięty operator, żeby tego nie było.

Szymon Warda: Bo ten operator jest straszny. Debugowanie… Ideowo, jak to czasami mówimy, na prezentacji to wygląda fenomenalnie. Jak zaczniesz z tym żyć i debugować, to jest jedno wielkie piekło, bo potem szukasz gdzie się coś wywaliło w pięciu miejscach. A ciekawe, ja to będę obserwował, ciekawe podejście i bardzo mieszane uczucia.

Łukasz Kałużny: No, raczej inaczej, na papierze mi się podoba. I zakończmy to.

Szymon Warda: Tak.

Łukasz Kałużny: Ale będę obserwował co się… Inaczej, a słuchajcie, dla Waszego wytłumaczenia, lubię technologię, ale nienawidzę kolejnego operatora na Kubernetesie, bo wiem czym to się zakończy z doświadczenia.

Szymon Warda: Dobra, to dawaj coś jeszcze innego. Ja mam jeszcze jeden link taki fajny, ciekawy.

Łukasz Kałużny: Dobra, ja mam dwa drobne kronikarskie, znowu o LLM-ach. Dzień LLM-ów dzień stracony. Ale wyszedł, Anthropic wydał Sonneta 3.7 z hybrydowym reasoningiem. I to jest taka pierwsza rzecz, która tam się pojawia. Pierwsze testy pokazują, że będzie ciekawe. I druga rzecz, ten reasoning pojawia się również przy wypluwaniu wyniku z API, czyli możemy podejrzeć sobie jak model myślał i zużywał te tokeny. Więc to jest taki ciekawy element. Drugi, który dorzucają, to rozszerzają integrację z GitHubem, że będziesz mógł podpinać swoje repozytoria GitHubowe. Więc to.

Szymon Warda: To jest dobre.

Łukasz Kałużny: Od strony, tak, plus ten reasoning i inne rzeczy. I trzecia rzecz, która się tam pojawia, to też robią taki research preview, to się nazywa cloud code, żeby zintegrować sobie swój code… Ściągać i odpytywać swój codebase, o tak. I to jest jedna rzecz. Zobaczymy, jak to będzie wyglądało. Druga kronikarska powinność to jest tydzień publikacji modeli. Poszedł teraz Research Preview GPT 4,5.

Szymon Warda: O, to przegapiłem.

Łukasz Kałużny: Tak, to jest też świeżynka, wczoraj wieczorem wyleciał do wersji Pro i na API. Więc to jest taka ciekawostka. Oczywiście co najważniejsze, scaling reasoning.

Szymon Warda: Dobrze, to ja teraz przygaszę te Twoje wszystkie super wiadomości. Microsoft anuluje inwestycję w dwa centra danych o łącznej mocy 200 megawatów, które właśnie miałyby być pod AI. Wiadomość z wczoraj tak naprawdę. No i oczywiście to jest dość taka ciekawa wiadomość, ponieważ miesiąc temu, dwa miesiące temu były ogłoszenia, jeżeli chodzi o wyniki i wszyscy chwalili się ile to będą inwestowali, a tu nagle jebut, jednak nie. Druga ciekawa rzecz to jest, że obecnie moc centrów danych liczy się w energii elektrycznej, którą zużywają. To też jest dość ciekawe.

Łukasz Kałużny: Czy wiesz co, dorzucę, miałem tego nie wrzucać, ale też kilka dni temu, teraz to już dwa tygodnie, jak tego słuchacie, pojawił się wywiad, w którym Satya, jak to jest, są nagłówki z tego: Microsoft CEO admits that AI is generating basically no value.

Szymon Warda: Czybyś mówił z podcastu B2G, BG2, jakoś tak?

Łukasz Kałużny: Wiesz co, to jest tam w Dwarkesh Patel, czy jakoś tak…

Szymon Warda: Już się powycofywali lekko. Tak.

Łukasz Kałużny: Tak tak tak tak, ale jest to właśnie ciekawa rzecz, bo on był tak naprawdę przy okazji, ten podcast był bardziej przy okazji tego nowego procesora kwantowego, ale też tam poleciały właśnie, że nie ma to wartości. No coś w tym jest.

Szymon Warda: To ja ostatni link, ponieważ patrząc, jak to Twój model, który zasiliłeś RAG-iem naszych odcinków i dałeś informację: co wiesz o Szymonie? I wypluł, że Szymon jest pesymistą, no to wziąłem sobie to do serca. I coś ciekawego. Event destinations. Czym to jest? No właśnie, to jest trochę taka alternatywa, może uzupełnienie, bardziej powiedziałbym tak, webhooków. Webhooki, oczywiście taka sytuacja, kiedy możemy, kiedy informujemy jakiś system trzeci, cokolwiek o tym, że coś się wydarzyło. One są fajne faktycznie, no ale mogą system ubić, no bo jak tych calli będziemy mieli dużo, to trochę słabo. Więc czym są event destination? Ano tym, że tym sposobem w jaki wywołujemy, dajemy webhooka jako minimum i coś innego, z reguły jakąś kolejkę. Cała idea chodzi o to, żeby właśnie ustandaryzować jak ten event wygląda i żeby tą warstwą komunikacji nie stało się tylko http, https, ale też inne systemy. I mi to się bardzo podoba. Podkreślę jeszcze “bardzo”, żeby Twój LLM wyłapał. Czemu? Bo faktycznie czas wrzucenia na kolejkę i odebrania, mamy ponowienia, kolejki nam super dużo ogarniają. Jednak jest to bardziej kłopotliwe z racji na bezpieczeństwo tego. Ale to też jest do ogarnięcia, szczególnie w kontekście Kafki, można tam dość łatwo tych publikujących ogarnąć. Tak że ruch w super dobrym miejscu i zarówno dla wysyłających i dla odbierających, bo jak mają potwierdzenie to znaczy, że się przetworzyło. Bardzo mi się to podoba, naprawdę. Coś kręcisz. Już cmokasz, cmokasz. Co tam wycmokałeś?

Łukasz Kałużny: Wiesz co, nie jestem pewien czy jest to takie super.

Szymon Warda: No to dajesz.

Łukasz Kałużny: Czy wiesz co, nie, mnie martwi ta warstwa, wiesz, jak to będzie wyglądało, ta cała warstwa uwierzytelnienia, dostarczania tego. Sama idea ok, że będzie inny sposób wrzucania, że takie coś i sobie wystandaryzujemy. Brzmi to super, bo chętnie bym odbierał pewne rzeczy z kolejek zamiast przetwarzał i w swoim czasie to obrobił i zrobił sobie retry’e i inne rzeczy na mojej kolejeczce. Tylko jestem ciekaw jak to wiesz, na papierze wygląda to fajnie, jestem ciekaw jak to będzie wyglądało w praktyce.

Szymon Warda: To już Ci mówię. To już wygląda. Kto to zrobił? Twilio, Shopify i uwaga, uwaga, Stripe.

Łukasz Kałużny: Okej, zerknę i zobaczę. Zobaczę, tak. Wiesz co, zobaczę, bo widziałem kto to zrobił, tylko wiesz, zastanawia mnie teraz cały use case wystawiania tego.

Szymon Warda: Zgodzę się. Też powiedziałem, security, to będzie najciekawsze. Ale jak to się przyjmie? Rewelka.

Łukasz Kałużny: Tak, bo oni, widzę, że tak, jest tutaj, EventBridge’a wrzucili amazonowego, EventBridge’a AWS’owego, więc dobra. Bo masz, zobacz, wszedłem sobie w instrukcję, bo mnie zaciekawiło jak to jest. Select EventBridge as your destination then click continue. Enter the following information: AWS account ID, AWS region, destination name, description. Czy wiesz co, chociaż z drugiej strony, jak o tym teraz pomyślę, jeżeli to się ustandaryzuje, takie wrzucanie cross, to na kolejkę u cloudowego dostawcy, to może nie, czy Azure’owego EventGrida, Pub/Suba googlowego czy właśnie na EventBridge’a, to może nie być najgorsze jako taka warstwa buforu.

Szymon Warda: Tak, ja w tym momencie, EventBridge, itd. IoT Hub do tego by się nadawał idealnie, bo możesz się certyfikatem uwierzytelnić i inne fajne rzeczy. Wiesz, [niesłyszalne 00:21:40], więc ludzie niekoniecznie, ale sprawdziłoby się świetnie.

Łukasz Kałużny: Bo wiesz, jak widzę tutaj RabbitMQ czy wiesz takie AMPQ, no nie, ale te gotowce, które są, gotowce do eventów, które są cloudowe, na których trochę… Inaczej, tak czy siak trochę delegujesz te bezpieczeństwo poza siebie i konfigurację, to mogą być nie najgorsze.

Szymon Warda: Tak i tu się zgodzę. Samemu wystawienie Rabbita, może niekoniecznie, zdelegowanie tego na usługi gotowe, też w tym kontekście właśnie myślałem. No dobra, tak czy siak warto na to rzucić okiem.

Łukasz Kałużny: Dobra, trzymajcie się. Na razie.

Szymon Warda: Na razie. Hej.