#133 Short #60: Ciocia Łukasza, copilot w Uber, Drasi, migracja Figmy, Azure Search, dla przedszkolaków

2024, Dec 06

Ciocia Łukasza nie tylko piecze pyszne ciasta, ale też łata kody! W tym odcinku Patoarchitekci odkrywają historię patch-ów i bugów. Od kart perforowanych do Kubernetesa - technologia ewoluuje szybciej niż Drasi może to opisać.

Zespół zagłębia się w cell-based architecture i mierzy dług technologiczny. AI w Uberze nie tylko zamawia taksówki, ale też pomaga on-call. LLM-y dostają nowy protokół, a Azure Search indeksuje elegancko jak nigdy dotąd.

Chcesz być na bieżąco z IT jak przedszkolak z Figmą? Posłuchaj tego odcinka! Może nie nauczysz się migrować z ECS do Kubernetesa, ale na pewno zrozumiesz, dlaczego warto mieć copilota w pracy.

Słuchasz Patoarchitektów dzięki PROTOPII – firmie, w której Łukasz i Szymon działają na co dzień, wspierając zespoły IT na każdym etapie: od projektowania, przez wdrożenia i migracje, aż po optymalizację i zabezpieczenia. Oferujemy też mentoring i szkolenia dostosowane do potrzeb każdej firmy, niezależnie od wielkości. Sprawdź nas: protopia.tech

Discord 👉 https://discord.gg/78zPcEaP22

Linki i ciekawe znaleziska:

Transkrypcja

Łukasz Kałużny: Cześć, słuchacie Patoarchitektów. Prowadzą Łukasz Kałużny…

Szymon Warda: I Szymon Warda. Wszystkie linki do tego odcinka Patoarchitekci.io albo w opisie na dole, dacie radę ogólnie rzecz biorąc. Dobrze Łukaszu, to co dzisiaj?

Łukasz Kałużny: Dzisiaj wracamy do shortów.

Szymon Warda: Wreszcie.

Łukasz Kałużny: Więc tak, wreszcie. Niektórzy płakali, że nie było. Słuchajcie, przypominamy o Discordzie, na którym się trochę rzeczy dzieje i komentarzy. Możecie tam wrzucać swoje pomysły na odcinki, podyskutować, więc zapraszamy. Dobra, jako że piąteczek to zaczniemy lekko. Słuchaj, czy wiesz skąd bierze się łatka patch? Czyli dlaczego jest łatka?

Szymon Warda: Powiem tak, że rozmawialiśmy przed odcinkiem, więc wiem i przypomniało mi się skąd się bierze. Ale zagram, Łukasz, nie, więc mów.

Łukasz Kałużny: I słuchajcie, bardzo fajne zdjęcie. Ja o tym w ogóle zapomniałem, bo mi to ciocia pokazała, która zajmowała się pisaniem programów fortranowych na kartach perforowanych. I patch wziął się od naklejania i zaklejania tych dziurek na kartach perforowanych. I to co możecie zobaczyć to w linku będzie do profilu World of Engineering, fotka, na której jest to umieszczone, taka poklejona karta perforowana właśnie z łatkami.

Szymon Warda: A to z obowiązku redakcyjnego trzeba dodać, że skąd się wzięło bug? Z tego, że ćma wleciała. I faktycznie jest taka pierwsza kartka, to po prostu była kartka z przyklejoną właśnie za pomocą taśmy ćmą - it’s a bug. Stąd się wzięł ten nasz robal. Dobrze Łukaszu, to teraz Ty poleciałeś tematem cioci, a ja muszę powiedzieć, że chciałem Ci oznajmić, że zmieniamy świat na lepsze. I teraz o co chodzi? To jest przypadek i w ogóle, ale pamiętasz mój wylew hejtu odnośnie tego, że pojawiło się bardzo dużo clickbaitowych artykułów na InfoQ?

Łukasz Kałużny: Tak.

Szymon Warda: Było. Od dłuższego czasu nie ma tych clickbaitów, nie ma artykułów typu, że ktoś tam coś, zmienił technologię i zaoszczędził miliony całe.

Łukasz Kałużny: No dobra, to co, wygrzebałeś? To co wygrzebałeś, bo za długi wstęp?

Szymon Warda: No właśnie. Pierwszy taki artykuł, znaczy w ogóle cały to jest flow, bo po prostu te artykuły teraz przeglądałem InfoQ i tak cały czas szukałem tych clickbaitowych, ich nie było. Ale przede wszystkim jest taki artykuł, na to się natknąłem, bo jest artykuł odnośnie tego jak “Figma moves from ECS to Kubernetes to benefit from the CNCF ecosystem and reduce costs” i tyle. Nie ma żadnego chwalenia się super liczbami, itd. Ale artykuł jest mega fajny, bo artykuł opisuje o tym jak właśnie Figma przemigrowała się z odpowiednich Container Appów azure’owych tak naprawdę właśnie na Google Kubernetesa. Więc artykuł może być super clickbaitowy, bo powie, że ojej, tak, faktycznie te aplikacyjne kubernetesy są do dupy i w ogóle w ogóle w ogóle. Ale nie, Figma tam fajnie, bardzo ładnie pisze o tym, jak weszli właśnie w aplikacyjnego Kubernetesa, żeby móc ładnie zarządzać zespół, nauczyć się, zdobyć wiedzę, itd. A potem stwierdzili, że jednak faktycznie już na tyle się nauczyli, na tyle mają procesy, już tyle mają to skonteneryzowane, że idą w Kubernetesa, bo to im pozwoli po prostu obciąć koszty, lepiej się skalować itd. Czyli to jest w ogóle flow, który my w ogóle rekomendujemy przy większości platform, w większości firm tak naprawdę.

Łukasz Kałużny: Słuchaj, inaczej, powiedzmy sobie dwie bardzo ważne rzeczy, są SAS-em i mają skalę.

Szymon Warda: Skalę mają niezłą, ale nawet dla małych firm często wejście tego aplikacyjnego Kubernetesa to jest po prostu tak naprawdę docelowa platforma.

Łukasz Kałużny: Właśnie chciałem powiedzieć, że to, co oni piszą o CNCF-ie, to jest zawsze problem, że chcemy się rzucić na ten ładny stos technologiczny. Zobacz, że jak my mówimy o Kubernetesie, nawet jak idziesz w cloudowy, zastanów się dwa razy… Inaczej, jedyną rzeczą, której nie rekomendujemy zazwyczaj to przy troszkę większej aplikacji, w której będzie sporo logów, żeby observability jednak zrobić open source, wziąć ten stos grafanowo-prometheusowo-loki, jeżeli nie masz pomysłu na logi i będziesz miał ich dużo, bo zaraz wyjdzie, że logi kosztują więcej niż utrzymanie reszty aplikacji.

Szymon Warda: Co widujemy dość często, albo wyłączamy samplowanie, itd. Ale jeżeli piszesz aplikacje z Open Telemetry, to zawsze możesz się przełączyć z, wysyłanie, zrobić platformę monitorującą faktycznie na Kubernetesie, a platformy aplikacyjne mieć właśnie w Kubernetesie aplikacyjnym i te logi po prostu shipować w ten sposób. Nieidealnie, bo w tym momencie wysyłamy je przez Open Telemetry Protocol, którego ja tak nie za bardzo w kontekście logów lubię, ale ogólnie tak, można to zrobić. Jeden absolutnie nie blokuje drugiego. Ale tak, po pierwsze, zmieniliśmy świat na lepsze. Po drugie, fajny artykuł pokazujący zdroworozsądkowo, gdzie jest sens Kubernetesa i jak warto zacząć i jak cały proces migracyjny. Naprawdę dobry. Dobrze, to ja się pochwaliłem. Co tam masz?

Łukasz Kałużny: A ja przejdę do pojęcia takiego z psychologii, z łaciny “czysta tablica”, czyli tabula rasa. I o co chodzi? W naszych codziennych konsultacjach czy szkoleniach to jest termin, który powinienem chyba przypominać tak średnio raz w tygodniu w rzeczach, w których robię. I pewną rzecz, którą Ciebie Szymon łączy ze mną, też z naszym Markiem w Protopii jest taki element, że jak wchodzimy w nową technologię, nowe zagadnienie, to staramy się je zrozumieć, porównywać, ale logiki jego działania nie próbujemy zmusić do tego, co znamy. Mamy teraz taki, to jest rzecz, która w ogóle bardzo często mi się branżowo pojawia, że usilnie próbujemy powiedzieć, że coś działało w ten sposób. A jak nie działa w ten sposób, który znam, to jest do czterech liter, jeżeli popatrzymy i że nie chcemy zaakceptować, że coś ma inną logikę.

Szymon Warda: Wiesz co, ja to fajnie pokazuję jak robię szkolenia z modelowania danych. Pokazuję, że pewne bazy mają swoje wyznaczniki, jak one mogą działać. I okej, ktoś może sobie napisać, że bazy obiektowe mają join’a. Może i mają, ale on nie będzie nigdy działał wydajnie. Tak samo te bazy niższego poziomu, po prostu te rzeczy nie są tak zaprojektowane. Zgadzam się z Tobą, takie wciskanie technologii w problem zamiast dobór technologii do problemu.

Łukasz Kałużny: Albo na odwrót, użycie technologii X, żeby rozwiązać nią problem tak jak robiłem to Y, mimo że mają inną logikę. Inaczej, i doświadczenie, wiedza jak coś działa pod spodem jest super, bo pozwala nam zrozumieć, ale nie powinniśmy na siłę samej mechaniki przekładać, tylko zrozumieć logikę działania czegoś nowego, co poznajemy.

Szymon Warda: Wiesz co, dokładnie tak. I zrozumienie po co to w ogóle powstało. Obecnie technologie mają, takie właśnie coraz węższe nisze tak naprawdę zapełniają. I jeżeli chcemy z tej niszy wyjść albo chcemy rozszerzyć ją za bardzo, to często może nas to kopnąć w tyłek bardzo, bardzo, bardzo poważnie. Tak, słuszna uwaga, faktycznie.

Łukasz Kałużny: Tak i zapraszamy do konsultacji.

Szymon Warda: Tak i też na szkolenia. Dobrze, to ja teraz znowu trochę wrócę do InfoQ. Z serii artykułów odnośnie Cell-Based Architecture. Czym jest to właściwie…

Łukasz Kałużny: Wróciło?

Szymon Warda: Wiesz co, kontynuuje się. Wydaje mi się, że InfoQ chce z tego jakiś trend zrobić. Ale nie dlatego trochę o tym piszę, bo w ogóle o tym zaczęliśmy mówić mniej więcej start roku tak naprawdę, to był słynny wpis chyba Netflixa. Jak Netflix się pochwalił właśnie, jak zwiększają odporność przez cell-based architecture. O co w tym chodzi? Chodzi o to, żeby aplikacji nie rozpinać między wiele regionów, tylko żeby po prostu poszczególne regiony, zone’y rozmawiały ze sobą. Jak nam padnie, to nie mamy tego problemu, że nagle wszystko nam poszło.

Łukasz Kałużny: Ale klasyka.

Szymon Warda: Ogólnie jest to, nazywam to zdroworozsądkowe podejście do komunikacji w aplikacji multiregionowej w chmurze. Ale nazwa jakaś tam bardziej reklamowa musi być. Ale, żeby nie było, seria artykułów faktycznie jest niezła. Naprawdę jest niezła. Omawia koncepty, omawia czasami pewne oczywistości. Mimo wszystko fajnie napisana, nieźle zilustrowana. Jakby ktoś chciał się dowiedzieć o co z tym właściwie terminem chodzi, to dobra seria wpisów, szczególnie ostatnie, bo jest najbardziej techniczne. Więc jeżeli ktoś chce rozszerzyć, siąść sobie, poczytać do lunchu, bo trochę są długawe, to polecamy, niech będzie.

Łukasz Kałużny: Wiesz co, ja jedno, cell-based, jak poznajesz [niesłyszalne 00:08:36] heading deployment stampy, to jest dokładnie to samo.

Szymon Warda: Łukasz, ale oczywiście, że tak.

Łukasz Kałużny: Wzorce, które wychodzą ci potem w praktyce.

Szymon Warda: Tak, ale ładnie w jednym miejscu, żeby dowiedzieć się, czy faktycznie to jest to, co myślę. Więc proszę bardzo.

Łukasz Kałużny: Dobra. A teraz Piotrek Stapp, pozdrawiamy Cię Piotrku, bardzo fajny artykuł na temat mierzenia długu technologicznego. I wyrzućmy w ogóle… Inaczej, wpis jest świetny, ale co z niego wyciągnąć? Wpis jest też krótki, bardzo szanuję Piotrka, że tak to bardzo dobrze przekazał, jest to people-centric approach. I tutaj Piotrek pokazuje swoje rzeczy, swoje podejście do próby zdefiniowania kilku metryk. I trochę to się łączy też z Dorą, jak popatrzymy, z tym, co jest, to pierwsze, to taka właśnie ankieta typu health check robiona raz na kwartał, która, jedno, sprawdza właśnie flow state, czyli w jaki sposób… Pytanie, które może być, jak środowisko, narzędzia, procesy Cię wspierają w procesie developmentu? Następnym elementem - to jakie jest Twoje przeładowanie kognitywne?

Szymon Warda: Które jest super kluczowe w kontekście np. zmęczenia ludzi i odejść.

Łukasz Kałużny: Zobacz jak ten z zeszłego roku raport Dora to świetnie pokazywał.

Szymon Warda: Tak, mieliśmy takie różne raporty, nawet nie raporty, badania naukowe, że to faktycznie jest główny element, który wykańcza ludzi w pracy.

Łukasz Kałużny: Tak. I trzecią rzeczą to są feedback loopy, czyli w jaki sposób na przykład twoje CI/CD jest szybkie i niezawodne? Jak wygląda ta część automatyzacji testów? Jak dostajesz ten feedback? I to, co np. u Piotrka z tych metryk wyszło, że jest duży bus factor, czyli ta duża zależność od innych osób, brak zaufania do narzędzi, niezrozumienie procesów, brak zaufania do testów automatycznych czy skomplikowania architektury.

Szymon Warda: Wiesz co, ja mam zawsze problem z ankietami. Bo z ankietami to jest taka opcja, że niestety wyniki są implikowane przez to, co się dzieje u ludzi w życiu, w organizacji, itd.

Łukasz Kałużny: W tym momencie, w czasie, to badasz w czasie. Tylko wiesz co? Z drugiej strony, jak położysz na to metryki np. Dory, to nie jest… Inaczej, ankieta nie jest samą z siebie, bo to jest… Tylko z drugiej strony to jest też zadowolenie ludzi, którzy pracują. Zobacz, że dług technologiczny często będzie tym zadowoleniem.

Szymon Warda: Wiesz, znaczy [niesłyszalne 00:11:15].

Łukasz Kałużny: Tej perspektywy developerskiej.

Szymon Warda: Ja będę po prostu ankiety robił odrobinkę szybciej, częściej, może nie szybciej, ale na pewno dążę do tego, że one będą miały dużo szumu. Nie należy wyciągać wniosków z pojedynczej ankiety. To musi być jakiś trend tak naprawdę, a nie: o Boże, takie mamy wyniki, musimy działać tu i teraz. Dużo może zależeć od tego, co się dzieje. To widziałem wielokrotnie właśnie. Ale tak, artykuł faktycznie jest fajny, wnioski są niezłe i to co mówisz, jest dość skondensowane, bym tak to powiedział.

Łukasz Kałużny: O, widzę, że Gutek, pozdrowienie dla Kuby, akurat w komentarzu skomentował, że chciałby zobaczyć oryginalną ankietę i pytania. Będzie to ciekawe. Wrócimy jak się pojawią.

Szymon Warda: Dokładnie. Dobra Łukaszu, to teraz trochę wchodzę na Twoje podwórko, uważaj, uważaj.

Łukasz Kałużny: W ogóle wchodzimy… Inaczej, przepraszam, ale wchodzimy chyba w serię AI-ową teraz.

Szymon Warda: Dokładnie, w serię AI-ową, ale artykuł jest świetny, naprawdę. Muszę powiedzieć, że od jakiegoś czasu w ogóle blog techniczny Ubera podniósł się poziomowo bardzo mocno.

Łukasz Kałużny: Tak i nawet grafikę wygenerowali, widać, że w GPT.

Szymon Warda: Nieważne w czym, nie wnikam, ale naprawdę świetny. Artykuł o tym, jak Uber wykorzystał AI do wsparcia ludzi na on callu, to jedna rzecz. Ale druga też do podpowiedzi i wyjaśnień na kanałach slackowych. Mianowicie zespoły mają swoje kanały, gdzie inni użytkownicy i inni pracownicy mogą pytać się odnośnie tego systemu. Częsta praktyka w ogóle, polecamy ją bardzo mocno jeżeli chodzi o organizację zespołów, szczególnie jak są rozproszone i w ogóle to jest dobra praktyka tak naprawdę. Ale czemu artykuł jest dobry? Jest długi, fajnie pokazuje jak całość rozbudować, jest bez ściemy marketingowej. Mianowicie pokazują odnośnie temat ważności danych, przygotowania danych, pokazują krok po kroku jak dane ładują, jak je wzbogacają, co się dzieje. Pokazują jak zbudowali system od razu śledzenia kosztów całego modelu, to już dobrze świadczy, sprawdzania dokładności i jakości modelu i budowania wokół niego systemu raportowania, żeby móc wyłapywać halucynacje i w ogóle jakość odpowiedzi tak naprawdę. Czyli zbudowali cały flow tak naprawdę, cały flow od startu po…

Łukasz Kałużny: Genialnie jest calutki flow.

Szymon Warda: Opis. Świetny artykuł, naprawdę bardzo dobry, ale też napisane dobrym językiem tak naprawdę.

Łukasz Kałużny: Tak, jak ktoś chce zobaczyć jak bardzo skomplikowana jest budowa Copilota w prostym zagadnieniu.

Szymon Warda: Ale nawet może jeżeli komuś chodziło po głowie zbudowanie takiego Copilota, czy też jakiegokolwiek modelu, to może być właściwie tak, wewnętrznie, lokalnie to to jest artykuł krok po kroku, dosłownie.

Łukasz Kałużny: Tak, raczej pokaże przygodę, która przed Tobą się znajduje, jak podejmiesz decyzję o budowie czegoś takiego.

Szymon Warda: Tak. No i swoją drogą jakby ktoś chciał zbudować i potrzebował pomocy, to że tak powiem, oferujemy ją. Dobrze.

Łukasz Kałużny: Dobra, to idziemy. Ogłoszenie od Anthropica. Ktoś podjął wreszcie decyzję, żeby spróbować i zbudować Model Context Protocol. I tutaj założenie jest takie, żeby zbudować specyfikację protokołu i taki zestaw SDK, który pozwoli na dwukierunkowe połączenie modelu LLM-owego z jakimś Twoim systemem. I od razu fajna rzecz, bo poleciało pluginy do Google Drive, Slacka, GitHuba, Gita, Postgresa, chyba jeszcze [niesłyszalne 00:14:35], więc jest troszeczkę takich rzeczy. I to jest ciekawe, bo zaczyna się standaryzować. Życzyłbym sobie, żeby to wyszło szerzej, bo to będzie oznaczało, że wystandaryzuje się sposób integracji z LLM-ami.

Szymon Warda: To jest potrzebne, bo jeżeli będziemy mieli wszędzie inaczej, to to…

Łukasz Kałużny: Kombinowanie, tak. A taki protokół, który pozwoli Ci po prostu podpiąć narzędzie, oczywiście będziesz musiał zrobić przelotkę do swojego API, ale będziesz miał na to specyfikacje, jak to zbudować bez zastanowienia się.

Szymon Warda: Dobre, dobre, dobre.

Łukasz Kałużny: To jest tak. I ciekawe, tam jest implementacja, żeby podłączyć sobie właśnie, na razie to są rzeczy lokalne, wiadomo, ale w dokumentacji jest właśnie specyfikacja. Jak to sobie odpalić z SQL Lightem dla Cloude właśnie desktop, które swoją drogą też polecam. Przestałem płacić za GPT ostatnio.

Szymon Warda: Nieźle. Dobrze, to ja na chwilę wyskoczę z AI. Ciekawy projekt. Jestem bardzo ciekaw jak będzie wyglądał. Ale jeszcze jest jeden dodatkowy powód czemu się nim zainteresowałem, Drasi od Microsoftu. Czym jest Drasi? Drasi jest dość ciekawym takim integratorem, bym powiedział. Mamy sobie różne systemy. Mogą być typu Microsoft 365, Dynamics, jakieś tam kolejki, cokolwiek właściwie. I co on umie zrobić? On umie konsumować wiadomości. Umie patrzeć na change data capture CDC. I to jest jeden z tych dobrych użyć CDC, mimo że z reguły hejt tam wylewam na to. I obserwuję, co się dzieje. A teraz najciekawsze i co teraz umie zrobić? Umie połączyć wydarzenia z wielu źródeł i w wyniku nich uruchomić jakieś zdarzenia. I teraz czemu to jest takie ciekawe? Czemu wydaje mi się, że to może mieć sens? Dlatego, że językiem do zapytań jest SyShare, czyli język graphowy.

Łukasz Kałużny: Dlatego Cię przykuło, Twoją uwagę.

Szymon Warda: Tak, tak tak, bo takich systemów ogólnie rzecz biorąc to chyba widzieliśmy od groma i ciut tak naprawdę i to z reguły są jedne wielkie porażki.

Łukasz Kałużny: Czy wiesz co, ja widziałem komentarze pod tym announcementem. Miałem to kiedyś w linkach i to wyrzuciłem w ogóle. Słuchaj, tam się rozlewały wiadra pomyj pod tym.

Szymon Warda: Jestem ciekawy użycia tego, ale ideowo, jak to zostało skonstruowane, to naprawdę ma sens.

Łukasz Kałużny: Szymon, odpowiem Ci, będzie… Inaczej, stoi ta sama ekipa co z [niesłyszalne 00:16:55].

Szymon Warda: Łukasz, ale ja absolutnie nie wątpię, że generalnie ten projekt jest jak większość projektów Microsoftu, czyli wielkie głoszenie, potem cisza i nic się nie dzieje. Ale po prostu mam nadzieję, że ktoś ten pomysł podejmie i coś wokół tego zrobi, bo ideowo ma to sens, tak naprawdę. Jak to będzie dalej się rozwijało? Tak, pewnie umrze generalnie. No ale ciekawostka, użycie SyShare’a mnie bardzo cieszy.

Łukasz Kałużny: Przedostatni ode mnie link, drobny, Overment, czyli Adam Gospodarczyk, który gdzieś tam dość szeroko działa przy różnych rzeczach, użyciu takiego AI-a, wrzucił od siebie swój zestaw markdowna, swoich reguł, które wykorzystuje dla LLM-a. I to jest jedna z takich ciekawych rzeczy, że dochodzimy już do momentu, żeby pisać własne zestawy instrukcji, czego my oczekujemy. I to jest taka ciekawa rzecz. Tu są różne takie elementy. Przetestowałem to i kurde ma to sens i w bardzo dobry sposób pokazuje, że trzeba zacząć sobie wysterować pod swoje rzeczy. Ja jestem w stanie, słuchaj Szymon, uwierzyć w następny krok, że takie Copiloty, np. jak używasz GitHub Copilota, że w repo będziemy trzymali plik z regułami dla wszystkich, który będzie się automatycznie zaciągał.

Szymon Warda: Ależ oczywiście, że tak, tak to będzie wyglądało. Tylko się zastanawiam tak naprawdę, jak bardzo będzie to dalej sterowane w języku naturalnym, a jak mimo wszystko, żeby to jednak było faktycznie, takie reguły, żeby one były precyzyjne bardzo? Czy jednak idziemy w kierunku czegoś innego?

Łukasz Kałużny: Wiesz co, miałem rozmowę z tym, pamiętam, chyba z dwa lata temu, z Tomkiem Kopaczem i to jeszcze się nie zadziało. Ale że jestem ciekaw, czy nie przejdziemy do momentu, w którym powstanie język programowania tych LLM’ów?

Szymon Warda: Wydaje mi się, że tak, bo w pewnym momencie odbijemy się od tego, że język naturalny jest super niedokładny. Np. mój faworyt absolutny, który jest dyskusją w każdym projekcie, coś ma być zrobione do jutra. Czyli do jutra godziny 00? Czy do jutra do godziny 23:59?

Łukasz Kałużny: Wiesz kiedy jest end of day w consultingu strategicznym? Kiedy klient następnego dnia rano wstaje i otwiera maile.

Szymon Warda: Ja bym się tym zgodził.

Łukasz Kałużny: To jest end of day.

Szymon Warda: Przy raportach to trochę inaczej jest kodowane. Dobra.

Łukasz Kałużny: Ale zestaw reguł. Wiesz co, ja to. I jeszcze drugi sobie, który wrzuciłem, testowałem Oprócz tego, setów, to wrzucenie reguł, żeby przestrzegać np. keep it simple stupid, DRY-a, czy “nie będziesz tego potrzebować”. I efekty są dość ciekawe. O tak, polecam, jak ktoś korzysta, polecam spróbować.

Szymon Warda: Okej, to zachęca. Dobra, ja mam serię trzech linków z serii Małe a cieszy. Więc lećmy szybko. Wyszła nowa wersja Podmana. Mówimy o tym dla tego prostego powodu, że ja widuję już sytuacje, kiedy organizacje mówią, że może nie chcielibyśmy Dockera.

Łukasz Kałużny: Tak.

Szymon Warda: To się zdarza.

Łukasz Kałużny: Wiesz co, do szkolenia z Kubernetesa nienawidzę Podmana Desktop i powiem dlaczego. Przykładowo z deweloperskiej perspektywy jest to super, z takiej szkoleniowej nie, bo nie robi tego, robi page file dla kontenerów, więc out of memory nie działa i nie możesz pokazać jak Kubernetes ubija Poda. Jest tam trochę takich pierdół, które w developmencie i nauce Ci nie przeszkadzają, ale w symulacji prawdziwego środowiska już bardzo.

Szymon Warda: Tak. Lecimy dalej. W końcu rzecz mała, ale cieszy i pewnie sporo ludzi… Inaczej, Azure Service Bus emulator lokalny.

Łukasz Kałużny: Akurat miałem wtedy szkolenie, gdzie pokazywałem Service Busa i na lunchu zobaczyłem ten news.

Szymon Warda: I to jest fajne, bo jest emulator do kolejek, który jest od dawien, cały storage jest od dawien dawna i to w ogóle super. Jest emulator Cosmosa. Ten Service Bus był takim problemem już od bardzo, bardzo dawna, że utrudniał development lokalny.

Łukasz Kałużny: Ale jest, pojawił się. Dobra i trzeci.

Szymon Warda: Trzeci link to jest mianowicie Amazon Aurora ogłasza to, czyli system, usługa do rozproszonych baz danych, Postgres, MySQL, ustalenie globalnego write endpointu. Czyli nie musisz robić fallbacku i to jest fajne.

Łukasz Kałużny: Raczej to jest, wiesz co, najciekawsze, że w sequelu, w tym sequelu, Azure Sequel Database, jak robisz sequel database w Azure, jest to od 2017 roku.

Szymon Warda: No tak, w przypadku bazy rozproszonej, geo rozproszonej jeszcze generalnie, posiadanie osobnych endpointów i całego fallbacku przy disaster recovery [niesłyszalne 00:21:48] jest upierdliwe.

Łukasz Kałużny: A zrobienie tego automatycznie jest super. Dobra, ja też lecę z pierdołą AI-ową. To jest rzecz, na którą narzekam, że ciężko się robi dobrze RAG-a i ładuje dane do bazy wektorowej. I w AI Search pojawił się super piękny, cudowny przykład w jaki sposób zrobić porządne indeksowanie. I teraz słuchaj, z pełną semantyką, czyli AI Search to co robi, to każdy PDF, jpg, wordy, TIFF, html przewala przez OCR i OCR jest outputowany do markdowna. I splitting contentu robi się po nagłówkach i page’ach, czyli robi splitting semantyczny. I to jest nie koniec. Jak zobaczysz to jest… Ale poczekaj, co jest dalej? Następnie, oprócz tego jest na każdym chunku masz robiony tytuł oddzielnie, oddzielny header pierwszy, drugi, trzeci, wyciągnięty tekst, wektor ze wszystkiego. I to jeszcze nie jest koniec, bo robi również overlaping tych chunków, żeby nachodziły na siebie dokumenty, że jeżeli wykorzystujesz Hybrid Searcha i szukanie po wektorach jednocześnie, czyli robisz klasycznego full text searcha i szukasz wektorowo, tak poprawia to jakość wyników nawet na skopanych rzeczach i dostajemy dosłownie całego skilla gotowego do zrobienia posta do naszego AI Search, żeby załadować taką konfigurację indexera całego ze skillami. Jest mega.

Szymon Warda: To oszczędzi masę manualnej roboty.

Łukasz Kałużny: Tak. Wadą jest to, że zaciągasz to z Bloba, że jest to jednak opóźniony proces. No ale jednak takie coś jest “mua”. Do pierwszego RAG-a nie ma lepszej rzeczy w tym momencie.

Szymon Warda: Dalej, to nie poprawi, jak dane będą gówniane, to nie poprawi strasznie, ale [niesłyszalne 00:23:55] faktycznie fajna opcja.

Łukasz Kałużny: Kupa in to kupa out, to wiadomo, ale jeżeli dane będą sensowne, to wynik tego będzie jeszcze sensowniejszy.

Szymon Warda: Właśnie sobie uzmysłowiłem, że tematem kupy na pewno ucieszyliśmy wszystkich, którzy jadą do przedszkola.

Łukasz Kałużny: Oj tak. Pozdrowienia dzieciaki.

Szymon Warda: I chyba tym motywem kończymy na dzisiaj.

Łukasz Kałużny: Trzymajcie się, na razie.