#123 Sezon nieogórkowy

2024, Sep 27

Sprawdź Patoszkolenia!

➡️ 15.10.2024 - Modelowanie Danych

Ogórki pozbierane, trzeba wracać do komputera. Czy faktycznie nic się nie działo? No… nie do końca, jak się okazuje. Szymon ewidentnie nie wypoczął przez wakacje, bo jeden tytuł z InfoQ i już się rozzłościł. No i podaje sposoby, jak przyspieszyć każdą bazę SQL o 10 razy. Pytanie, czy słusznie? Potem płynne przejście do tego, czy przejście Istio na eBPF zmieni coś w adopcji Service Meshy. Łukasz podnosi temat, czy zmiany licencji Elastica coś naprawdę wnoszą i czy to będzie tendencja na przyszłość. Długo nas nie było, więc nie mogło się obejść bez monitorowania projektów, które mogą spalić się na starcie, czyli… tak. Mówiliśmy o OpenTofu. Szymon znowu pokazuje, że nie wie, kto jest kim i chwali artykuł bez wiedzy, kto to właściwie napisał. Łukasza super umiejętności networkingu ratują sytuację i mamy rozmowę o tym, jak dobrać technologię w zespole :) Następnie wchodzimy w kącik “Łukasz i AI”, a tam o:

  • Spadających kosztach wykorzystania modeli LLM
  • Jakości danych firmowych i, Szymona zdaniem naiwnych, nadziejach Łukasza na to, że automat to ogarnie.

A teraz nie ma co się obijać - wpadajcie na naszego Discorda! Tam możecie się z nami pokłócić o przyspieszanie SQL-a, podyskutować o naiwnych nadziejach na AI, albo po prostu podzielić się swoimi IT-owymi przemyśleniami.

Słuchasz Patoarchitektów dzięki PROTOPII – firmie, w której Łukasz i Szymon działają na co dzień, wspierając zespoły IT na każdym etapie: od projektowania, przez wdrożenia i migracje, aż po optymalizację i zabezpieczenia. Oferujemy też mentoring i szkolenia dostosowane do potrzeb każdej firmy, niezależnie od wielkości. Sprawdź nas: protopia.tech

Linki i ciekawe znaleziska:

Transkrypcja

Łukasz Kałużny: Cześć, słuchacie Patoarchitektów. Prowadzą Łukasz Kałużny…

Szymon Warda: I Szymon Warda. Wszystkie linki do tego odcinka oczywiście na Patoarchitecki.io lub gdzieś na dole w opisie. Ogarniecie.

Łukasz Kałużny: No to co? Witamy po wakacjach. Dla osób, które słuchają nas, a nie widzą, na YouTubie pojawił się również obraz.

Szymon Warda: Tak i teraz możecie doświadczyć tego, co ja doświadczam i czemu ten podcast robimy. Mianowicie oglądanie Łukasza rano.

Łukasz Kałużny: Specjalnie doprowadziłem się do porządku. Dobra, czyli lecimy z powakacyjnymi ogłoszeniami, jak wróciliśmy do życia. Pierwsze to, słuchajcie, Patoszkolenia. Wracamy z całym harmonogramem na semestr jesienny, tudzież początek roku szkolnego. I najbliższe szkolenie to modelowanie od Szymona.

Szymon Warda: Tak, ono się nazywa Modelowanie Danych. Trochę tam jest wciśniętego tak naprawdę NoSQL-a, ale głównie chodzi o to, żeby umieć zamodelować dane pod konkretną bazę, pod konkretne ograniczenia, zrozumieć czemu, gdzie, do czego się nada i potem ewentualnie wybrać odpowiedni silnik. Ale przy okazji też pobawimy się różnymi silnikami, zrozumieć jakie mają ograniczenia, jakie mają możliwości, gdzie się spisują dobrze, a gdzie po prostu to się nie nadaje. Głównie chodzi o to, żeby umieć te dane zamodelować i pomyśleć jak one będą wykorzystywane. Tyle, tak że zapraszam. To jest druga edycja. Tym razem ta będzie trochę dłuższa.

Łukasz Kałużny: Dobra, i jeszcze drugie ogłoszenie, czyli odpalamy Discorda. Trochę osób podczas, w szczególności podczas szkoleń pytało się nas, że przydałoby się jakieś miejsce, gdzie można powymieniać się doświadczeniami osób, które mają podobne pomysły, podobne patrzenie. Więc jeżeli mieliście mailing, to już linka dostaliście. Jeżeli nie, to znajdziecie go w opisie i zapraszamy na nasz serwer discordowy. Co jest w środku? Zobaczycie.

Szymon Warda: Same dobre rzeczy, można powiedzieć.

Łukasz Kałużny: Dobra.

Szymon Warda: Dobrze. Ja zacznę od Ranta, bo artykuł mnie… Okej, artykuł jak się nazywa? Bo to jest dość ważne. Jest to artykuł właściwie od InfoQ: Zendesk moves from DynamoDB to MySQL and S3 to save over 80% in costs. Czyli Zendesk przenosi się z DynamoDB do MySQL-a i S3 i oszczędza właściwie 80% kosztów. I czemu do tego opisu się tak przyczepiam? Po pierwsze, generalnie wydaje mi się, że drażni mnie już ta cała clickbaitowość, bo oczywiście jak już widzimy tutaj nawet z opisu, to jeżeli ktoś z bazy przenosi się do bazy plus Blob Storage’a, to znaczy, że coś jest tam nie halo, coś tam się wydarzyło, że to nie jest tylko takie proste przenosiny. Ale dla mnie to po prostu jest clickbait. O co w ogóle chodzi? Zendesk miał sobie cały system postawiony właśnie w Dynamo. Wszystko było ok, używało, działało, super. Potem zaczął się wzrost, zaczęło się większe użycie, to już zaczęli używać rezerwacji. Ścięli koszty o połowę. Super, fajnie. Dziwne, że nie zrobili tego wcześniej, ale niech będzie. Potem wkradły się kolejne feature’y. Musieli zacząć używać GSI czyli Global Secondary Indexs. Spoko, koszt im poszedł trochę do góry. I co oni stwierdzili? Potem stwierdzili generalnie, że przeniosą się do… A, jeszcze bardzo ważne, jest to system do streamingu logów, czyli wpisów po prostu. Przenieśli się do MySQL-a, surowe dane trzymają w plikach na S3 po 10000 wpisów w pliku, w bazie trzymają tylko metadane, a w przypadku kwerendy jest search po metadanych i potem robią selecta po S3. I teraz czemu taki wpis mnie wkurza? Oni nie zaoszczędzili kompletnie z racji, że się przenieśli na inny silnik do przechowywania danych. Oni zaoszczędzili kasę, ponieważ zmienili podejście architektoniczne. To jest bardzo, bardzo ważne.

Łukasz Kałużny: Słuchaj, ja bym to w ogóle inaczej, da się to skwitować w ten sposób: zaciągnęliśmy dług technologiczny, żeby dowieźć. Bo do takiego NoSQL-a… Inaczej, w ilu miejscach Szymon oglądamy logi audytowe w NoSQL-u?

Szymon Warda: Ale w bardzo, bardzo wielu tak naprawdę.

Łukasz Kałużny: I to jest bardzo tanie rozwiązanie. A jak się rozrośnie, to się martwisz.

Szymon Warda: Tak, Łukasz, ale ja teraz mam taki generator wpisów tego typu. I teraz bierzemy system A, aplikujemy jedno z trzech kryteriów, wywalamy bloby z bazy, jeden sposób. Rozdzielamy odpowiedzialność raportową od odpowiedzialności transakcyjnej, drugi sposób. I trzeci, usuwamy dane archiwalne. I bum! Jest artykuł, że oszczędzamy 80% kosztów.

Łukasz Kałużny: Wiesz co jeszcze? Jeszcze czwarty. Zastanowiliśmy się i poprawiliśmy strukturę danych, bo nie zamodelowaliśmy jej na start.

Szymon Warda: Więc takie i inne rady. Protopia, my wam doradzimy, nie ma problemu. Generalnie trochę się nabijam z tego, bo faktycznie te rozdzielenie i migracje już nie są takie łatwe w przeprowadzeniu. Ale tak, prowadzimy takie doradztwo jak Łukasz już mówił. Generalnie nie raz nam się zdarza właśnie pomagać, żeby to zoptymalizować. Bo sam wpis jako taki jest sensowny. Architektura, którą zrobili, tak, jest sensowna. Ja mam taki mały apel do pana Rafała, który pisał ten artykuł, żeby może jednak te tytuły nie były tak bardzo clickbaitowe, bo już treść jest naprawdę w porządku. Ale mam wrażenie, że po prostu to napędza takie podejście, że przeskoczmy z technologii A na technologię B i będzie lepiej. Nie będzie. Zmieńmy podejście i wtedy będzie lepiej. Tak że tak, drażnią mnie takie wpisy, tym bardziej, że widzę je wszędzie praktycznie ostatnio, więc szkoda, bo ponownie wpis dobry.

Łukasz Kałużny: A ja tak powakacyjnie, bo ktoś mi wytknął, powiedziałem, że wakacje będą sezonem ogórkowym i ktoś mnie pingnął na LinkedIn’ie, że się myliłem przy okazji CrowdStrike’a. Czyli wyleciało. Pewnie każdy z Was słyszał, może niestety doświadczył na lotniskach…

Szymon Warda: Nie wyleciało nic, o to chodzi.

Łukasz Kałużny: Nie wyleciało nic. Dla wszystkich, CloudStrike to system wspomagający ochronę przed nowoczesnymi zagrożeniami, jak to ładnie mówią. Wtopa jak wtopa, zdarza się. Co najciekawsze, jak sobie pójdziecie do środka, to poleciały dość ciekawe rzeczy, bo to nie sam kod, ale fingerprinty do zbierania rozwaliły to. Ale całość przeraziła mnie, ile mamy influencerów od bezpieczeństwa i AI-a równocześnie.

Szymon Warda: Tyle samo ile tych od technologii. Tyle samo ile tych od powodzi. Tyle samo tych od dowolnej innej rzeczy.

Łukasz Kałużny: Tak. I mam takie wrażenie, że jeżeli ktoś jest chwilowym… Ja potem zacząłem banować osoby i robić unfollowy. LinkedIn zalała taka ilość ekspertów od technologii, którzy w ogóle nie mają pojęcia. Wygrał Antyweb chyba, który powołał, że robią wywiad z 20-letnim ekspertem od systemów Microsoft, który koleś zajmuje się sprzedażą od 20 lat.

Szymon Warda: Jest jakimś ekspertem, w czymś ekspertem.

Łukasz Kałużny: Licencje może.

Szymon Warda: Tak. Wiesz co? Ja akurat trafiłem na fajne analizy tego na YouTubie, kolesia, który po prostu pisał Windowsa i tam faktycznie to było sensowne.

Łukasz Kałużny: Wiesz co, ja to zalinkuję, bo zastanawiałem się czy wrzucić czy nie i tłumaczy jak działa… To jest ten film, w którym tłumaczy jak działa ta część w kernelu ładowania driverów.

Szymon Warda: Tak, tak, dokładnie, dokładnie taki koleś, tam kręci to po prostu w sypialni i opowiada.

Łukasz Kałużny: Tak, oldschoolowy timcore Windowsa, kiedy feature pisała jedna osoba w kernelu.

Szymon Warda: A teraz jest inaczej, przepraszam bardzo?

Łukasz Kałużny: Nie, jest ciut więcej, chyba 3.

Szymon Warda: Szaleństwo. Zachowanie normalne. To jest takie, po prostu temat został nadmuchany i potem musiał być obgadany przez absolutnie każdego. Tak samo było z wulkanami w Islandii, z absolutnie wszystkim innym. Czas, w którym żyjemy.

Łukasz Kałużny: Co u ciebie teraz?

Szymon Warda: To znowu sezon ogórkowy i też niby się nic nie działo, ale się działo. Ale o co chodzi? Istio 1.23 przechodzi z sidecarów na ambient mesh. Czyli generalnie eBPF-a mówiąc bardzo prosto. I może być lepiej, może być szybciej, jest prościej, itd., itd. Coś, co w ogóle przewidywaliśmy, że się będzie działo tak naprawdę, czyli przejście na eBPF-a, bo to jest po prostu bardzo, bardzo sensowny ruch. Ale mnie zastanawia co innego. Czy kogoś to jeszcze interesuje? Bo z tego co ja widzę, to użycie meshy poleciało na łeb na szyję. Raczej idziemy w kierunku uproszczenia tego co mamy na Kubernetesie, bo meshe nie upraszczają zbyt dużo, mimo że są potężne i bardzo, bardzo fajne. Tak, czy to jest jeszcze obszar, który żyje, czy on już po prostu umarł? Ci, którzy użyli, to użyli i z tym żyją, a reszta już nie będzie używała.

Łukasz Kałużny: Zobacz, z konsultacji, dawno nie miałem pytania o meshe.

Szymon Warda: Ja więcej mam pytań o prostsze Container Appy, o dużo prostsze setupy, nawet powroty do właśnie Web Appek tak naprawdę. Bo mam wrażenie, że klienci już wyraźnie mówią w pewnych sytuacjach: nie chcemy Kubernetesa, bo za trudny, za dużo, za duży nakład względem zysku.

Łukasz Kałużny: Wiesz, jeżeli teraz popatrzysz, to co ludzie wykorzystywali tak realnie? Większość Service Mesh, mTLS.

Szymon Warda: mTLS.

Łukasz Kałużny: I network policies, jeszcze polityki łączenia. Jeżeli teraz popatrzysz, TLS-a to… W dzisiejszych serwerach aplikacyjnych mTLS, nieważne w jakim języku piszesz, jest prosty.

Szymon Warda: Upierdliwy do opisania, żeby kazać tym wszystkim zespołom robić.

Łukasz Kałużny: Dobrze. W sensie problemem jest dostarczenie certyfikatu i potem dostarczenia fingerprintów, co akceptujemy, co nie. To jest jedyny problem jak popatrzysz na całość, bo w konfiguratorze…

Szymon Warda: Jeszcze jest to, że dajemy rzeczy certyfikacyjne na poziom wytwórczy oprogramowania, gdzie wiedza o tym co to jest i do czego się używa jest różna.

Łukasz Kałużny: Tak, ale to są trzy flagi znowu, jak bootujesz serwer wiesz, o tym.

Szymon Warda: Zgadzam się z tym.

Łukasz Kałużny: Tak, ChatGPT już to poprawnie wskazuje. Dobra i network policy, jak popatrzysz na Kubernetesa, mikrosegmentacja tam jest od zawsze.

Szymon Warda: Tak.

Łukasz Kałużny: Może inaczej, prawie od zawsze…

Szymon Warda: Może nie mikro, ale jest segmentacja.

Łukasz Kałużny: Nie, masz obiektową segmentację, więc jest dokładnie taka sama, tylko na poziomie service’ów. To są dwa feature’y, które poszły: observability sieci… Inaczej, ono jest… Observability z meshy było słabe zawsze, bo dotyczyło ruchu tylko w ogóle synchronicznego tak naprawdę.

Szymon Warda: Tam jakieś próby były podejścia do kolejek. Ale to i tak się skupia na tym, że przy kolejkach to jest to, że musieliby się wstrzykiwać w wiadomość. Co jest trudne.

Łukasz Kałużny: Żeby złapać spana, żeby dodać span ID, żeby wyglądało to jak należy potem.

Szymon Warda: Tak. Przy okazji szkolenia z Observability.

Łukasz Kałużny: Dobra.

Szymon Warda: Więc meshe moim zdaniem po prostu znalazło swoją niszę, ale to już nie będzie się rozwijało. Szkoda w pewien sposób, bo tam niektóre rzeczy były fajne, ale to było zbyt skomplikowane, zbyt drogie. Dobrze.

Łukasz Kałużny: To nie jest dla wszystkich i nie jest to technologia pierwszej potrzeby w projektach. Elastic, słuchaj, i to jest rzecz ciekawa, bo w tym roku mieliśmy dużo przewrotów licencyjnych w ostatnich dwóch latach i są dwie ciekawe rzeczy. Elastic dodał trzecią licencję na AGPL-a. Czyli można udostępniać Elastica jako usługę, ale cały kod musisz zopensource’ować.

Szymon Warda: No ok, czyli chcą budować ekosystem.

Łukasz Kałużny: Tak i powrócili do tego. Przypominając, Elastic się dość mocno dwa lata temu zamknął i wtedy też nastąpił bardzo mocny Fork o nazwie Open Search od AWS-a.

Szymon Warda: Który wbrew pozorom ma się całkiem nieźle.

Łukasz Kałużny: Jest dojrzały, tak. Więc tutaj były zmiany licencji. Teraz jest pytanie, czy ludzie uwierzą im po tej zmianie licencji, jak to będzie wyglądało? Różnie to wygląda.

Szymon Warda: Wydaje mi się, że zmiana cała, usztywnienie, zamknięcie licencji w opensourcie była mimo wszystko za późno, żeby zatrzymać to, że ludzie weszli po prostu w chmurę.

Łukasz Kałużny: Tak. I teraz jest Szymon najlepszy dowcip z wczoraj, jak to nagrywamy. Już zrozumiałem czemu zmienili licencję i Wy też bardzo prosto zrozumiecie. AWS oddał OpenSearcha do Linux Software Foundation.

Szymon Warda: Tak, widzę właśnie. Ale czemu? Bo to już stało się dojrzałe. Nie chcą tego utrzymywać samodzielnie. Chcą, żeby to było po prostu przez kogoś tak naprawdę. Osiągnęli swój cel biznesowy i tyle. Po co im to właściwie?

Łukasz Kałużny: Tak i teraz jestem ciekaw, jak będzie wyglądała historia z Terraform patrząc na to i OpenTofu.

Szymon Warda: Terraform przecież IBM kupił, więc to jest trochę inna bajka.

Łukasz Kałużny: Tak, wiem, że jest inna bajka.

Szymon Warda: Ruszył też z rozwojem, tam parę rzeczy podochodziło.

Łukasz Kałużny: Raczej Terraform się ruszył. OpenTofu nieźle leci z rozwojem.

Szymon Warda: Wbrew temu co ktoś mówił, chciałem powiedzieć.

Łukasz Kałużny: Nie, leci z rozwojem. Nie mówię z użyciem. Z rozwojem. Więc wiesz. Pamiętaj, że kłóciliśmy się o to jak będzie użycie tego. Bo nadal to jest takie macanie się z OpenTofu, tak jak widzę i taski pod tytułem zmigrujmy się do OpenTofu raczej leżą w firmach niż są ruszeniem, patrząc na licencje i na wsparcie providerów.

Szymon Warda: Ale nikt się nie będzie migrował. To będzie ewentualnie decyzja czy nowy projekt zaczynamy w Tofu, czy zaczynamy w Terraform.

Łukasz Kałużny: Tak i jak sobie popatrzymy, cały problem leży w tym, że chyba żaden Hyperscaler się pod tym nie podpisał.

Szymon Warda: Bo potrzeba czasu.

Łukasz Kałużny: Więc jakieś mniejsze, tak. Większe właśnie, aż tak sprawdzę sobie, wpiszę. Nikogo na liście z trójki największych nie ma.

Szymon Warda: Dobrze. Kolejny temat?

Łukasz Kałużny: Kolejny.

Szymon Warda: Dobrze.

Łukasz Kałużny: I to jest zabawne.

Szymon Warda: To jest zabawne. Czemu? Fractional Architect, wpis, który w ogóle się błąkał mi już na mojej liście do przegadania, opublikowania miał być w newsletterze i chyba go też do newslettera wrzucę, bo przydałoby się to, żeby go zobaczyć, bo jest niezły. Łukasz się ze mnie nabijał, że dopiero przed kręceniem dowiedziałem się, kim jest autor tak naprawdę.

Łukasz Kałużny: Tak. Pozdrawiamy Macieja Jędrzejewskiego.

Szymon Warda: Tak, ale o czym jest wpis? Wpis: The skills puzzle: How a competency matrix completes your team’s picture. My często mamy pytania w mentoringu, w organizacjach: jaką technologię wybrać? A ten wpis na to odpowiada bardzo. W bardzo nudny sposób co prawda i to jest komplement, żeby nie było. Ten wpis proponuje zrobienie czegoś prostego, prostej macierzy. W kolumnach dajemy naszych członków zespołu, w wierszach dajemy technologie i zaznaczamy czy ktoś coś zna, jest ekspertem, zna dobrze, używał albo nie ma pojęcia i najlepiej w kolorach, bo kolory fajnie wyglądają, a czemu nie. I nagle nam wychodzi, którą technologię powinniśmy wybrać? Z prostego powodu, po prostu najwięcej ludzi ją zna. I to jest naprawdę dobry sposób na wybór. Ja obstawiam, że mimo wszystko tam gdzieś zakradnie się opcja: ale może nie znamy tego, ale może użyjmy, bo technologia X będzie na pewno lepsza od technologii Y. Co jest najczęściej głupim pomysłem, nie oszukujmy się, ale często tak wychodzi mimo wszystko. Ale wydaje mi się, że to jednak jest ćwiczenie, które powinno się odbyć w projektach, żeby przynajmniej wiedzieć, na czym stoimy, jaki jest ten punkt 0, od czego wyskakujemy. Tak że bardzo, bardzo mi się to spodobało.

Łukasz Kałużny: Wiesz co, ja dorzucę swoje przemyślenia i też dyskusje na temat tego. Używałem, robiłem też ostatnio prezentację, która się nazywała ładnie: Boring Architecture. Trzeba jeszcze dwa konteksty złapać, bo tu jest kontekst zespołu, bo użyłem nawet tego rysunku, bo on wyjściowo jest dobry. Wyjściowo jest dobry. I są z nim dwa problemy. Pierwszy jest taki Szymon, że przydaje się też kontekst organizacji.

Szymon Warda: Tak, oczywiście. To organizacja.

Łukasz Kałużny: Być może wiesz, różnie wygląda, inaczej będzie startup, a inaczej gdzie masz dojrzały org, Gdzie jest stos technologiczny i wprowadzenie nowej technologii. To jest droga przez mękę, bo nikt tego nie weźmie do utrzymania potem.

Szymon Warda: Ustalmy, wprowadzenie nowej technologii w organizacji, gdzie ona się z tego nie utrzymywała, ogólnie nie ma sensu najczęściej.

Łukasz Kałużny: Tak, chyba że robimy to pioniersko i jest wsparcie ku temu, to tak. I to jest jeden problem, że trzeba zawsze dorzucić kontekst organizacji do takiej rzeczy. Druga rzecz, która jest w tym wpisie w przypadku właśnie organizacji, bo inaczej to jest jednak team startupowy, inaczej team produktowy, inaczej organizacja, że w niektórych rzeczach może być potrzebna jako trochę rzecz do wskazywania palcem, że Ty za mało umiesz w rzeczach, które chcemy robić. Są debile niekiedy Szymon, nie bójmy się tego słowa i są głupie pomysły, jak robimy taki assessment.

Szymon Warda: Nie, bez dwóch zdań, takie rzeczy się zdarzają, ale ćwiczenie jest dobre do zrobienia. Sama kwestia świadomości już jest czymś dobrym.

Łukasz Kałużny: Wiesz co? I to jest rzecz, którą Gutek mi podrzucił i jest dobrą akurat, używanie zamiast takiej macierzy radaru kompetencji zespołu anonimowo. Czyli to może być wewnętrzne, a przedstawienie tego w postaci radaru, czyli rozrzucenia tego na tym radarowym, spiderowym wykresie.

Szymon Warda: Wiesz co, mam problem taki, że tam się może zadziać opcja taka, że mi na tej technologii zależy, nie znam, a ją podbiję, bo obejdę system.

Łukasz Kałużny: Wiesz co, bardziej patrzę na to, żeby z tego grafu, co masz tu, poza zespołem prezentować to jako radar.

Szymon Warda: Tak, w tej wersji to może być.

Łukasz Kałużny: Anonimizować wynik.

Szymon Warda: Ogólnie rzecz biorąc będzie link w newsletterze. Trochę skorzystamy z newslettera i rozszerzymy możliwości podcastu, więc zaprezentujemy. Będziecie mogli zobaczyć.

Łukasz Kałużny: Dobra, i ostatnie z mojej działki, czyli moja hejt love relationship, czyli LLM-y. I dwa wpisy, które tu wpadają. Pierwszy, w tym roku słuchaj, jak popatrzymy, to jest dobrze podsumowane na grafie, ceny za tokeny lecą na łeb. Jeżeli popatrzymy od tego wyjściowo ceny GPT4 i jak ceny modeli spadają.

Szymon Warda: Jestem ciekawy z czego to wynika, bo jakoś koszty utrzymania tych modeli tak bardzo w dół nie poleciały.

Łukasz Kałużny: Wiesz co, pytanie jest, trenowanie nadal jest drogie.

Szymon Warda: O to właśnie mi chodzi.

Łukasz Kałużny: Tak, trenowanie. I jest pytanie, czy to jest dotrenowywanie, czy koszty inferencingu spadły?

Szymon Warda: Wydaje mi się, że to jest bardziej walka o market share.

Łukasz Kałużny: I to jest druga rzecz, która tutaj zaczyna być ciekawa, w szczególności patrząc na to, że modele opensource’owe dobrze się rozwijają.

Szymon Warda: I jest ich dużo. Jest faktycznie to, co mi zaimponowało, co się faktycznie zaczęło dziać, to tych modeli opensourceowych jest sporawo i też pojawiło się coraz więcej modeli mniejszych. Więc są takie dwa trendy. Jest taki trend generalnie kto zbuduje większy model i jest chwalenie się, kto ma większego, można tak nazwać i potem jest budowanie modeli, które faktycznie są używane w normalnych warunkach. Ten drugi trend już jest w porządku.

Łukasz Kałużny: Tutaj bym dorzucił, być może korci mnie, żeby zaprosić kogoś z teamu Bielika, czyli modelu doszkolonego jako społecznościowo tworzenia polskiego modelu, który zaczyna wyglądać naprawdę dobrze w kontekście naszego języka.

Szymon Warda: I przyda się, bo z modelami zagranicznymi polski język nie jest popularny, nie wartościowy w skali światowej. Więc tak, przydałby się jakiś model.

Łukasz Kałużny: Dobra i ostatni wpis, jak jesteśmy przy LLM-ach. To jest moje cierpienie. Cierpienia Wertera i szukanie sensu życia. Problem z LLM-ami jest taki, że cały GenAI i nie żyje w oderwaniu od danych firmowych z tym co się spotykamy. I tutaj pojawia się kwestia RAG, czyli bring your own data do tego LLM-a. I całość polega na tym, że dane są, jak wszyscy wiemy, dane struktury w bazach danych są ok, ale ludzie chcą pracować na swoich procedurach, wiki i innych rzeczach. I efekt jest tego taki, że mówi się o halucynacjach, a kupa wchodzi, kupa wychodzi, jak to ładnie tłumacząc na polski, jeżeli chodzi o jakość tych danych.

Szymon Warda: To samo co było przy dowolnym machine learningu wcześniej czy dowolnej potem statystyce wcześniej jeszcze tak naprawdę. Nie oszukujmy się.

Łukasz Kałużny: Tak. I tu wchodzi trochę światełko w tunelu, trochę, to jest istotne, trochę. Microsoft wydał coś takiego, Microsoft Research wydał dwa, trzy miesiące temu coś takiego jak GraphRag, czyli automatyczne porządkowanie. Chyba omawialiśmy to w jednym z ostatnich odcinków nawet albo początkowym newsletterze wakacyjnym. Chodzi o automatyczne porządkowanie danych w strukturę grafu wiedzy, gdzie mamy domeny, encje, keywordy i linkowanie tego w całość.

Szymon Warda: Powiem tak, że ogólne bazy grafowe w kontekście właśnie LLM-ów, to jest idealne, bo to są bazy grafowe, bazy wiedzy, knowledge graphu. Ale w automatyczne nie do końca wierzę, sorry.

Łukasz Kałużny: I tutaj pojawił się teraz kontekst metaprogramingu w postaci autotuningu. Wygenerowanie tego oznacza, że będzie nas kosztowało to o wiele więcej, bo wykorzystujemy LLM-a do próby wykrycia kontekstu dokumentu i na podstawie tego dynamicznego kreowania promptów, do wydobywania encji i relacji. Tak…

Szymon Warda: Duże obietnice. Bardzo duże. Nie do końca je kupuję, że aż tak dobrze to będzie wyglądało. Będzie lepiej. Ok, zgodzę się.

Łukasz Kałużny: Jest lepiej. Inaczej, zrobiłem sobie testy. I jeżeli wchodzi kupa, to nadal wychodzi kupa. I teraz jest całość. Niestety, jeżeli dostarczamy błędne dane, to błędne dane wychodzą. Jeżeli dostarczymy, to jest taki mój ukochany przypadek na Confluence strona była sklonowana X razy. I najnowsza edycja z draftowymi notatkami i innymi rzeczami, które nie miały odzwierciedlenia, zawsze wypadała pierwsza w wynikach, bo była ostatnio update’owana. Dziękujemy.

Szymon Warda: Tak. Dobrze. Tyle?

Łukasz Kałużny: Tyle. To co? Kończymy?

Szymon Warda: Trzymajcie się.

Łukasz Kałużny: Trzymajcie się. Hej.