#135 AWS RE:Invent 2024

2024, Dec 20

Małe ogłoszenie na start - byliśmy tak podekscytowani przerwą świąteczną i brakiem potrzeby uprawnień do szachów 5D do nagrywania, że… zapomnieliśmy włączyć nagrywanie wideo! Więc dziś tylko audio, ale materiał i tak jest gorący! AWS RE:INVENT 2024 to nie podróż w czasie, a gorąca dyskusja o nowościach AWS! Patoarchitekci analizują chmurowe innowacje z nutką ironii. Od Amazon Q po EKS Auto Mode - technologiczny rollercoaster gwarantowany. Sagemaker Lakehouse i Zero ETL rewolucjonizują świat danych. Nova Foundation Models i Bedrock wprowadzają AI na nowy poziom. Czy multi-agent collaboration to przyszłość DevOps? Przekonajmy się razem! Chcesz być na bieżąco z chmurową ewolucją? Posłuchaj tego odcinka! Odkryj, czy AWS Q zastąpi Twojego analityka, a hybrid nodes to zbawienie czy przekleństwo. Patoarchitekci czekają - dołącz do chmurowej dyskusji!

Słuchasz Patoarchitektów dzięki PROTOPII – firmie, w której Łukasz i Szymon działają na co dzień, wspierając zespoły IT na każdym etapie: od projektowania, przez wdrożenia i migracje, aż po optymalizację i zabezpieczenia. Oferujemy też mentoring i szkolenia dostosowane do potrzeb każdej firmy, niezależnie od wielkości. Sprawdź nas: protopia.tech

Discord 👉 https://discord.gg/78zPcEaP22

Linki i ciekawe znaleziska:

Transkrypcja

Łukasz Kałużny: Cześć, słuchacie Patoarchitektów. Prowadzą Łukasz Kałużny…

Szymon Warda: I Szymon Warda. Wszystkie linki do tego odcinka oczywiście na dole w opisie i Patoarchitekci.io, ogarniecie.

Łukasz Kałużny: Dobra, ważny announcement, nie szkolenia, ale możecie zerknąć. Z Szymonem robimy sobie przerwę tudzież wagary świąteczne i będziemy wracać po tym odcinku 10 stycznia. I na tapet bierzemy słownik pojęć dla architekta i nie tylko związane z GenAI-em, LLM-ami. Pytacie się o to, że coraz bardziej używamy słów typu ragi, tokeny, więc dowieziemy Wam, żebyście dokładnie wiedzieli o co chodzi, bo o to się pytacie.

Szymon Warda: A my odpowiadamy.

Łukasz Kałużny: Być może zapoczątkuje to serię odcinków większą, bo też były pytania o takie słowniki pojęć, co warto wiedzieć, znać.

Szymon Warda: Taki trochę szybki onboarding. Dobrze, Łukaszu, co dzisiaj?

Łukasz Kałużny: Reinvent. Kończymy sezon konferencyjny tego, co omawiamy. No i co? AWS miał swoją konferencję. Oczywiście pierwsze wrażenia możemy podsumować jak zawsze: AI, AI i dane.

Szymon Warda: I dane, tak. Analityka, dane, wokół tego wszystkiego.

Łukasz Kałużny: Dobra, to co, chyba po prostu polecimy sobie z newsami, tak jak mniej więcej to, co nam podeszło. Więc co, Szymonie, na pierwsze u Ciebie?

Szymon Warda: Wiesz co, dla mnie rzeczą, która mi się bardzo, bardzo spodobała i to jest coś, o czym mówiliśmy i trochę taki Twój mokry sen, że tak powiem, jeżeli chodzi o no code low code. Jest cała bajka Amazon Q in quicksight. Czyli co? Czyli opcja ciekawa, bo czatowanie i generowanie analityki na bazie właśnie czatowania, czyli chciałbym coś zrobić i model tudzież serwis odpowiada nam generalnie, co byśmy właściwie chcieli w tym momencie mieć. To jest nazwane ładnie modelami, ale tak naprawdę to są po prostu proste predykcje i wychwytywanie, co tam właściwie się dzieje. Tym niemniej jest to interesujące i faktycznie jest to fajnie też skierowane, bo skierowane do małych i średnich firm jako konkurent do wyciągania danych z Excela tak naprawdę i robienia analityki na Excelu. Więc to jest dość ciekawe. Ciekawe dalej jest też to, że umie to się łączyć z, teraz uwaga, Atheną, Aurorą, Red Shiftem S3 i Open Search Service, czyli większością usług, o których mowa jeżeli chodzi o wyciąganie i przechowywanie danych. Wygląda ciekawe, jestem bardzo ciekawy jak to będzie wyglądało w praktyce, bo przykłady, które są na ogłoszeniu, są takie dość: znajdź mi predykcję czegoś, powiedz mi co poprawić i tak dalej. Więc dość proste.

Łukasz Kałużny: Inaczej, to będzie w całym tym… To jak zacząłeś od analityki, to ja bym rzucił takie - w SageMakerze pojawiła się usługa lakehouse’u, czyli Amazon Sagemaker Lakehouse. I żeby nie było, kolejne podejście do data lejków. Ten lakehouse od paru lat w świecie data funkcjonuje jako podejście. Ale dwie ciekawe rzeczy, które się za tym pojawiają. Pierwsza jest jeżeli zobaczymy dokładniej, to pod spodem wykorzystanie Apache Iceberga i to zobaczymy też w newsach o S3. To jest też ważne. To widać co z czego budowali, po co. Więc jedna rzecz, którą warto zobaczyć to jest właśnie całe podejście do ETL-i z tym związane, Apache Iceberg. I druga rzecz przy ETL-ach, to pojawiło się Amazon Dynamo DB Zero ETL Integration. Czyli coś, co też widzimy w Cosmos DB w Microsofcie, że oni te koncepty Zero, ETL coraz bardziej się gdzieś pojawiają.

Szymon Warda: Zabrałeś mi temat, ale niech będzie. Żartuję oczywiście. Problem jest taki, robienie ETL-i i ładowania z baz transakcyjnych do baz raportowych jest super ogarnięte w bazach SQL-owych od bardzo wielu lat. A z bazami noSQL-owymi to z tym zawsze był problem tak naprawdę i mało kto umiał zrobić i jeszcze zrobić to dobrze tak naprawdę. Więc trochę mnie to nie dziwi, ale tak ten sam ruch, jeżeli chodzi właśnie o ETL-e i chodzi właśnie o ładowanie baz SQL-owych co MS robił, dokładnie to samo, bo te same problemy tak naprawdę.

Łukasz Kałużny: Tak, więc to się dzieje. I wiesz co, ja bym poszedł teraz sobie do S3-ki, bo tam są w sumie trzy ogłoszenia, takie warte uwagi. Pierwsze ogłoszenie związane z S3. I to jest zabawne, o tak, śmieje się, to jest zabawne. Może jeszcze jedno słowem wstępu, moje podejście do AWS-a. Ja AWS-a lubię w niektórych częściach. Zawsze mi przeszkadzało takie mocno infrastruktura. Inaczej, AWS pod spodem filozofią EC2 stoi, jak ich automatyzacja natywna woła o pomstę do nieba w porównaniu do Azure’a.

Szymon Warda: Przez długi czas było tak: coś potrzebujesz zrobić? Postaw sobie EC2 po prostu.

Łukasz Kałużny: Tak i potem ta filozofia pod spodem została, ale tam, gdzie pojawiają się elementy typowo serverlessowe, poza pricingami, te API są dość ciekawe do użycia i dają fajną elastyczność. Ale co się pojawiło? Object Metadata for Amazon S3 Bucket Preview, Quarable Object Metadata.

Szymon Warda: To mi uciekło. Opowiedz trochę więcej.

Łukasz Kałużny: Nie, wiesz co? Założenie, że możesz teraz po prostu, to się pojawiło przy całości, że możesz sobie przequerować, jeżeli zobaczysz, że możesz przequerować obiekty po kluczach, size’ach, tagach pod właśnie Athenę, Red Shifta. Bo zobacz, że trochę lepiej to zrobione takie, bardziej przypomina to teraz azurowego Bloba, jeżeli popatrzymy pod możliwościami. Więc to jest taka jedna rzecz, która się tam pojawiła, właśnie tego querowanie i wyciąganie rzeczy. I dlaczego o tym wspominam na samym starcie? To jest teraz ważne. Powiedziałem o Apache Icebergu już tam na początku, przy tym, że pod spodem jest używany. I drugą rzeczą, która się pojawiła, to S3 Tables. Czyli Storage Optimize for Analytics Workloads. I tutaj pojawiły się takie rzeczy jak table buckets, tables namespace’y. I założenie jest takie, żeby zrobić buckety zupełnie pod przechowywanie danych pod datalake’i. I wykorzystać też Iceberga na tym.

Szymon Warda: Przeglądam właśnie, taki table storage azure’owy?

Łukasz Kałużny: Nie, bo tu są pliki, więc to jest taki…

Szymon Warda: Ok, dobra.

Łukasz Kałużny: Bo jeżeli zobaczysz, to jest takie bardzo mocne zbliżanie się, bo Microsoft ma tego Data Lake Gen2.

Szymon Warda: Tak.

Łukasz Kałużny: To jest zbliżanie się do bardzo podobnego poziomu. Może nawet w niektórych miejscach może się okazać, że jest w tym lepsze. O tak i tyle. I tu jest, jeżeli popatrzymy, to to powstało jak widać, bo oni używają mocno Iceberga w innych miejscach, tak jak w tym Lakehousie, i to wygląda tak z mojej perspektywy, wiedząc jak te usługi powstają, że to jest po prostu pochodna tego, że w innym miejscu tego potrzebowali.

Szymon Warda: Tak samo jak Data Lake w Azure. Ok.

Łukasz Kałużny: Tak. No i trzeci announcement, który jest kurde z jednej strony śmieszny przez trójcę, a z drugiej strony jest realnym problemem biznesowym. Connect user to data for your apps with storage browser for Amazon S3.

Szymon Warda: No ale to jest znowu to samo, co widzimy w konkurencji tak naprawdę.

Łukasz Kałużny: Była potrzeba po prostu i tyle. Ale co najlepsze, jak sobie zobaczymy, to mamy cały UI, który można użyć do S3 u siebie w aplikacji.

Szymon Warda: Bardzo dużo podobieństw widzę, ale fajnie, bo jeszcze jak przeglądam to nie zrobili takiego głupiego połączenia, ale faktycznie można definiować role, uprawnienia i tak dalej, więc jest to tak trochę lepiej ogarnięte.

Łukasz Kałużny: Tak, dokładnie. Więc jest to lepiej ogarnięte. Jeszcze wracając do S3 Tables to tak, to w standardzie supportują składowanie pod API Icebergowym, więc to też ciekawie będzie z toolingu i budowy własnych rzeczy. Jestem ciekaw jak Dremio się teraz na tym zareaguje podłączając się.

Szymon Warda: Dobra, jak mówimy o tych rzeczach bazowych, to mnie zaciekawiło jedno ogłoszenie, które właśnie nie było bardzo, bardzo, bardzo głośne. Też z takich podstawowych, EC2 stream instances and TRM2 Ultra Servers. Własne chipy oparte na x64 do 192 vikorów i dwóch terabajtów pamięci w kontekście właśnie uczenia. Oczywiście to jest skierowane do całej analityki i machine learningu i AI, jak to nazwiemy, tak nazwiemy, to jest jeden kubełek, że tak powiem tak naprawdę. Dalej rozwijają i to całkiem nieźle wygląda. Jestem ciekawy, jak to wygląda pod spodem i jak to wygląda finansowo i kto im to właściwie robi tak naprawdę.

Łukasz Kałużny: Wiesz co? I tu się teraz ciekawostka pojawia. Kto wykorzystuje? To Apple się przyznał, że wykorzystują ich, właśnie latają na AWS-ie do trenowania właśnie na tych custom chipach.

Szymon Warda: No ciekawie.

Łukasz Kałużny: Tak. Jest taki announcement: Apple is currently using AWS custom artificial intelligence chips for services like searching and will evaluate if its latest AI chip can be used to pretrain its AI models included in Apple Intelligence.

Szymon Warda: Ciekawe, bo wydawało mi się, że oni chwalili się, że to śmiga wszystko w ich data center tak naprawdę. No ale okej.

Łukasz Kałużny: Mhm. Hmm. Hmm. No to teraz widzisz.

Szymon Warda: Ja nie jestem apple’owy, więc nie za bardzo w to wierzyłem.

Łukasz Kałużny: Ja też nie wierzyłem. Bardziej patrzę na ich privacy, że jednak gdzieś tam starają się. A inaczej, to nie dziwię się im, może tak, nie opłaca się w tym momencie, jak byli tyle lat do tyłu z tym, budować tego od zera.

Szymon Warda: Ale wydaje mi się, że może będą. Dobra, lecimy dalej. Elementy bazowe. No to co? Kubernetes cluster management with new Amazon EKS Auto Mode?

Łukasz Kałużny: Tak. Coś co było w tym, czyli jeżeli tam popatrzymy, automatyczne zarządzanie klastrem, skalowanie i inne takie rzeczy. Czyli są znowu ostatni, jeżeli chodzi o Kubernetesa. Dlaczego? Bo w Google’u mamy bodajże autopilot, zawsze zapominam, jak się nazywa w GKE ta część feature’a. W Azure też, w EKS-ie, jest tam Automatic Mode, więc po prostu to dodali. Ja też Wam zostawię linka do porównania tego z AKS-em, więc można zobaczyć co z czego korzysta.

Szymon Warda: Też uzupełnię co tam w ogóle jest. Compute autoscaling and management, application load balancing management, potem service network and network policies, cluster DNS and GPU support, block storage, volume support. Czyli właściwie takie podstawowe funkcjonalności. Szału ogromnego nie ma, ale to jest coś, co zdecydowanie odciąży. I zaznaczmy jeszcze, to jest dla EKS-a, czyli Kubernetesa pełnowymiarowego, nie tego aplikacyjnego, że tak powiem. Czyli włączamy, upraszczamy zarządzanie klastrem Kubernetesowym zarządzanym przez Amazona.

Łukasz Kałużny: Tak, pod spodem, jak zobaczymy, też jest Carpenter do automatycznego doboru node’ów i innych takich rzeczy, więc nic nadzwyczajnego, po prostu to co inni zrobili już zostało wdrożone. I news, który stąd muszę shejtować, bo takie też będą, jak jesteśmy przy Kubernetesie…

Szymon Warda: Bez tego nie byłoby odcinka.

Łukasz Kałużny: Dobra, to lecimy. To są EKS Cluster Hybrid Nodes, czyli node’y, słuchajcie, w on-premie podłączane do control plane’u w AWS-ie. Co może się nie udać?

Szymon Warda: Łukasz, ale patrząc z perspektywy, to jest coś, czego organizacje potrzebują albo potrzebują, albo wydaje im się, że potrzebują.

Łukasz Kałużny: Właśnie chciałem powiedzieć, że to jest… Wstawię tutaj mema, którego szykuję: mam Kubernetesa, jestem multi cloud, multi agnostic, nie rozumiem, że capy i inne prawa obowiązują.

Szymon Warda: No tak, ale wiesz co? To jest taki przypadek, że masz sobie, stawiasz sobie node’a i chcesz żeby część node’ów procesowało dane, które masz lokalnie tak naprawdę. Ten cluster tak naprawdę to mógłbyś sobie postawić w tej opcji, że po prostu ten klaster lokalny wysyła dane do klastra w Amazonie. No ale dzięki temu rozpinasz i masz niby łatwiej, masz niby łatwiejszy networking i tak dalej.

Łukasz Kałużny: Słowo “niby” się przeciąga u Ciebie bardzo często.

Szymon Warda: No tak, bo to na papierze wygląda świetnie. Zgodzę się z tym absolutnie, że latencja i inne rzeczy Cię po prostu zabiją i to nie będzie działało jakoś super, ale rozumiem potrzebę biznesową, która za tym stoi po prostu.

Łukasz Kałużny: Nie, potrzebę… Inaczej, rozumiem potrzebę slajdową, która za tym stoi.

Szymon Warda: No o tym mówimy, dokładnie i potrzebę konferencyjną.

Łukasz Kałużny: Potrzeba biznesowa AWS-a spełniająca życzenia, które niektórzy mają nie rozumiejąc implikacji tych życzeń. Dlaczego to tak mocno hejtuję? Bo jak się potem dojdzie, nagle się okaże, że apka się źle zdeployowała, bo ktoś nie zrobił, odpowiednio nie wybrał node’ów, nie zlabelował. Wiesz, ilość rzeczy, które się tutaj pojawiają czy problemy komunikacyjne jak nagle mikroserwisy zaczną walić przez tego VPN-a pomiędzy.

Szymon Warda: Ale oczywiście, to będzie taka opcja, że mamy sobie, rozpięliśmy, właśnie to o czym mówisz, nie ma labelingu i nagle te node’y, które mają dane procesować lokalnie, deployują się na klaster w Amazonie i te dane i tak śmigają do Amazona. Oczywiście, że tak. To brzmi zbyt pięknie, żeby było prawdziwie. Gdyby to było zrobione dobrze - fajny feature. To, że trochę nam fizyka nie pozwala, żeby to działało jakoś super, no to to jest trochę inna sprawa, bym powiedział.

Łukasz Kałużny: No i wiesz, tak jak z tym, no i nagle apki zaczną ze sobą gadać, bo będzie taki pomysł i nagle się okaże, że to EKS, node’y z AWS-a strzelają do on-premu. Będzie dużo ciekawych rzeczy. Dobra, wróćmy do tematów bazodanowych, bo tam się jeszcze pojawiły dwie rzeczy. Pierwsza, to MemoryDB. Nie wiem czy zwróciłeś uwagę, ale…

Szymon Warda: To jest ciekawe, bym powiedział.

Łukasz Kałużny: Ktoś zbudował wreszcie cash rozproszony.

Szymon Warda: Znaczy w ogóle co to jest? To jest usługa udostępniająca Valkey, czyli open source’owego Rorka Redisa tuż przed tym, jak zmienili licencję. Daje ona 5 dziewiątek, czyli 99,999 dostępności, jest multiregionowa i tak dalej i tak dalej. Dużo fajnych rzeczy. Fajnie to wygląda. No, że tak powiem, to się już jednoznacznie odcina, Amazon od Redisa. Co jest ciekawe w kontekście tego, że przecież Azure ogłosił wsparcie oficjalne dla Redisa. Więc tak trochę różnymi drogami idziemy.

Łukasz Kałużny: Więc jest w tym, więc zobaczymy, jak to, zobaczymy Szymon jak to będzie kompleksowo wyglądać. To, co mnie zachęciło w tym, od razu z pudełka jest automatic conflict resolution.

Szymon Warda: Ja na takie rzeczy mówię mhm, bo nie zrobisz automatycznej rezolucji konfliktów w pewnych przypadkach, nie zrobisz jej dobrze, może tak.

Łukasz Kałużny: Wiesz, teraz tak, konflikt sam, w ogóle wiesz, dziedzina CRD-eków zamiast capa, używanie tego zamiast capa jest w ogóle długą rzeczą. Ale jeżeli popatrzysz z perspektywy cashu, to być może ma to… Wiesz o tym, że to dość dużo może zaadresować.

Szymon Warda: Znaczy może. Mnie ciekawi jeszcze inna rzecz, jak Valkey będzie się zachowywało w kontekście nowych feature’ów Redisa, bo to jest Fork mimo wszystko dla Redisa i chwalą się, że jest takim drop and replacement, czyli że po prostu zamieniamy na stringa i to wszystko śmiga. A Redis ogłasza te operacje na wektorach i tak dalej.

Łukasz Kałużny: Microsoft zrobił swojego forka, napisał swój cash na bazie protokołu Redisa, a potem słyszysz o partnerstwie. Więc zobaczymy.

Szymon Warda: Znaczy tak, tutaj generalnie oni to reklamują jako bazę pamięciową, nic więcej tak naprawdę. Więc może to im niejako ratuje tyłek, ale wydaje mi się, że to jest zamiennikiem dla Reddita na dłuższą przygodę. To nie do końca by mi się tak wydawało, że nie pociągną tego w ten sposób. Dobrze Łukaszu, to co, przechodzimy do Amazon Q, czy coś jeszcze innego?

Łukasz Kałużny: No chodźmy już teraz do tych. Raczej mamy Bedrocka i Q, więc chyba zacznijmy naszą wycieczkę po AI z Q.

Szymon Warda: Mogę teraz, mogę teraz, mogę teraz trochę dobijania się?

Łukasz Kałużny: Możesz.

Szymon Warda: Dobrze, to ja bym bardzo chciał, bo jeden właśnie z ogłoszeń Amazon Q. Jednym z pierwszych linków jest to, że stali się liderem w kwadracie Gartnera. Jak się otworzy ten link to jest pięknie, ponieważ na samej górze jest GitHub, a oni są na samym lewym rogu niemalże tego kwadratu, czyli załapali się, ale bez fajerwerków. Ale pochwalenie się udało.

Łukasz Kałużny: Tak, dorzucimy linka do tego. Ale dobra, śmiechem, żartem. To co, Amazon Q ma w diabły nacisk na .Neta w tym momencie.

Szymon Warda: To jest ciekawe i .NET Frameworka.

Łukasz Kałużny: .NET Framework. Może właśnie gwoli wyjaśnienia. .NET Framework, czyli ta rzecz, która chodzi tylko na Windowsie i jest bardzo duży nacisk na transformacje i automatyczne portowanie z .NET Frameworku do .NET-a. I za tym w ogóle też kiedyś stały rzeczy, z których mieliśmy polewę, czyli bardzo mocne wsparcie dla .NET Core powiedzmy, czyli już tak w uproszczeniu .NET Core, czyli tego .NET-a, który chodzi na Linuksie, żeby przeportować taki protokół WCF, czyli RPC stare od Microsoftu. I tutaj teraz pojawia się w diabły rzeczy do automatycznego wsparcia przy Q, do przemigrowywania się z pełnego starego .NET-a na tego nowego NET-a, żeby działało na Linuksie i u nich.

Szymon Warda: To ja dorzucę szczegóły, co on umie, a czego nie umie portować. Bo to jest wylistowane, nie wiem czy to wyłapałeś.

Łukasz Kałużny: Jest, widziałem to, dajesz.

Szymon Warda: Aplikacje konsolowe, aplikacje Class Libraries, testy jednostkowe, WebAPI. Właśnie tego WCF-a umie portować, co jest ciekawe, bo WCF jako taki, jako bycie serwerem WCF-a, nie klientem WCF-a, na .NET Core nie działa.

Łukasz Kałużny: Raczej, ale masz ten, tylko ten Open WCF chyba się już też o hostowanie ten…

Szymon Warda: Ale to nie jest ten oficjalny od MS, jest dalej. Open WCF Business Logic Layer dla MVC i dla aplikacji SPA. Nie umie razor viewsów oczywiście i nie umie Web Formsów oczywiście.

Łukasz Kałużny: Ale…

Szymon Warda: Ku zdziwieniu wszystkich, gdzie tam jest, czyli tej części wizualnej, gdzie tam jest najwięcej roboty.

Łukasz Kałużny: [niesłyszalne 00:18:54]

Szymon Warda: [niesłyszalne 00:18:54]

Łukasz Kałużny: Moja mina, jak przypomniałem sobie Web Formsy i view state Szymonie, view state.

Szymon Warda: Łukasz, ale wracamy do Web Formsów. Powoli pojawiają się projekty, gdzie wracamy do designerów i tak dalej, to będzie [niesłyszalne 00:19:09].

Łukasz Kałużny: Albo backend renderingu całego tego.

Szymon Warda: Tak, będzie. To miało sens na swoje czasy. Poza tym view statem. No ale niech będzie.

Łukasz Kałużny: Dobra, nie, ale całość jest taka… Inaczej, ruch jest tutaj bardzo prosty i jasny. Przeciągnięcie biznesu poprzez wsparcie w refaktoringu. Tam jest jeszcze taka usługa, którą trudno wyłapać, ale jest sobie w ogóle taki toolkit, jest AWS Microservice Extractor for Net.

Szymon Warda: Mówisz o tym, który rozbija monolity na mniejsze części?

Łukasz Kałużny: Tak, to nie było jakoś super promowane, ale przypominają też o nim, że takie coś też posiadają i jest to możliwe do użycia w tym nowym suite’cie.

Szymon Warda: Nie wiem czy zwróciłeś uwagę jak to nazywają? Mainframe .NET.

Łukasz Kałużny: Tak. Raczej tak, raczej to ten kolejny news, który mówi, że transformation capabilities for .NET, mainframe and VMware workloads in a web experience.

Szymon Warda: Znaczy mnie to w ogóle cieszy, bo zastanawiam się, tak patrząc z boku, to czemu w ogóle to wchodzi? Mój strzał jest taki, że jest na to rynek, a że Amazon po prostu woli, żeby ci ludzie po przemigrowaniu się do .NET Core’a poszli w EKS-a, a nie w VM-ki, bo wiele organizacji mówi, że oni nie chcą mieć VM-ek, nie chcą tym zarządzać. A mając Windowsa wiemy, że jest Kubernetes dla Windowsa, no tak, jest generalnie. No ale wiadomo jakie jest wykorzystanie jego. I to jest ten strzał po prostu, to jest napędzanie EKS-a.

Łukasz Kałużny: Dobra, słuchaj, z Developer Q to chyba tyle.

Szymon Warda: Nie, no jeszcze.

Łukasz Kałużny: Co masz jeszcze, to dajesz. Co jeszcze?

Szymon Warda: No jak Łukasz, masz cały Developer Q i integrację, czyli właśnie to, że w [niesłyszalne 00:20:50] możesz generować dokumentację, możesz robić review kodu i poprawki jakościowe, zaznaczają - jakościowe, to jest bardzo ważne i generowaniu unit testów. I to jest ciekawe, bo teraz cytując…

Łukasz Kałużny: A to przegapiłem.

Szymon Warda: Within unit tests, You can generate basic cases such as boundary conditions, null values, off-by-1 cases, and checking multiple input values. Czyli najprostsze testy, jakie są wygenerowane dla każdej prezentacji, z których wartość jest prawie zerowa. Chociaż powiem, że tak, że faktycznie null values i off-by-1 cases w kontekście języków nie zarządzanych typu nie .NET i nie Java to może mieć sens, bo to jest fajne w kontekście bezpieczeństwa, czy ktoś się nie machnął i nie wyjdziemy poza bufor. Pytanie, jak dużo takich sytuacji jest. Ale ok, tu to ma sens. W innych językach? Mały bym powiedział.

Łukasz Kałużny: Pewnie zobaczyłem unit testy w tytule i to przescrollowałem dalej, bo tak mogło być.

Szymon Warda: A to pokażcie co umiecie.

Łukasz Kałużny: Tak w tym. Znaczy jedna tam rzecz ciekawa jest w tym ich agencie, /review, do reviewowania. Akurat tego jestem ciekaw.

Szymon Warda: Znaczy ja jestem ciekaw tych unit testów mimo wszystko, jak to będzie wyglądało, czy będą to dalej rozbudowywali. Bo to generowanie testów, o których piszą właśnie, to umieliśmy robić 10 lat temu.

Łukasz Kałużny: Raczej czy wiesz co? Tylko wiesz, teraz wartość z automatycznego… Ja się ostatnio zastanawiałem, gdzie jest wartość z automatycznego pisania unit testów?

Szymon Warda: Tak jak wymienili? Niewielka, poza takimi głupimi security case’ami.

Łukasz Kałużny: Tak, security, tak. Ja patrzyłem na to, że wartość pojawia się dopiero wtedy, kiedy Ty opiszesz przypadki biznesowe.

Szymon Warda: Oczywiście, że tak.

Łukasz Kałużny: Wiesz, dla mnie na przykład wartość: wygeneruj mi testy, zaprojektuj wejście do funkcji biznesowej, do logiki biznesowej, zaprojektuj testy, dopiero zacznij kodować. A druga rzecz, jak znasz mniej więcej scenariusze, to do starego codebase’u przed refaktoringiem wygenerowanie na dużym poziomie: czy nie spaprałem kodu? Tylko zazwyczaj pewnie… Inaczej, AI tak samo się nie domyśli co autor tego kodu miał na myśli, nawet jak jego autor po trzech latach.

Szymon Warda: Ja powiem tak, nawet się nie domyśli co biznes chciał osiągnąć tak naprawdę.

Łukasz Kałużny: A to już w ogóle, tak. Dobra.

Szymon Warda: Dobrze, lecisz.

Łukasz Kałużny: Tak, AI. To co, może zacznijmy chyba od największego newsa według AWS-a. Dla mnie on jest Amazon Nova Foundation Models, czyli seria ich kilku różnych GenAI-owych modeli, bo tyle, tak jak Microsoft ma swojego SLM-a w postaci Phi, tak tutaj też pojawiły się, AWS po prostu wytrenował swoje tanie modele. Jest to Micro, Lite, Pro i Premier, o tak je ładnie nazwali.

Szymon Warda: Fajnie wylistowali, dokładnie. W ogóle odnośnie modeli, to ja skoczę, bo też chwalą się, że na Bedrocku mają 100 różnych modeli, których można używać i po prostu bierzesz co potrzebujesz. Jeszcze dorzucę, bo właśnie nowa to chwalą się, że to są te modele, takie bazowe, fundamental models, na bazie których możesz dalsze swoje rzeczy robić.

Łukasz Kałużny: Finetune’ować?

Szymon Warda: Tak, potrenować, finetune’ować, znaczy dobry kierunek w kontekście tego i ukłon w kontekście organizacji, które nie chcą trenować własnych modeli od samego zera, bo to ma mały sens, tylko biorą gotowy model i go finetune’ują właśnie, że nie ragami dopasowywują do siebie, tylko pod własne potrzeby. Jestem ciekaw jak szerokie będzie tego użycie.

Łukasz Kałużny: Tak. Wiesz co, ale zobacz, że to jest odpowiednik częściowo, jak popatrzymy, jest to odpowiednik tego, co Microsoft ma u siebie w Cognitive Services, a teraz AI Services.

Szymon Warda: Absolutnie tak.

Łukasz Kałużny: Poza tym mikro, jak bym tak popatrzył, tak zupełnie szczerze i lajtem, bo one jednak są LLM-ami.

Szymon Warda: Bo w Azure jest trochę więcej tych modeli, takich ogólnie dostępnych, a oni wzięli kompletnie własne modele w wielu sytuacjach. Jestem ciekaw jak to będzie się porównywało do innych.

Łukasz Kałużny: Wiesz co, ale porównaj to do np. tego, co miałeś do OCR-ów, modeli, do AI Vision. To tutaj zobacz pojawiło się, bo Microsoft ciągle nie pokazał Phi np. jako usługi. Zobacz, że nie masz, ciągle masz OpenAI-a, nie masz Phi jako usługi np., że ciągle jest hostuj sobie sam. Więc to jest rzecz. Ale dobra, to są te modele. I teraz pójdźmy do rzeczy, które mnie zainteresowały. I pierwszym takim, dla mnie największym announcementem pod spodem, który pokazuje coś przydatnego, to jest multi-agent collaboration na Bedrocku, czyli podejście agentowe. I dlaczego mówię, że jest ciekawe i interesujące? Bo pozwala Ci dosłownie z UI-a stworzyć prostego agenta i zarzucić mu na jakim modelu chodzi.

Szymon Warda: Otwieram linka, bo zastanawiam się, czy to jest ten sam, o którym myślałem? Nie, to nie jest ten, o którym myślałem.

Łukasz Kałużny: Nie, nie nie, wkleiłem Ci linka. Linka masz tam wklejonego, więc zobaczysz. I to jest rzecz, jak sobie nawet przeskrolujesz tego UI-a, to pozwala Ci podejść właśnie, zbudować multi collaboration, wybrać czy agent będzie supervizorem czy supervizorem z rootingiem. Jest takich dużo rzeczy, które możesz zbudować, bardzo mocny flow, no-code’owo i wystawić go sobie przez API.

Szymon Warda: Tak, wiem, że ten no-code ukradł Twoje serce.

Łukasz Kałużny: Ale wiesz co, ta część, zamiast teraz się walić z jakimś LangChainem LlamaIndexem, to taki wiesz, w szczególności tą fazę [niesłyszalne 00:26:17] można świetnie przyśpieszyć.

Szymon Warda: Ja się nabijam trochę, ale wygląda to faktycznie nieźle, budowanie własnych agentów w wersji dużo prostszej. I tak patrzę jeszcze, przeglądam i też jest całkiem nieźle ogarnięte, bo jest integracja z [niesłyszalne 00:26:30], naprawdę jest to zrobione, a można używać.

Łukasz Kałużny: W sensie wychodzi, raczej jak zrobią to produkcyjnie, to jest naprawdę dobrze.

Szymon Warda: Znaczy nie jest to ogłoszenie, gdzie pokazują coś, co jest, ale realnie brakuje temu jeszcze bardzo dużo rzeczy do realnego wykorzystania. Ale to jest coś, co właściwie wygląda na to, że można praktycznie używać.

Łukasz Kałużny: Tak, dlatego wiesz, słuchajcie, być może Pato będzie na tym przetwarzane, bo jest pewien element, który właśnie takich pipeline’ów mam na Anthropicu zrobione i może pozbędę się tego brzydactwa, które jest teraz narzeźbiony w make.com.

Szymon Warda: Czyli twierdzisz Łukaszu, że znowu reklamujesz naszego Discorda tak naprawdę?

Łukasz Kałużny: Tak, tak, będzie cała seria na Discordzie w Pato od kuchni. Dobra, kolejny news, jak sobie popatrzymy, to tematyka, ja tylko zarzucę, bo tego jest dużo pod spodem, ale Bedrock dużo też łapie pod RAG-iem rzeczy i automatyzacją RAG-a. Jak sobie zobaczymy to wszystko co ogłaszaliśmy, nawet omawialiśmy w jakimś short’cie, ostatnim short’cie o tym, co AI Search się dorobił w niektórych miejscach, to tutaj się pojawiło. I news, który przy tych ragach mnie najbardziej słuchaj zdziwił: Amazon Bedrock Knowledge Bases now support GraphRAG, first fully-managed GraphRAG.

Szymon Warda: Wiesz co, a mnie to właśnie nie dziwi, bo liczba artykułów i postów opisujących właśnie użycie baz graphowych, które pasują idealnie, bo bazy graphowe można używać w kontekście właśnie tam wyszukiwania ścieżek, ale też właśnie w kontekście budowania bazy wiedzy…

Łukasz Kałużny: I automatycznej ekstrakcji, jak masz gdzie to zrobić. Inaczej, to jest rzecz, która przeskakuje np. Microsoft w tym miejscu, jak zacznie działać.

Szymon Warda: Zgadzam się jak najbardziej, ale to jest w ogóle, to jest cały AI jest jak zesłanie po prostu z nieba dla baz graphowych, które miały bardzo wąskie wykorzystanie.

Łukasz Kałużny: Teraz mają bardzo szerokie.

Szymon Warda: A teraz po prostu jest: dajcie nam i super, że to umie. Super, że wchodzi, bo to jest po prostu dobry przypadek użycia na tę bazę. Tak.

Łukasz Kałużny: Drugą rzeczą, która się tutaj pojawia, to w Bedrocku też się pojawi właśnie użycie konektorów do tych ragów. Więc to jest taka pierdoła, która cieszy. I ostatnią rzeczą, która mi się rzuciła, to w kontekście ragów, słuchaj, to będzie LLM-as-a-judge w Bedrocku do ewaluacji wyników.

Szymon Warda: To ja będę miał jeszcze coś innego, więc opowiedz.

Łukasz Kałużny: Spoko. To tutaj jest możliwość zrobienia sobie automatycznych testów swojego RAG-a i patrzenia sobie w czasie jak to wygląda i wykorzystywania robienia po prostu scoringu, w jaki sposób, z wykorzystaniem potem oceny, w jaki sposób to wszystko się dzieje. Więc jest to dobre podejście do automatyzacji tutaj. I to jest taka rzecz, z którą będziemy teraz mocno cierpieć, bo przyda się wreszcie zacząć testować jakość tego, w szczególności w czasie czy nie ma degradacji, to, co zrobiliśmy.

Szymon Warda: To dla mnie pierdoła, ale… Znaczy mała rzecz, a cieszy, wykrywanie ryzykownych treści w Amazon Bedrock Guardrails, nie tylko w tekście, ale też i w obrazkach. Mała rzecz, jak ktoś potrzebuje i już jest na Amazonie, to jak najbardziej się przyda.

Łukasz Kałużny: Tak, pierdoła. Ja się zastanawiam, tam się pojawiły jeszcze rzeczy, bo nie omawialiśmy rzeczy, nowe Container Insights się pojawiły w ECS-ie, to z takich jeszcze pierdół, które mogą cieszyć niektórych, jeżeli pracują z tym na CloudWatchu.

Szymon Warda: Pierdół, ale dość mocno promowanych mimo wszystko pierdół.

Łukasz Kałużny: Tak, było jako duży announcement. Zastanawiam się czy coś jeszcze jest z perspektywy, bo tak patrzę na swoje rzeczy… Było tam o halucynacjach i innych rzeczach, ale to już takie pomniejsze feature’ki i feature’y pod spodem. Więc z mojej strony chyba to wszystko. Jedna rzecz, którą tylko polecę, to polecam obejrzeć sesje tego, CTO, jak zawsze dostarcza sesje właśnie Wernera. Zawsze daje tam swoje na temat budowy Azure’a, raczej AWS-a i innych takich rzeczy, Werner Vogel pokazuje. I ma przepiękny tytuł tutaj wyciągnięty na TheNews, takie podsumowanie więc. Ale też polecam obejrzeć całość. 6 lekcji, żeby zachować system prostym.

Szymon Warda: Dobre.

Łukasz Kałużny: To takie dość dobrze podsumowane w tym streszczeniu tej prezentacji, więc w ogóle polecam zobaczyć ją. Inaczej, dla mnie akurat sesje Wernera są takie jak Russinovicha, że to jest taki… Inaczej, nawet jak ten ignite czy build jest do pupy, to sesję Marka warto obejrzeć zawsze, Russinovicha. Tak, tutaj Wernera Vogelsa również.

Szymon Warda: Jeszcze przez bardzo długi czas oglądałem sesję osoby prowadzącej DynamoDB, bo tam było bardzo dużo lekcji odnośnie modelowania noSQL-owego. W tym roku faktycznie tego nie zerknąłem, ale przypomniałeś mi, że bym to nadrobił. Dobrze. Kończymy?

Łukasz Kałużny: Kończymy. To trzymajcie się, na razie.

Szymon Warda: Hej.