#119 Microsoft Build 2024

2024, Jun 07

Sprawdź Patoszkolenia!

➡️ 04.06.2024 Architektura 101

➡️ 18.06.2024 Observability

Cześć! Dzisiaj zabieramy Was w podróż po najnowszym Microsoft Build 2024, gdzie AI jest na każdym kroku, a przyszłość DevOpsów rysuje się w barwach automatyzacji. **Jakie kontrowersje wzbudza Team Copilot i czy faktycznie może zastąpić Scrum Masterów? **Analizujemy najświeższe narzędzia i funkcje – od Azure AI po rewolucyjne zmiany w Kubernetes. Czy AI zdominuje tradycyjne zadania IT? Czy Microsoft rzeczywiście rozpoczyna wojnę z Apple o dominację na rynku urządzeń?

Co jeszcze? Rzucamy wyzwanie najnowszym trendom, próbujemy też odpowiedzieć na pytanie: Czy narzędzia AI faktycznie usprawnią naszą pracę, czy może przeciwnie, spowodują więcej chaosu w projektach IT? Włączcie się do nas, aby dowiedzieć się, dlaczego nawet najbardziej zaawansowane technologie mogą sprawić, że projekt spłonie w niesamowitym tempie. Co nas zaskoczyło, a co rozczarowało? Sprawdźcie, co Microsoft szykuje dla nas w tej edycji Build.

Słuchasz Patoarchitektów dzięki Protopii. Sprawdź, jak Patoarchitekci i Protopia mogą Ci pomóc ➡️ protopia.tech

Słuchasz Patoarchitektów dzięki Protopii. Sprawdź, jak Patoarchitekci i Protopia mogą Ci pomóc ➡️ protopia.tech

Linki i ciekawe znaleziska:

Transkrypcja

Łukasz Kałużny: Cześć, słuchacie Patoarchitektów. Prowadzą Łukasz Kałużny…

Szymon Warda: I Szymon Warda. Wszystkie linki do tego odcinka na górze, na dole, pewnie w opisie albo na Patoarchitekci.io. Łukaszu, szkolenia, tak? Chwalimy się.

Łukasz Kałużny: Tak, szkolenia. Czyli jeszcze macie okazję zapisać się na szkolenie Szymona, jak tego słuchacie, observability. O czym powiesz, Szymonie?

Szymon Warda: Będzie kilka rzeczy właściwie. Jak ułożyć całą straegię, jeśli chodzi o monitoring, czyli coś, co wszyscy chcieliby mieć, z reguły nie mają, a jak mają, to nie wykorzystują. Czyli jak to zaaplikować, jak ułożyć. O tym, jakie mamy możliwości jeżeli chodzi o observability, czyli o tak zwanych debugger IPM-ów, poprzez stos opensource’owy typu właśnie Grafana, Tempo, Loki i Prometeusz. A na końcu jeszcze pobawimy się PIXI. I przede wszystkim powiem o tym, jak to wszystko ułożyć, gdzie to ma wartość, itd. Tyle będzie, ciekawie.

Łukasz Kałużny: Jednodniowe szkolenie 18 czerwca przez Teamsy na żywo, to nie żadne nagrywane. Resztę szkoleń znajdziecie na Patoarchitekci.io/szkolenia. W części jesiennej będzie parę master class takich jak Container Appsy, które prowadzimy razem z Szymonem, więc nietypowe. Szkolenie z networkingu AKS-a, albo tematy trochę poza, czyli modelowanie danych i Kubernetes Hard Way i zapraszamy. Dobra, o czym dzisiaj?

Szymon Warda: Build, build, build.

Łukasz Kałużny: Dobra, to dzisiaj poznęcamy się nad Confą Microsoftu “Build 2024”.

Szymon Warda: Tak i z taką formułą, że daliśmy sobie limit na ile rzeczy AI-owych może być, bo to nam odcięło połowę tematów tak naprawdę.

Łukasz Kałużny: One gdzieś tam się przemycają.

Szymon Warda: Przemycają się, bo faktycznie jest tego dużo. Mam wrażenie, że MS jest teraz na takim etapie, że dokleja AI-a wszędzie i patrzy gdzie to się przyda tak naprawdę, ale zobaczymy. Łukaszu, co masz tam?

Łukasz Kałużny: Wiesz co, ja bym tak w ogóle zaczął, bo poszedłem sobie po nagłówkach serwisów, które bardziej dostarczają newsy, pod finanse, inwestowanie i inne tego typu rzeczy i biznesowe. I tam wybiły się dwie rzeczy, co jest ciekawe. Czyli pojawił się, to co zostało ogłoszone, to Team Copilot. Ty ponoć masz feature, który Ci się tam podoba. Team Copilot z założenia to ma być ustrojstwo, które nas wspomoże w pracy zespołowej i będzie przybierać różne role, jak moderator spotkań, współpracownik, menadżer projektu. Polecam zobaczyć dema.

Szymon Warda: Czekaj, Ty właśnie mówisz nazwę, ale nie mówisz dokładnie co to będzie. Tam są prawdziwe perełki. Meeting będzie facilitował spotkania i robił notatki. No to brzmi sensownie jakoś tam. Group Collaborator, podsumowanie chatów i odpowiedzi na niedopowiedziane pytania i śledzenie niezaadresowanych problemów. To już jest takie…

Łukasz Kałużny: Dobre.

Szymon Warda: OK. Ale teraz prawdziwą perełką dla mnie jest Project Manager.

Łukasz Kałużny: I powiedz dlaczego?

Szymon Warda: Opis tego brzmi tak: Copilot will ensure every project runs smoothly by creating and assigning tasks, tracking deadlines, and notifying team members when their input is needed. Czyli przypisuje taski, pinguje ludzi, że jest jakiś task i się coś od nich chce. W sumie to eliminuje jakieś 90% pracy większości PM-ów jakich znam.

Łukasz Kałużny: Wiesz co, ja wiem co zrobimy. Przepraszam, to jest już opatentowane, Scrum Master Copilot.

Szymon Warda: Tak, Ty się śmiejesz generalnie, ale wydaje mi się, że w tym kierunku to idzie. Tak.

Łukasz Kałużny: Ale przepraszam, jeżeli ktoś jest Scrum Masterem, proszę się nie obrazić, ale 99% Scrum Masterów właśnie zostało zastąpionych.

Szymon Warda: Tak, ale chciałbym zobaczyć, oczywiście nie na stałe, bo to może być prawdziwy horror, projekt, w którym to jest aktywnie używane. I reakcje developerów jak Copilot zaczyna ich bombardować taskami, które zostały omówione bez jego wiedzy, np. po prostu przy biurku, itd.

Łukasz Kałużny: Na spotkaniu.

Szymon Warda: Wydaje mi się, że to spłonie w niesamowitym tempie jak tylko się pojawi. Ogólnie idea jest ciekawa. Wydaje mi się, że zbyt dużo rzeczy dzieje się na poziomie ludzkim, więc to po prostu nie nadąży, a szczególnie przypominanie ludziom i śledzenie niezaadresowanych tematów. To będzie bardzo wesoło generalnie. Ale tak, biedni mają się o co martwić.

Łukasz Kałużny: To będzie wesołe. Drugą rzeczą, która się pojawiła całości tutaj jaki był przekaz, to jest Copilot + PC. Jego mać, nazwali nowe Surface’y w ten sposób z wykorzystaniem procków od Qualcomma. I teraz co jest ważne? Tam dwa takie nagłówki się pojawiają. Czyli jedno, że Qualcomm zakłada się, robi bet właśnie, że poprzez AI wyrzuci Intela trochę z rynku procków, w szczególności mobilnych, takich dla laptopów. I to jest jeden taki zakład. Drugi zakład, raczej drugi nagłówek jest taki, że Microsoft idzie na wojnę z Applem, jeżeli chodzi o device’y.

Szymon Warda: Mnie w tym temacie Copilot PC dużo bardziej martwi inny temat. To jest to, że właśnie Copilot for PC ma screen recordera, który raz na jakiś czas robi zdjęcia desktopa, żeby lepiej rozumieć. I dla mnie w tym momencie np. opcja, że logowanie, wpisanie jakiegokolwiek hasła u kogokolwiek na nie swoim komputerze, albo cokolwiek to jest de facto keylogger. To jest przerażające tak naprawdę. Więc jestem ciekawy jak to się rozwinie i jakie będzie użycie tego w organizacjach i podejście bezpieczeństwa w tym temacie.

Łukasz Kałużny: Bo to będzie w ogóle ciekawa rzecz. Warto dodać, że jeszcze Copilot, bo ja się śmieję, że tylko Microsoft, ale de facto producenci oczywiście wypuszczają też na ARM-ach portfolio komputerów Copilot+ + to co powiedziałeś ten Copilot wbudowany. Jedne z takich zapowiedzi, które się gdzieś przemrukują, zobaczymy jak to będzie w praktyce, że te modele rzekomo duża część ma być odpalana, wykorzystywana lokalnie.

Szymon Warda: Tak i te dane załóżmy odnośnie ekranów są przechowywane lokalnie. Czym tym niemniej jednak…

Łukasz Kałużny: Tak, komputer staje się coraz bardziej personalny.

Szymon Warda: Tak, powiedzmy zalogowanie się np. na swoje konto jakiekolwiek, mailowe czy cokolwiek na czyimś komputerze w tym momencie staje się totalnym nie.

Łukasz Kałużny: Albo potrzeba, żebyś już miał drugi komputer, a nie tylko pracowy.

Szymon Warda: Też między innymi, to też będzie pewnie zarządzane jakoś generalnie na poziomie organizacji. No to jest ciekawy temat, nazwijmy to tak.

Łukasz Kałużny: Tak i to są chyba dwa takie największe elementy, które się pojawiają, z Keynote’a Buildowego, które przeszły przez nagłówki, tak realnie.

Szymon Warda: To mi się bardzo podoba fakt, że totalnie inaczej do tego podeszliśmy. Bo co mnie ucieszyło? Dwie rzeczy. Pierwsze to jest dokumentacja i ogłoszenie, że uporządkowane zostały referencyjne Landing Zone, weszły zmiany dla Well Architecture Framework i w Architecture Center też cały jest opis jak tworzyć aplikacje z całym deploymentem RAG-u, itd.

Łukasz Kałużny: Jak RAG-i, głównie do RAG-ów, dużo w RAG-ach niby uporządkowali.

Szymon Warda: Tak. Czy ta referencja Landing Zone jest super? Wydaje mi się, że robiliśmy lepsze, nie chwaląc się, ale tak. Jest poprawna, jest ok. Parę rzeczy w kontekście załóżmy np. billowania, mierzenia, mierzenia użycia, itd., można by zrobić lepiej, ale w pełni rozumiem czemu tak to zrobili. Bo jest ok.

Łukasz Kałużny: Mówisz na AI-owej, co ważne.

Szymon Warda: Tak, dokładnie, jak to ładnie mierzyć, więc to jest ok. Druga rzecz, która mnie ucieszyła też, to jest dalszy rozwój w kontekście Fabrica. Mnie tu cieszy to, że MS po raz kolejny nie wymyślił kolejnego nowego środowiska do danych, bo ma do tego pewną tendencję.

Łukasz Kałużny: I zauważ, że Fabric, to co kiedyś już mówiliśmy, jak zostało ogłoszone, że on po prostu skleja usługi Azure’owe w offering SAS-owy.

Szymon Warda: Zgadzam się w zupełności, ale MS mimo wszystko, że już miał usługi, które sklejały inne rzeczy, czasami miał tendencję do tworzenia nowej usługi, która skleja wszystko. Ale co doszło do Fabrica? Real-Time Hub i wsparcie dla Event House and Real Time Dashboards. Ogólnie chodzi o to, że dorzucony został streaming do Fabrica i obsługa danych, które będą wpływały w czasie rzeczywistym. Fajnie, że to się rozwija, bo Fabric jako idea, że dane są w tym miejscu, że OnePlain, że ten…

Łukasz Kałużny: OneLake.

Szymon Warda: OnePlain, że mamy ładny governance wokół tego, to jest świetny pomysł. Cieszy mnie bardzo dalszy rozwój, głównie w kontekście, pod AI-ja to jest wszystko robione, także super.

Łukasz Kałużny: Dobra, ja jeszcze takie parę rzeczy, które z Keynote’a sobie wziąłem z innych tych, jeżeli chodzi o rzeczy AI-owe i na tym skończymy w tej układance. Poza jakimiś drobnymi wspomnieniami przy usługach, jeżeli będzie coś wartego. To pierwsze, to bardziej tylko odnotowanie, że GPT-4 Omni Model, 4O, pojawiło się w usługach Azure’owych jako preview w open AI-u. To jest jeden taki news. Druga rzecz, która się pokazała, która jest ciekawa, to jest GitHub Copilot Azure Extension. Czyli żeby Copilot rozumiał rzeczy azure’owe i działał Across Infra na skrzyżowaniu Infry i Twojego Code Base’u, żeby pomóc troubleshootować. I to jest ciekawa rzecz.

Szymon Warda: To powiem szczerze, że mnie dużo bardziej zaciekawiło, jak już mówimy o takich rzeczach trochę mniejszych, rozszerzenie możliwości edukacyjnych, które Microsoft zaoferuje i zarówno szkołom jak i nauczycielom, itd., dostępy do modeli i adopcję dużej ilości modeli dość. To jest ciekawe.

Łukasz Kałużny: Wiesz co, ja też mam to wyróżnione, czyli ten mały model SLM Microsoft Phi trójka. I oni to właśnie ogłosili. To jest ciekawa rzecz, którą będziemy… Inaczej, małe modele, ja sądzę, że inaczej one zaraz zaczną znajdować miejsce do wyspecjalizowanych elementów, żeby używać tego do wyspecjalizowanych rzeczy.

Szymon Warda: Dobra, to śmigamy, coś jeszcze masz z takich rzeczy AI-owych czy lecimy dalej?

Łukasz Kałużny: Wiesz co, tak, jeszcze jedna rzecz, która była pokazana, na którą czekam. Takie tam przykłady. Ale Copiloty w grach, LLM-y w grach. Jedna rzecz raczej jest ciekawa, bo wiesz, rozszerza bardzo możliwość interakcji z graczem. Tylko proszę zróbcie to w tym, nie używajcie LLM-ów, tylko zbudujcie małe modele, żeby gra działała za parę lat, a nie w trybie tylko subskrypcji i mikropłatności.

Szymon Warda: Ja się bardzo boję użycia LLM-ów w kontekście wszelkiej interakcji z NPC w grach typu RPG.

Łukasz Kałużny: Właśnie to jest to, co chce…

Szymon Warda: Przerażające po prostu, bo to będzie masę gadania i nie dojdziemy co i jak. Tę dwójkę w kontekście takim, że można o wszystkim rozmawiać, to brzmi absolutnie przerażająco.

Łukasz Kałużny: Tak, dobra. I ostatni taki czysto AI-owy news, przedostatni, przepraszam, to są custom generative. I to jest właśnie kwintesencja całego Builda. Czyli kazali coś, co coming soon to preview. Ale założenie jest takie, że będzie można na podstawie pojedynczych dokumentów przeprowadzić nas przez tworzenie całego labelowania, przygotowania obsługi na bazie dokumentu, między innymi dokumentów, obsługi, żeby model wytrenować i zaadaptować do swoich potrzeb.

Szymon Warda: Widziałem to, w opisie brzmi ciekawie. Jestem bardzo ciekawy jak to będzie wyglądało, bo takie opcje typu, że z pojedynczego dokumentu wyciągamy schemat, itd., już mieliśmy podejścia bez AI-a i to z reguły średnio działało.

Łukasz Kałużny: Właśnie i tutaj to może być ciekawe.

Szymon Warda: Tak, więc i ja tutaj jestem sceptykiem. Poczekam aż to ruszy i się tym pobawię.

Łukasz Kałużny: Dobra. I w tym całość Azure AI Studio poszło wreszcie w GA-a, to można było oczekiwać. Tak Szymonie?

Szymon Warda: W ogóle cały rozwój odnośnie Azure AI Studio jest też dość ciekawe, bo to jest produkt, który już ma trochę i tak rozwinął się bardzo mocno.

Łukasz Kałużny: Raczej tak, dokładają kolejne rzeczy. Zobaczymy jak z funkcjonalnością na koniec dnia, czyli i tak skończysz na kodowaniu w Pythonie.

Szymon Warda: Tak, ale łatwiejszym.

Łukasz Kałużny: I ostatnia rzecz, to też te małe modele Phi trójka dostała multi modala i to jest ciekawe. Podsumowując, to jest dla mnie w ogóle najciekawsza rzecz z tego, z całości.

Szymon Warda: W ogóle tych modeli jako takich, to doszło bardzo dużo tak naprawdę. Nie ma sensu ich teraz wymieniać, ale MS idzie na szerokość. To dobre podejście, że nie tylko Chat GPT istnieje i open AI.

Łukasz Kałużny: Dobra, powiedz co wybrałeś nie AI-owego?

Szymon Warda: Dobra, to rzecz, która mnie chyba ucieszyła najbardziej z takiego czysto praktycznego podejścia, to są zmiany w App Service’ach. Poważnie. Bo czemu? Mimo że to jest cholernie już leciwa usługa, nie oszukujmy się, to trochę, ale działa, po prostu działa dobrze. Tak jak patrzymy na przykład na naszych klientów, to ona dalej ma swoje miejsce.

Łukasz Kałużny: Jest pierwszym wyborem.

Szymon Warda: Tak, pierwszy wybór często tak naprawdę i coraz więcej klientów odsuwa się od Kubernetesa na rzecz połączenia App Service’ów z np. Container Appsami, bo to jest taki low maintenance fajny wybór. I co tam weszło? Sidecary do monitorowania observability, itd. Zmiany w webjobach, które wreszcie mają być takim obywatelem pierwszej kategorii, a nie tylko tam z boku, jak ktoś wie gdzie kliknąć. Autoscaling dochodzi w GA. Availability Zone, dzięki czemu dochodzimy do czterech dziewiątek, czyli 99,99 dostępności i TLS 1.3. Naprawdę, jeżeli mówimy o usłudze, która może mieć dostępność 99,99 bez prawie żadnego wysiłku? Świetne!

Łukasz Kałużny: Ja Ci powiem tak, z tych całych rzeczy mnie całościowo, powiedzialeś tak, fajnie, że się rozwija. Autoskalowanie spoko. Najważniejszą rzeczą są te webjoby w ten sposób jak je pokazano. Bo zobacz, że jak teraz, bo zawsze mieliśmy wybór, że App Service, przez ten model, który był webjobów wcześniejszy, zawsze było: jeżeli musisz zrobić jakiegoś konsumera u siebie, to niestety pójdź w Container Appsy. To był przez ostatni rok. A teraz, jeżeli masz trzy serwisy na krzyż, które nie muszą się komunikować, tylko jeden wystawia API, reszta jest jakimiś background taskami właśnie, to odpowiedź jest taka: po co Ci Container Appsy, idź w App Service.

Szymon Warda: Dużo łatwiejszy, prostszy, potencjalnie tańszy, mniejszy koszt utrzymania, bardziej elastyczny, łatwiejszy do monitorowania. Działa, naprawdę działa i działa dobrze. Także naprawdę zmiany w App Service’ach mnie ucieszyły bardzo mocno. Szczególnie, że to jest jawny sygnał, że to jest usługa, która dalej jest rozwijana, a nie tylko coś co tam otrzymamy, jakieś stare aplikacje na Windowsie i nic więcej z tym nie robimy. Tak że super. Co u Ciebie?

Łukasz Kałużny: Dobra, to lecimy do wspólnego kolejnego punktu, czyli functions.

Szymon Warda: Też.

Łukasz Kałużny: I functions, ja mam dwie rzeczy stąd i jedną podśmiechujkę tak zwaną. Zacznijmy od tej, która jest dla mnie najbardziej ciekawa. To jest nowy coś, co czekałem, że będzie można o tym zacząć rozmawiać, bo widziałem to już kilka dobrych miesięcy temu, czyli Flex Consumption. Czyli wreszcie dostajemy serverless, który ma networking.

Szymon Warda: Najważniejszy element z tego wszystkiego, tak.

Łukasz Kałużny: Tak.

Szymon Warda: Wyjaśnimy czemu to jest ważne? Bo tak naprawdę w modelu konsumpcyjnym to były funkcje, które były dostępne tylko i wyłącznie publicznie. Co fajnie, jeżeli robimy mały serwisik, to jest spoko, ale w jakimkolwiek rozwiązaniu korporacyjnym, czy też firmowym, z reguły chcemy tą funkcję ukryć sieciowo. No i w tym momencie wchodziliśmy w premium albo Elastic, albo jeszcze dedicated mode.

Łukasz Kałużny: Tak i tutaj zabawa zaczyna się taka, że dostajemy Consumption, ale wpięte do własnej sieci. I to była największa wada, bo np. lambdy dało się tanio wpiąć w AWS-ie czy we własną sieć. W Microsofcie było powiedzenie sobie, że musisz niestety wjechać w Container Appsy, jak chcesz mieć skalowanie do zera.

Szymon Warda: I jeszcze jedna rzecz fajnie doszła, to jest to, że jak to jest model, który konsumpcyjny de facto, to w tym wchodzimy też, że mamy możliwość instancji always ready, czyli mamy trochę to, co mamy z tego modelu elastycznego…

Łukasz Kałużny: Premium.

Szymon Warda: Tak, premium to było. Więc ten cały problem, że rozgrzewanie cold startu nam ucieka.

Łukasz Kałużny: I druga rzecz to jest wspólna. To jest pierdoła, ale może być ciekawa, jak ktoś stwierdzi, że ma za dużo tych funkcji i chce sobie to inaczej zrobić. To functions na container Apache również poleciały w GA. To jest pierdoła, ale jest ciekawa. I teraz zrobię dwie podśmiechujki Szymonie, nie wiem czy to widziałeś czy wyrzuciłeś. Pierwsze, Open AI dla Functions SDK, żeby łatwo bindować obiekty. No sorry, po co to komu? Musieli dodać AI do ogłoszeń.

Szymon Warda: Tak, to samo chciałem powiedzieć. Musieli, więc dodali, jest.

Łukasz Kałużny: Drugie, Russinovich chyba za bardzo na wszystkich naciskał, bo dodali Dapr Extension do Azure Functions.

Szymon Warda: To był mój własny zakład, że tego Dapra tam dorzucisz. Dla mnie to ma jakiś tam swój sens. Przy czym problem tam jest taki, że de facto funkcje są już agnostyczne względem bardzo wielu rzeczy. Więc tak, ok, no nie, jest.

Łukasz Kałużny: Dobra, co Ty masz dalej?

Szymon Warda: Dobrze, co tu wchodzi dalej? Dla mnie zmisny w AKS-ie. Bardzo mi się podoba tak zwany tryb automatyczny. Czyli co to jest? To jest tryb, który sobie włączamy i w tym momencie Microsoft, po pierwsze, nakłada best practices na naszą instancję. I to byłoby proste, można by to zrobić z template’u. Ale co więcej? Potem dalej, aplikuje i monitoruje, żeby klaster miał zawsze najnowsze best practices zaaplikowane. I to jest świetne.

Łukasz Kałużny: To jest inaczej. To jest to samo co jest automatyczny tryb w GKE.

Szymon Warda: Dokładnie, ale to jest po prostu ułatwienie życiowe dla kilku sytuacji i to jest po prostu fajna rzecz, że to zrobili.

Łukasz Kałużny: I przy okazji zapraszam, na szkoleniu prawdopodobnie w październiku również, to już poruszymy na bardziej wygrzanej wersji.

Szymon Warda: Tak i druga rzecz to jest to, że dorzucili Kedę w portalu.

Łukasz Kałużny: Tak i to jest taka rzecz… Wiesz co? Ok, w sensie chciałem to hejtować, ale wiem, że ludzie lubią graficznie popatrzeć, więc zostawmy to i się nie czepiajmy.

Szymon Warda: To wyjaśnimy jeszcze czym jest KEDA. KEDA jest projektem opensource’owym. Kubernetes…

Łukasz Kałużny: Event-driven Autoscaling.

Szymon Warda: Tak, to jest zbiór różnych pluginów, z których też aplikując to MS też stworzył Container Appsy. Takich rzeczy, które są fajne, to jest chociażby Autoscaler oparty na Cronie. Fajna sprawa, że można przeskalować klaster w dół.

Łukasz Kałużny: Tak, raczej inaczej, Kubernetes dostaje triggery z Functions do wyskalowania. To jest tak w skrócie.

Szymon Warda: To nie jest nic magicznego, ale fajnie, że jest.

Łukasz Kałużny: Dobra, z rzeczy, które są dobre, które się jeszcze pojawiły. Jeden to Kubernetes Fleet Manager poszedł sobie w GA, czyli zarządzanie klastrami AdScale.Jjeden jest taki, że możesz robić scheduling na wiele klastrów. To jest pierdoła, ale nie musisz już używać do tego opensource’u, jeżeli chcesz to zrobić z jednego miejsca. O zasadności będę się kłócił, ale to w innym miejscu, takiego podejścia. Drugi, który mnie cieszy, to jest możliwość zrobienia Release Traina, jeżeli chodzi o upgrade’y i update’y klastrów. Czyli nawet przy automatycznym update’owaniu możemy sobie powiedzieć, że jest środowisko dev, test, preprod, prod i że update sobie przechodzą, wersja klastra jest podbijana po kolei. I to jest ciekawa rzecz do automatyzacji Operations.

Szymon Warda: Mnie w ogóle ciekawi to, że już nie są dorzucane super nowe feature’y do AKS-a, tylko bardziej w tym jak zacząć zarządzać tymi klastrami AKS-owymi. To jest dobry kierunek, zdecydowanie.

Łukasz Kałużny: Tak, czy przed Buildem te optymalizacje kosztów, które gdzieś tam w shortach wspominaliśmy. Dobra i ostatnia rzecz, która zabiera mi pracę, jeżeli ludzie będą to odpalać, to jest deployment save guards enforcement, czyli zestawy polityk, które aplikują best practice na nasze aplikacje, nie pozwalają ich wdrożyć jak są skopane. Czyli właśnie ilość replik, liveness probes, limity i inne tego typu zabawki.

Szymon Warda: Łukasz, ale to jest inna opcja. Po prostu ludzie pewnie będą to wyłączali domyślnie, bo będzie im przeszkadzało…

Łukasz Kałużny: I trzeba będzie naprawiać.

Szymon Warda: I będą chcieli naprawić to. Tak to wygląda z reguły.

Łukasz Kałużny: Nie, to trzeba włączyć, więc to jeszcze gorzej. Dobra.

Szymon Warda: DevOpsi włączą na starcie, potem developer wyłączy, potem trzeba będzie włączyć ponownie.

Łukasz Kałużny: Dobra, wiesz co, to wróćmy teraz do Container Appsów, jak już jesteśmy przy części aplikacyjnej.

Szymon Warda: Dobrze, dobrze, dobrze, dobrze.

Łukasz Kałużny: To ja bym rzucił, zacząłbym od tego, że Microsoft, oczywiście Aspire, który tam się przewija, z którego szydzimy. Tłumacząc, Aspire to ma uprzyjemnić pracę developera i skopać nam produkcję. To jest do tego produkt. Czyli odpal w łatwy sposób usługi Azure’owe z kodu swojego .Neta i miej łatwe środowisko lokalne developerskie. Ale jak spróbujesz zrobić tego deployment na żywym organizmie, to już nie będzie tak ładnie. Tak, podsumujmy tą usługę w tym momencie. Kod mojej aplikacji nie powinienem powoływać infry, ale zobaczymy jak do tego dojdą, bo już coś przebąkują o toolu, który będzie służył do provisioningu tej infry. Koło na nowo. Dlaczego o tym mówię? Bo pojawił się w dashboardzie, pojawiła się integracja Aspire z Container Appsami. Bo jest tam dashboard, to jest przyjemna część, dashboard + takie podstawowe, obsługa open telemetry, żeby zobaczyć ze swojej apki bez stawiania wszystkiego. I pojawił się dashboard, który pozwala podłączyć się do Container Appsów i te appki Aspire’owe, korzystające z Aspire’a, pokazywać ich właśnie statystyki i całość w jednym miejscu.

Szymon Warda: Tak, jak mówisz o monitoringu, itd., to jeszcze support dla Javy.

Łukasz Kałużny: Tak i jest rzecz, których nie było w oficjalnych newsach, raczej w oficjalnych, nie była wrzucona, ale pojawia się Open Telemetry Collector szeroko wbudowany. Co jest taką rzeczą, która z założenia będzie pięknie pomagała zrobić całość. Jest to rozszerzenie tego Open Telemetry Agenta, który ma się wstrzykiwać w całość.

Szymon Warda: Tak, w ogóle akurat w tym obszarze fajnie, że to rozwija, bo się faktycznie przyda.

Łukasz Kałużny: I zautomatyzuje. Dobra i ostatnia rzecz, to jest rzecz wymuszana między innymi przez LLM-y, ale my kiedyś taki projekt robiliśmy również na innych usługach azure’owych. To Dynamic Sessions, czyli kawałek kontenera powoływany na chwilę np. żeby wykonać jakiś kod i zrobić np. czy kod z LLM-a działa. Albo zrobienie jakiegoś bezpiecznego runtime dla użytkownika, gdzie może odpalić swój kod. To jest taka ciekawa, ciekawa pierdoła, która widać na jakich usługach Microsoft buduje swoje. Czyli Container Appsy zaczynają zastępować trochę AKS-a w całości jako building block.

Szymon Warda: Normalny kierunek i dobry. Dobra, to się teraz wstrzelę moimi rzeczami generalnie. Jest, mam wreszcie. Parę rzeczy, znowu pierdołowate - Azure Static Web Apps. Co doszło? Network Isolation Residency, czyli określamy co gdzie chodzi, podkręcony limit dla domen i always on. Czemu mnie to cieszy? Bardzo prosta opcja. Static Web Apps są bardzo fajną usługą i doskonale wiemy to nawet po naszych klientach, że to jest usługa, że niektórzy powinni z tego korzystać, im trochę by życie ułatwiło. Ale cieszy mnie, że Static Web Apps nie są takim jednorazowym strzałem, tylko faktycznie są rozwijane. Świetny ruch, jak najbardziej.

Łukasz Kałużny: Dobra, to weźmy teraz Azure Logic Appsy.

Szymon Warda: To samo właśnie chciałem polecieć, bardzo dobre.

Łukasz Kałużny: I słuchajcie, dwie rzeczy, które mi się tam, to są pierdoły, które mi się rzuciły w oczy. Raczej pierdoła, jedna, z mojej perspektywy jedna, Ty pewnie resztę sobie wziąłeś. Ale konektory do mainframe’ów, do softów mainstreamowych.

Szymon Warda: To, na to też zwróciłem uwagę, bo skoro one wjechały, znaczy że była duża potrzeba na nie.

Łukasz Kałużny: Raczej, że Logic Appy są tą częścią tego Integration Passa.

Szymon Warda: Tak i w ogóle same Logic Appy mają dość sporo możliwości integracji z Onpremem, tak że powinno dziwić. Ale fajnie, że się pojawiło. Mi dużo bardziej spodobały się całe zmiany pod CI/CD i taki development. Lepsza integracja z kodem, lepsze skryptowanie do wsparcia CI/CD, zero downtime deployment. Naprawdę ta usługa została całkiem ładnie podkręcona i mam nadzieję, że w końcu będzie takim First class Citizen.

Łukasz Kałużny: A i wiesz co? I aprops jeszcze Passa, bo Logic Appsy są w dwóch wersjach. Jest taka stara, Consumption i jest nowa, która jest hostowana na App Service’ach, czyli Standard. I do tej Standard również wjechały, do GA też widać, że przeciskają wszystko, bo wjechało EDI jeszcze więcej rzeczy związanych w GA z EDI. To jest taka pierdoła, ale…

Szymon Warda: Łukasz, wyjaśnij tylko to.

Łukasz Kałużny: Elektroniczna wymiana danych - Electronic Data Interchange. Cieszcie się, jeżeli tego nie znacie, bardzo dobrze, nie wchodźcie w ten grajdołek. Ale są to pozostałości po starych, dobrych Enterprise Service Busach do integracji.

Szymon Warda: Ale też jedna rzecz, .Net Custome Code Support, czyli akcje mogą wołać… Akcje zawierające customowy kod w .Necie 8.0. Pierdoła, ale też cieszy.

Łukasz Kałużny: Tak, dla Standardu, ważne, że dla Standardu.

Szymon Warda: Tak, dobrze. Która usługa dalej?

Łukasz Kałużny: Load testing.

Szymon Warda: O, wybrałeś to, to proszę.

Łukasz Kałużny: Wiesz co, w Load testingu jedna rzecz mi się rzuciła w oczy, rozszerzają silniki do testowania. I pojawił się support dla Locusta.

Szymon Warda: Widziałem i jakoś mnie to tak nie porwało, więc ominąłem ten fragment.

Łukasz Kałużny: Ok, ale dla mnie to jest, wiesz co, bardziej jest pokazanie, zobacz, że usługa, bo zaczęli… Bożesz, ale mam dziurę, teraz pod spodem, jakie jest najpopularniejsze rozwiązanie do benchmarkowania, do testu, do load testów?

Szymon Warda: Teraz mnie też wypadło.

Łukasz Kałużny: Dobra, porażka, zapomnijcie o tym. Ale chodzi o to, że rozszerzają silniki. Czyli to oznacza, że ta usługa zaczyna wchodzić w coraz to nowe obszary.

Szymon Warda: Chodziło Ci o JMetera?

Łukasz Kałużny: JMeter.

Szymon Warda: Poprzednio dorzucili import, jego scenariusze.

Łukasz Kałużny: Tak i on był od początku… Raczej był od początku JMeter, a Locus pokazuje, że usługa się prężnie… Jeżeli dodajesz następną rzecz, to usługa się rozwija i jest zapotrzebowanie.

Szymon Warda: Dobrze, to ja z czym innym, Azure Developer Environments dostaje wsparcie dla Pulumii.

Łukasz Kałużny: Rozumiem, że przez słowo “pulumi” to wybrałeś?

Szymon Warda: Tak, absolutnie wybrałem to przez słowo “pulumi”. Ja przyznaję się, że nie do końca rozumiem fascynacji Pulumi i czemu to powstało i ta cała idea, żeby w jednym języku mieć wszystko. Nie, nie do końca. Nie mój zestaw sztućców, że tak powiem. Ale dochodzi, jestem bardzo ciekawy, jak bardzo się rozwinie i czy faktycznie to będzie wyglądało tak jak było wsparcie dla Terraforma inicjalnie, że ono było ale, no ale… Ale co jeszcze doszło do Azure Deployment Environments? Katalogi i single click templates, czyli takie trochę. Możliwość stworzenia platformowych deploymentów, bym powiedział i katalogu tego, co można zdeployować. Więc to jest akurat fajne. Pulumi, no niech będzie. Jestem ciekawy czemu to zostało wprowadzone? To mnie najbardziej ciekawi.

Łukasz Kałużny: Bo, inaczej, pod ramię z Terraformem, która się zaczęła, ludzie też zaczęli patrzeć na Pulumi między innymi. A drugi odwrót, kodujmy w swoim języku infrastrukturę.

Szymon Warda: Niech będzie. Co tam jeszcze masz?

Łukasz Kałużny: Wiesz co, jeszcze jedna rzecz - Deployment Environments. Ja w ogóle tego wyrzuciłem, bo popatrzyłem, miałem właśnie zaszydzić z tym, że coś takiego się pojawiło, ale ciągle zastanawiam się nad taką pełną zasadnością tej usługi.

Szymon Warda: Inaczej feature, który wprowadzili, brzmiał sensownie, poza Pulumi. Reszta? Zobaczymy.

Łukasz Kałużny: To co, usługa, która powstała przez AI-a jest computingowa.

Szymon Warda: Wiem chyba o której mówisz. Lecisz.

Łukasz Kałużny: Microsoft Azure Compute Fleet, czyli powołaj mi 10 000, 1000 VM-ek na raz i poszukaj dla niej zasobów w całym Azure.

Szymon Warda: Czyli żeby dać konkret, to ta usługa nie 10 000, tylko do 100 000 maszyn może powoływać się w Azure.

Łukasz Kałużny: Czekaj, to było aż 100…

Szymon Warda: Aż 100 000.

Łukasz Kałużny: Faktycznie, że target capacity in… Compute Fleet in region, tak, across all Compute Fleets. A, wiem dlaczego powiedziałem 10 000. Bo jest tak, że możesz mieć w jednej flocie, w zadaniu możesz mieć 10 000 VM-ek, dlatego.

Szymon Warda: No ok, ale ogólnie rzecz biorąc to jest o tyle ciekawostka, że po pierwsze, muszą faktycznie być klienci, a po drugie, mimo tam jakiejś tam powiedzmy szydery, to też dla nawet mniejszych zestawów daje możliwość doprecyzowania jakichś szablonów, jakie maszyny. Trochę lepsze zarządzanie tworzeniem tych VM-ek, nawet jeżeli nie potrzebujemy ich w tysiącach. Więc może nie szydera, fajna usługa, mało kto będzie z niej korzystał, ale dobrze, że jest.

Łukasz Kałużny: Pokazane scenariusze mnie dziwi trochę, bo całość jest mowa, kurde mam z tym problem, bo pokazuje, to jest taki Azure Batch na sterydach. Jeżeli popatrzymy, taka bardzo stara usługa.

Szymon Warda: To samo skojarzenie. Nie powiedziałbym, że na sterydach, bo Batch jeszcze ma swoje Azure Batch Studio skierowane bardziej do osób nie DevOpsowych, nie Opsowych, tylko właśnie do Data Scientistów. Więc Batch jest trochę inną usługą.

Łukasz Kałużny: Szymon, jeszcze w Batchu, bo ja wiesz, siedziałem przez chwilę przy scenariuszach HPC w Azure i Batch też ma, zapomniałem jak się nazywa produkt, który Microsoft kupił, bo to już jest używane, raczej open source, który tam kupił firmę chyba… Jakoś tam było z całością, nieważne. Ale miał scheduling zadań i klastrów do przetwarzania, do MPI-a, miał właśnie zrobione na Batchu. Więc to też. Sądzę, że to jest po prostu, wiesz, Azure w tą stronę, to, co było na Batchu, być może zmerge’ują to do tej usługi po prostu, żeby uszczuplić portfolio docelowo.

Szymon Warda: Myślę, set up Batcha jest dość upierdliwy, to muszę powiedzieć, bo faktycznie wykorzystywałem go trochę i potrafi być takie trochę, jak to ładnie Anglicy mówią, intimidating.

Łukasz Kałużny: Dobra, co u Ciebie?

Szymon Warda: Dobrze, Azure Container Storage. Kolejna rzecz wchodzi w GA, bo już preview było i nawet chyba o tym mówiliśmy w ogóle. Czemu? Kolejna opcja, żeby ułatwić zarządzanie klastrami AKS-owymi, bo pod to głównie jest stworzone. Storage pod Kubernetesa, możemy różne usługi, jeżeli chodzi o dane, pod to podpiąć. Po prostu ułatwia życie. Tyle. Jest w GA, więc można śmiało korzystać.

Łukasz Kałużny: Tak i całość po prostu ma różne rodzaje, czyli Azure, Elastic, SanDisk i efemeryczne ma pozwolić wykorzystać z tego i skorzystać również z lokalnych NVMe, SSD jak i właśnie tych rozproszonych, więc całość jest ciekawą rzeczą. Można też dowalić trochę wydajności, jak masz na takich lokalnych dyskach, to budujesz i replikujesz.

Szymon Warda: Dokładnie. Co u Ciebie?

Łukasz Kałużny: ARM-owe VM-ki na Cobalcie, które… Bo o tym mówiliśmy, że Microsoft inwestuje w krzem i w preview pojawiły się, czyli te zapowiedziane maszyny, które były zapowiedziane na Buildzie… Nie na Buildzie, na Ignate, przepraszam. W zeszłym roku pojawiły się w preview.,

Szymon Warda: Jest, znaczy ja to ominąłem, jak mam być szczery, tak naprawdę. Ja bym chciał zobaczyć statystyki użycia, wykorzystania i jak to wygląda, czy to nie jest taki ruch bardziej pod to, co się dzieje dookoła politycznie i trochę dywersyfikacji od tego, co dzieje się u Intela, itd.

Łukasz Kałużny: Czy wiesz co, ale aplikacyjnie jedną rzecz Ci powiem. Rozmawiając z różnymi ludźmi, gdzieś tam przecierając się z tej strony AWS-owej…

Szymon Warda: Tak, AWS z niego korzysta.

Łukasz Kałużny: Wbrew pozorom ludzie w AWS-ie korzystają z tych VM-ek w .Necie, w Nodzie, w Pythonie, korzystają do różnych rzeczy. Więc patrzę to jako odpowiedź na tamto, bo tamto ma sens.

Szymon Warda: Powiem tak, AWS faktycznie zrobił mocnego pusha w tym kierunku, żeby ludzie się przesiedli. Bardzo zrobił swoje akcje zachęcające, jeżeli chodzi o prędkość, wycenę, itd. Nie widziałem tego, tej samej zachęty ze strony Azure’a. Więc dlatego zastanawia mnie po prostu, jakie jest użycie w kontekście azure’owym, czy ludzie sami z siebie się przesiadają?

Łukasz Kałużny: Wiesz co? Wiesz jedno, tak, AWS mocno to pokazuje infrastrukturalnie. Więc masz tutaj rację, że to nie było w żaden sposób naciśnięte. Druga rzecz, która tutaj z całej tej układanki jest taka, że 2, 3 lata są do tyłu.

Szymon Warda: Tak bym się z tym zakresem zgodził, że jestem ciekawy jak to się będzie rozwijało dalej.

Łukasz Kałużny: No dobra, co teraz u Ciebie?

Szymon Warda: Ja już przyznaję się, że moja lista rzeczy, którymi się interesowełm i zwróciły moją uwagę, się skończyła.

Łukasz Kałużny: Dobra, to ja bym dorzucił API Center. Czyli nakładkę na API Management, żeby robić governance i w jednym miejscu ustrukturyzować i publikować wszystkie API, które mamy.

Szymon Warda: Ta usługa mnie zaciekawiła. Ja ją wykluczyłem z tego powodu, że zobaczę w jakim kierunku pójdzie, bo mówi, że to jest nakładka na APIM-a, ok.

Łukasz Kałużny: Raczej na APIM-y.

Szymon Warda: Nie będzie tak naprawdę, ale te usługi się strasznie dublują względem siebie tak naprawdę. Zakres ich możliwości jest dość sporawy.

Łukasz Kałużny: Wiesz co? Założenie, bo jak popatrzysz, założenie jest takie, żebyś mógł w łatwy sposób zarejestrować… Bo API Management, jak zaczniemy robić izolację i separację logiczną, jeżeli zaczynasz z tego korzystać faktycznie jako nie API gateway dla pojedynczej aplikacji, tylko management dla wielu, to brakuje takiego spięcia pomiędzy środowiskami. Czyli Ty sobie możesz tam na tym GitOpsowo przenosić tą konfiguracją skryptową w zależności jak tam chcesz pomiędzy środowiskami, ale brakuje takiego firmowego, wewnętrznego, centralnego spięcia. Więc ja na to patrzę jako na nakładkę na Offering API Managementowy, niż na to, że jest to feature, który się nakłada. Bo jak patrzysz z perspektywy Developer Portalu, który jest w API Management takim podstawowym, to z mojej perspektywy tak, te feature’y się nakładają. Tylko jak przełożysz to na koncept, że masz tego trochę więcej w firmie, to taki centralny governance jest interesującą możliwością.

Szymon Warda: Ok, mój problem jest taki, że swego czasu właśnie API były reklamowane, może były rekomendowane bardziej jako takie centralne miejsce do zarządzania. I na chwilę obecną jest na tyle mała różnica między tymi usługami, że trochę nie widzę wartości. Poczekaj, ja jestem ciekaw jak mocno te usługi między sobą zdywersyfikują, bo na tą chwilę dywersyfikacja jest na tyle niewielka, że ok.

Łukasz Kałużny: Raczej zobacz, API Center nie zadziała bez API Managment.

Szymon Warda: Zdaję sobie sprawę, tylko obecnie wartość, którą wprowadza, jest taka, jest, bez dwóch zdań. Potrzebuję więcej, żeby faktycznie tego zacząć używać szeroko.

Łukasz Kałużny: Dobra, kolejna rzecz, Cosmos, bo w ogóle z bazami danych, jak popatrzymy, były dwa announcementy, takie w sumie trzy. To pójdziemy, ale były dotyczące Cosmosa, które sobie tutaj wziąłem. I to jest jedna rzecz, że wektory, czyli każda baza w Microsofcie dostaje wektory. I to jest ciekawa rzecz. Wiesz co, dlatego, że zobacz, nie będzie cię zmuszać do Azure AI Searcha w rzeczach aplikacyjnych.

Szymon Warda: Może powiedzmy tak, nie każda, bo dostał to Cosmos i dostał to Postgres, najwięcej dostał takiego kopa.

Łukasz Kałużny: I SQL Server również ma.

Szymon Warda: A to musiałem przeoczyć.

Łukasz Kałużny: To był wcześniej, bo nie było tego na Buildzie ogłoszonego i chciałem powiedzieć, że na Buildzie MySQL i SQL Database w ogóle się nie pojawiły w takich oficjalnych newsach, w oficjalnych komunikacjach, zestawieniach, jak Book of News, czy w tych blogach. I druga rzecz, która zaciekawiła mnie, w sumie dwie, to jedno, to jest SDK w GoLangu dla CosmosDB, że sobie poszło, jest dorobione, bo jakoś przeoczyłem, że go nie ma.

Szymon Warda: Biorąc pod uwagę, że Cosmos może być zastępnikiem dla Kubernetesowego Storage’u, to pewnie po prostu zrobili refaktoring i wydzielii co już mieli.

Łukasz Kałużny: Tak, raczej było pod Mongo i to była jedna z takich rzeczy. I druga przy Cosmosie, która mnie zainteresowała. Pamiętasz, rozmawialiśmy o Vercelu i tych wszystkich wyspecjalizowanych SAS-ikach. I z rzeczy takich ciekawych, czyli coś, co osiągnęło już masę krytyczną i klienci się dobijali do Enterprise do Microsoftu, albo Microsoft widzi w tym potencjał, to pamiętasz, rozmawialiśmy o różnych wyspecjalizowanych SAS-ach. I tutaj Vercel do hostowania między innymi Next.js i różnych projektów SPA dostał integrację do Cosmosa. I to jest dość ciekawy ruch.

Szymon Warda: Jest ciekawy, ale faktycznie z tego co przeglądam Vercela, to się tak dość ładnie rozwija, bym powiedział, nabrał trochę klientów. Tak że ok.

Łukasz Kałużny: Sądzę, że projekty w korpo na tym jakieś publiczne zaczęły lecieć do tego stopnia, że trzeba było to, że tak powiem, pozwolić.

Szymon Warda: Na pewno wynikało to z jakiegoś dużego klienta, który po prostu miał potrzebę i tyle, upublicznić.

Łukasz Kałużny: Tak, niektórzy mogą tak nacisnąć.

Szymon Warda: Tak, ci sami, którzy Fleet Managera wykorzystują.

Łukasz Kałużny: I wiesz co, teraz jakbyś podsumował?

Szymon Warda: To jest ciekawe, bo spodziewałem się, że to będzie totalnie AI-owe i jest dużo AI-a tak naprawdę.

Łukasz Kałużny: Keynote’y to AI się wylewa.

Szymon Warda: Tak. Cieszy mnie mimo wszystko, że pomimo ogromnego hype’u na wszystko co jest AI-owe, czego jest dużo, to zostały rozwinięte takie usługi typowo platformowe. I drugi kierunek to jest to, że usługi pod governance i żeby żyło się z tymi usługami lepiej. Bo to są dla mnie takie dwa główne trendy poza AI-em.

Łukasz Kałużny: Wiesz co? Ale widać, że investment jest w to mniejszy, po ilości tych newsów.

Szymon Warda: Jest mniejszy. Wiesz co, ale łatwo byłoby po prostu pewne rzeczy olać i np. tych webjobów nie zmieniać. Tak że wiadomo, że to nie są usługi, które są na super hypie, ale fajnie, że dalej coś tam się dzieje, że nie są tylko w trybie utrzymaniowym.

Łukasz Kałużny: Ja jedno powiem, powinni przejąć team marketingowy od Appla, jeżeli chodzi o prowadzenie keynote’ów.

Szymon Warda: Nie, te keynote’y MS-u zawsze są tragiczne, że tak powiem.

Łukasz Kałużny: Raczej w Google i w tym mogliby wreszcie popatrzeć i nie robić next big thing za każdym razem, bo próbują podrobić ten styl, trochę mam wrażenie. I jest AI empowering.

Szymon Warda: Pitu, pitu, pitu, no tak, panowie z koszulami wpuszczonymi w spodnie chcą być bardziej modni.

Łukasz Kałużny: Raczej tam są podkoszulki, to wiesz, to goście czasami zbyt sztywno przyjdą.

Szymon Warda: Tak, ale dalej wkurzony o spodnie.

Łukasz Kałużny: Nie zwracałem uwagi, aż się cofnę. Dobra, no to trzymajcie się.

Szymon Warda: Dobra, na razie, hej.

Łukasz Kałużny: Na razie.