#93 .NET Conf 2023 i Ignite 2023

2023, Nov 24

Dzisiaj robimy deep dive w .NET Conf i Ignite 2023. Nie sądziliście chyba, że przemilczymy ten temat? Omówimy kilka ciekawych i wartych uwagi rzeczy, takich jak Dynamic Profile Guided Optimization, i Microsoft Security Adoption Framework. Będzie też kilka słów o AI i oczywiście o Copilocie. Zapowiada się inspirująco? A jakże. Ale żeby nie było zbyt grzecznie. Szymon wytknie pierdolnik w danych, Łukasz obawia się że zrealizuje się cyberpunkowy scenariusz i żąda ujebania regulacyjnego. Co tu się w ogóle zadziało?

Linki i ciekawe znaleziska:

Transkrypcja

Łukasz Kałużny: Cześć, słuchajcie Patoarchitektów. Prowadzą Łukasz Kałużny…

Szymon Warda: I Szymon Warda. Wszystkie linki do tego odcinka na Patoarchitekci.io, numerek odpowiedni. Lewa, prawa, wiadomo, w opisie znajdziecie, ogarniecie. No i oczywiście pato to the moon, czyli wyślijcie komu uważacie, że się nasz podcast, nasze gadanie może spodobać, bo robimy zasięgi, tak to się zwie. Dobrze, co łukasz dzisiaj w temacie?

Łukasz Kałużny: Dzisiaj .NET Conf i Ignite z numerkiem 2023. Czyli jesteśmy po tygodniu konferencyjnym Microsoftu. W sumie dwutygodniówce, bo trzeba byłoby Open AI-a też zapakować do tego i GitHub Universe, które opowiadaliśmy, ale to już zostawmy.

Szymon Warda: Satya miał przegląd, wszystkie konferencje dokładnie.

Łukasz Kałużny: Czyli tak, na Keynote’cie raz o tym wspominał, że był na wszystkich… Nie, nie był na .NET Confie. Chyba nie był, już akurat nie oglądałem Keynote’a aż tak bardzo, tylko zacząłem ogłoszenia. Chyba pierwsza ważna rzecz, wyrzucono .NET-a Ignite’a.

Szymon Warda: I to bardzo pasuje do tego, czym obecnie stał się Ignite.

Łukasz Kałużny: Co przez to rozumiesz? Bo ja mam swoją teorię.

Szymon Warda: Dla mnie MS, to co pojawiło się na Ignite’cie wiele, wiele lat temu, może nie tak wiele, było takie powiedzenie, że ‘data is a new oil’, że dane są bardziej ważne niż, cenne niż generalnie nawet ropa. I to było takie pitu pitu, które nie miało żadnego pokrycia. Natomiast co MS teraz ewidentnie chce zrobić, co pokazuje Ignite? Ignite to generalnie są dwie rzeczy. Właściwie to są trzy: AI data, czyli cały compute i przede wszystkim budowanie zaufania w tej platformie. Czyli cały general trust, te wszystkie rzeczy, żeby wszystkim możliwym ludziom wytrącić argumenty czemu nie mogliby użyć Open AI-a w Azure.

Łukasz Kałużny: Dobra, to może zacznijmy od tego .NET Confa, bo tam będzie krócej, zanim wjedziemy w Ignite’a.

Szymon Warda: To tam się niewiele wydarzyło.

Łukasz Kałużny: Dwie rzeczy się wydarzyły jak tam popatrzymy. Jedno wrażenie mam, że też wyrzucane z Ignite’a jedno, że developerzy dotnetowi są aż tak tam niepotrzebni, mają być tylko ludzie zainteresowani AI-em. To jest takie pierwsze…

Szymon Warda: Danymi tak naprawdę.

Łukasz Kałużny: Raczej, wiesz co i to jest tak, to jest to problematyczne. Ale lecąc drugie, to podaż pokazuje, że niby .NET jest open source’owy.

Szymon Warda: Czyli wiadomo, że jest open source’owy, ale…

Łukasz Kałużny: Jest wewnętrznym narzędziem Microsoftu, trzeba to powiedzieć i tak jest zbudowany.

Szymon Warda: Ale teraz obronię, nie ma projektu open source’owego za którym nie stoi duża korporacja, który by się utrzymał. Co pokazują wszystkie wpadki, próby monetyzacji open source’u, itd. Projekty open source’owe potrzebują kasy.

Łukasz Kałużny: Duże projekty open source’owe, dodajmy jeszcze.

Szymon Warda: Nawet te małe, nawet jeżeli mówiliśmy o bibliotekach do logowania, niby nic wielkiego, też potrzebują ludzi, potrzebują czasu, czyli ludzi, czyli kasy.

Łukasz Kałużny: Dobra, lecąc, co zostało pokazane? .NET 8 do tego może w jakichś następnych odcinkach kogoś zaprosimy, żeby porozmawiać w ogóle co się dzieje z tym .NET-em. I

Łukasz Kałużny: w ramach .NET-u pojawiło się nowe narzędzie, które, mam problem, bo wyszło spod tej samej ręki, czyli Davida Fowlera, który zrobił w .NET-cie taki Project Tye, o którym, jeżeli ktoś jest z Was z światka Microsoftowego, mogliście nie słyszeć, bo się po prostu nie przyjął. I produkt ten nazywa się .NET Aspire. I złożenie jest takie, żeby uprościć cloud native development, czyli złapać wszystkie potrzebne biblioteki, dodać do tego dashboard w jedno miejsce, takie jak dać observability distributed tracing, żeby mieć to w lokalnym development’cie i potem łatwo przepiąć się gdzieś tam na docelowe targety, wkleić healthchecki i inne tego typu elementy.

Szymon Warda: Co ogólnie jest dobrym pomysłem.

Łukasz Kałużny: Raczej tak, przypomina mi to troszeczkę Spring Boota, jakby ktoś wziął i Spring Boota okroił z pewnych rzeczy. Co jest ciekawe? To jest tak, jak Ty Szymon zresztą wspominałeś, że dla Ciebie ten .NET w wersji minimal brakuje, nie ma takiego opinionated podejścia.

Szymon Warda: To jest specyficzne dla mnie, że .NET to jest taka opcja, wpuszczają Cię do kuchni, gdzie masz wszystkie składniki i mówią Ci: weź to sobie, zrób co chcesz właściwie tak naprawdę. Gdzie, jeżeli wchodzimy tak naprawdę do dowolnego, właśnie dochodzimy do Javy, do Pythona, do całego Node’a, to mamy konkretne frameworki, gdzie wsadzamy developerów i oni po prostu klepią formatki, mówiąc bardzo brutalnie. Czyli robią ten cały stos biznesowy, zajmują się w .NET-cie. Jak zaczynamy projekt, to de facto musimy wykombinować jakie mamy do niego podejście, jak powinniśmy zrobić, co, jak, gdzie i nagle jest napierdzielanka developerów, architektów itd., o to, które biblioteki użyć, jakie podejście zrobić, czy to może mediator, czy może inaczej?

Łukasz Kałużny: Może CQRS-a i zaczyna się cała zabawa.

Szymon Warda: I tu jest cała wartość .NET-a, bo on dużo umożliwia. Ale dla większości projektów to nie ma większej wartości. Dlatego uważam, że takie podejście to ma sens.

Łukasz Kałużny: Tylko z drugiej strony trochę jak mówisz było podejście kontroler na twarz i jazda.

Szymon Warda: Tak, ale to taki poziom zero, de facto, dają Ci mąkę i weź ogarnij tak naprawdę.

Łukasz Kałużny: Dobra, więc to lecą trochę feature’ów jakichś security. Najciekawsze dwie rzeczy, które wleciały i one akurat w takim cyklu życia zostaną sobie, bo to jest też część samej .NET 8, to są obrazy typu distroless i ahead-of-time compilation, więc to są rzeczy, które są fajne. Tam jeszcze jest pokazany taki model cały pluginów, komponentów, to co mówisz, takich gotowców, które są podzielone na cloud agnostic i Azure specific. Więc to jest dobrze, że to oddzielili. Tylko kurde, ja mam wrażenie, że ma gdzieś to sens, tylko wyszło to spod złych rąk.

Szymon Warda: Czyli gdzie jest tego wartość? Ta wartość jest tego taka, że jeżeli faktycznie używamy OpenTelemetry, ale w ogóle całej telemetry, niekoniecznie OpenTelemetry, to postawienie tego lokalnie, to nagle mówimy nasza aplikacja + coś do logów + jakiś agent do zbierania + Prometeusz + jeszcze generalnie coś do trace’ów i nagle nasza aplikacja to jest 5 serwisów. Więc gdzie realnie? Czyli musimy użyć Docker Compose’a, czyli de facto musimy wykonywać z podłączeniem itd. Dla mnie to ma bardzo duży sens. Czy to się przyjmie? Może być różnie z tym bardzo.

Łukasz Kałużny: Dlatego ja mówię, bo mam wrażenie, że Dawid poluje na projekt, który będzie Ego i CV Driven Development, o tak, to mam takie wrażenie po tych jego inicjatywach.

Szymon Warda: Tak może być. Inna bajka, zastanawiam się czy faktycznie mentalność developerów dotnetowych nie jest taka, że my lubimy sobie dopasować to bardzo mocno i nie wciśniemy się w kolejnego Spring Boota na .NET-cie po prostu, no nie? Czyli, że jednak możemy, tak lubimy po prostu.

Łukasz Kałużny: No, więc całość jest to. No i oczywiście LLM i przez wszystkie. Tak, to całość o Confie.

Szymon Warda: Jeszcze jedną rzecz ominąłeś, która mi się podobała. Dynamic Profile Guided Optimization, czyli projektowanie kodu na bazie realnych przypadków użycia tak naprawdę. Mała pierdoła, ale potencjalnie chwalą się, że do 20% wydajności, itd. Ale dla mnie to jest fajny kierunek użycia, zastosowania, bo skoro widzą jak te aplikacje są realnie wykorzystywane, cała telemetria z Azure’a, nie oszukujmy się, no to w tym momencie fajnie jest optymalizować aplikacje, runtime, itd. w kontekście tego, jak te aplikacje są realnie wykorzystywane. Więc dobry kierunek rozwojowy.

Łukasz Kałużny: Dobra. I słuchajcie, Ignite. Wiesz co, ja bym go podsumował - Copilot będzie wychodził z lodówki.

Szymon Warda: Copilot będzie absolutnie wszędzie, tak.

Łukasz Kałużny: Tak i to jest, wiesz i teraz cała myśl, to co powiedziałeś, bo całość Ignite’a była wokół AI-a, nie oszukujmy się, pierwszy przekaz jaki dostawałeś na twarz to jest AI.

Szymon Warda: A właśnie, według mnie przekaz jest zupełnie inny. Data - dajcie nam Twoje dane, dajcie nam dane, a my z nich zrobimy coś inteligentnego.

Łukasz Kałużny: Tylko zcustomizujemy je. I tak i całość, wiesz co, teraz patrząc się w szczególności do Keynote’a, bo tam pokazało się dużo ciekawych rzeczy, Keynote’a Satyi, tego pierwszego, pierwszego, otwierającego. Ja sobie z tego takie trzy rzeczy duże wynotowałem, w ogóle miękkie, które mnie z jednej strony i coś, z czym się bardzo mocno zgadzam, że te Copiloty będą nowym UI-em.

Szymon Warda: Wydaje mi się, że dla pewnej grupy, może w końcu ziści się Twoje marzenie, o którym, odcinek, który nagrywaliśmy chyba 4 razy albo 5 i nigdy go nie puściliśmy o low-code’dzie.

Łukasz Kałużny: Tak, że może wreszcie uznasz to za słuszne. Druga rzecz, która mówisz o tych danych i to też jest ciekawe: it’s Your agent that help You at own that knowledge. I wszyscy mówią, że Copilot cię zastąpi. Nie, to ma Tobie pomagać z tym wszystkim, w tym momencie w czasie, może tak, bo to jest pewnie na najbliższe 2-3 lata.

Szymon Warda: Żeby było jasne, Copilot dla danych to jest w ogóle strzał w dziesiątkę tak naprawdę. Tutaj, jeżeli mówimy o terabajtach danych, to coś, co ogarnie, zsumaryzuje, po prostu ogarnie te dane i nam pomoże, to jest coś super niezbędnego. I to fajnie widać jak MS właśnie, poszło sporo usług dotnetowych. Jak to widzę? Jest usługa, do usługi zostały dodane generalnie opcje confidential computing, czyli ogarnianie rzeczy poufnych, przyjęcie do dużej skali, czy to przez skalowanie, czy przez Hyperscale’a, jak w Cosmosie partycjonowanie niezależne. Czyli generalnie powiedzmy kolejny komunikat Microsoftu jest taki, że: przyjmiemy dowolny rozmiar danych i trzeci komunikat do każdej usługi to będzie: a i się przy okazji bardzo łatwo łączy z Open AI-em.

Łukasz Kałużny: Tak i teraz o co chodzi z tym łączeniem z Open AI-em, żebyście złapali. Pojawia się, ciągle pada słowo “mirror”. I chodzi o to, żeby częściowo pominąć developerów w integracji Open AI-a, żeby pozyskiwać te dane. Czyli wpinamy się…

Szymon Warda: Czemu? Bo developerzy są drodzy i to zajmie dużo czasu, a Microsoftowi zależy na… To mają być szybkie zwycięstwa po prostu.

Łukasz Kałużny: Tak. I wiesz co? Ja teraz mam jedną tylko taką rzecz przy całości tego Copilotowania, żeby może ten wątek zamknąć Copilotów, oprócz jeszcze tam jednej rzeczy. Problem z całym tym trendem LLM-ów, który jest AI, powiedziałeś, że dane są nowym paliwem.

Szymon Warda: Według mnie wrócimy do tego powiedzenia, dokładnie.

Łukasz Kałużny: Tak, dane w organizacjach są jednym wielkim pierdolnikiem, śmietnikiem, wysypiskiem śmieci.

Szymon Warda: Ale dlatego właśnie rzucenie na to LLM-a, który coś z tego wyciągnie, może być różnie, ma sens.

Łukasz Kałużny: Boję się, że wyjdzie różnie. Wyobraź sobie, że zostanie podłączony, tak jak mówimy, podłączmy sobie to do jakiegoś API restowego czy schematu przeciętnego korposhitowej aplikacji.

Szymon Warda: Ale zupełnie się z Tobą zgodzę. Tylko co jest alternatywą? Przerzucenie tych wszystkich danych przez wszystkie procesy ETL-owe, lejki, itd., co jest projektem, na ile lat? 3 do 5.

Łukasz Kałużny: Raczej wiesz, w zależności o jakich danych mówimy, tak jak mówisz. O całości?

Szymon Warda: O tych wszystkich, które mamy w organizacjach.

Łukasz Kałużny: Ja sobie rozdzielam, dwa, jak to wygląda, te dane, nazwijmy to transakcje z baz transakcyjnych, jak prawidłowo nazywamy. To jest problematyczne, żeby stamtąd wziąć. Jeżeli chodzi o tą część całości ściągania tego, stąd też jest ten Microsoft Fabric, czyli zunifikowana platforma analityczna, żebyś nie kleił własnych klocków Azure’owych. I to teraz wyszło też w GA-u i ma on top Copilota, gdzie tam jest już spora wartość tego.

Szymon Warda: Czyli tam jest, wydaje mi się, wartość zdecydowanie.

Łukasz Kałużny: Tak, bo tak jak sobie pomyślałem, że weźmiemy przeglądniemy Twojego SharePointa czy bazę aplikacyjną. Sama idea jest genialna, tylko po prostu jakość danych, która często… Zresztą pracowaliśmy w wielu firmach. Wiesz jak wygląda jakość danych na Confluence’ach, SharePoint’ach, jak bardzo są nieaktualne.

Szymon Warda: Taki pierdolnik, to jest w ogóle śmietnik. Dlatego ja totalnie rozumiem podejście Microsoftu, bo to jest takie: dajcie nam wszystkie dane, my mamy Open AI-a, który na razie błyszczy, jeszcze ludzie tego nie zweryfikowali gdzie są minusy i jak to wygląda. Dopiero pojawiają się pierwsze głosy, że coś nie halo. Ale MS mówi jedno: dajcie nam dane, będziemy je mieli, albo będziemy mieli podłączenie do Twoich danych, bo niekoniecznie one muszą być u nas, ale fajnie byłoby gdyby były, a potem będziemy tego Open AI-a rozwijali, będziemy mieli w końcu tyle tych danych i informacji co działa, co nie działa, że będą po prostu mogli wyskalować Cię, tą krzywą hokejową de facto, czyli tak WOW, bo będą te rzeczy mieli. To jest tak samo załóżmy, jak Tesla ma ogromną ilość map z przejazdu po tym, bo po prostu trzeba dane mieć. Trzeba mieć dane, żeby te modele nauczyć, trzeba mieć dane, żeby pokazać co działa, co nie działa. I wydaje mi się, że w to MS idzie. I dla mnie strzał w dziesiątkę, naprawdę.

Łukasz Kałużny: Dobra. I rzecz, która mnie przeraża i cieszę się, że coraz bardziej wchodzą regulacje na AI-a i tym firmom powinno się… Tutaj mi się włącza rzecz taka mocno, że trzeba to w diabły uregulować, bo scenariusze cyberpunkowe nam się tutaj kroją. 56 minuta Keynote’a, tam był pokazany Microsoft Mesh, czyli virtual reality i inne takie rzeczy. Ale jedna straszna rzecz, która tam była powiedziana, że inputem nie będą tylko słowa, ale również gesty, mimika twarzy i inne tego typu elementy. Dla mnie to jest taka rzecz, która powinna zostać w tym momencie, przepraszam, że to określę, ale ujebana regulacyjnie.

Szymon Warda: Ja mam odnośnie tego dwa tematy. Tego nie było dużo, ale w ogóle cały rozwój avatarów, w ogóle wsparcie dla avatarów, że avatary będą, totalnie nie ogarniam sensowności avatarów, ale faktycznie możliwe, że właśnie dla jakiegoś tam uproszczonego virtual reality będzie to miało sens. Ale teraz drugi, MS co robi też i za to też full szacun po prostu, to jest te całe ich CCC, no nie? Czyli tu mamy dwa, mamy conversion containers, mamy tą opcję, to się nazywa…

Łukasz Kałużny: Tych nazw było za dużo.

Szymon Warda: Tak, jest odnośnie tego, żeby dwa narzędzia, które umożliwiają tego, żeby upewnić się, że Copilot nie narusza danych zewnętrznych i narzędzia dla klientów, żeby upewnić się, że ich modele, na których oni uczą, nie dotyka danych wrażliwych. I trzecia usługa. Usługa, która sprawdza, czy output, czyli te dane wychodzące z naszych modeli, nie zawierają danych wrażliwych, typu jakieś tam zdjęcia, itd., czy ktoś nie nauczył. Czyli MS buduje dane i też buduje cały zestaw narzędzi pomocnych, żeby to było gotowe dla dużych organizacji, które po prostu nie chcą mieć wpadki z tym, bo wszyscy widzą, że mamy halucynacje, mamy różne rzeczy, itd.

Łukasz Kałużny: Raczej całość, że to operacjonalizacja LLM-ów, czyli pięknie LLMOps, czyli Front flowy, całe filtrowanie i inne tego typu elementy. I to jest ta część, która jest wokół Azure AI Studio, które teraz po tych wszystkich nazwach porebrandowało się i pokazało się na nowo.

Szymon Warda: Tak, to było Copilot Copyright Commitment i Customer Copyright Commitment.

Łukasz Kałużny: Tak, czyli sprawdzanie tych danych, tam DLP też się pojawiło, że użycie do tego.

Szymon Warda: I to jest kolejny strzał. MS wie i nauczył się jak współpracować z różnymi krajami, z regulacjami i oni to zrobią dobrze.

Łukasz Kałużny: Tak, tylko teraz patrząc się na całą tą zabawę, bo powiedziałeś, tak jak te copyrighty to tak. Confidencial computingi to jest powiedzenie: mamy coś takiego w portfolio, mało kto tego realnie używa.

Szymon Warda: Ale tu nie chodzi o to, żeby z tego korzystać. Chodzi o to, żeby ktoś powiedział generalnie: a nie możemy, bo… A oni powiedzą: ale to w razie czego użyjemy tej usługi. Ona nawet nie musi mieć użycia. Ważne, że ona tam jest.

Łukasz Kałużny: Potem i tak kosztuje za dużo.

Szymon Warda: Tak, dokładnie, potem okazuje się, że jednak nie ma sensu, albo nasze dane nie są aż tak super wrażliwe, żeby z niej korzystać.

Łukasz Kałużny: Dobra, i słuchaj, to jest to! Pojawiło się jeszcze to, co powiedziałeś z low codem, czyli Copilot Studio. To jest akurat ciekawa rzecz, czyli zebranie tworzenia wszystkich pluginów, które też mamy w Open AI-u, które teraz się pojawiły, bo mają parity tak naprawdę tych feature’ów. Więc jedno mi…

Szymon Warda: Czyli odpowiedniki po polsku.

Łukasz Kałużny: Wiesz co nie, to nie jest odpowiednik, to jest dokładnie to samo pod innym UI-em, bo to jest to samo API, tylko inaczej, chyba bardziej UX-owo dopracowane, to tak bym to określił względem tego. I wiesz co? Tak, bo w ogóle z takich rzeczy jeszcze wokół AI-a, które mnie rozwaliły, które idą sobie i też były. Po pierwsze, Microsoft potrzebuje zwiększać swoje capacity. Zaczynają produkować własne włókna.

Szymon Warda: Właśnie chciałem to powiedzieć. Jestem ciekawy, nie wiem czy coś wynikło, kiedy oni z tym wystartowali, bo fakt, że już teraz to mają, szacun.

Łukasz Kałużny: Nie, to wiesz, pewnie z researchem i innymi rzeczami to są lata, bo… Inaczej, fizycznie w tym roku położyli je w UK-u, te światłowody, żeby połączyć datacenter.

Szymon Warda: A, Ty mówisz o światłowodach. Ja o czym innym mówię.

Łukasz Kałużny: Ja wiem o czym mówisz, do kwantów przejdziemy.

Szymon Warda: Też nie o kwantach, nie.

Łukasz Kałużny: No to dawaj, o czym mówisz.?

Szymon Warda: Dwie rzeczy, customowy krzem de facto, czyli Azure Maia i Azure Cobalt. Dwa własne, hardware właściwie, do wspomagania AI-a. Jeden jest akcelerator do AI-a…

Łukasz Kałużny: A drugi procek ARM-owy po prostu własny.

Szymon Warda: Procek ARM-owy, dokładnie rzecz biorąc. To jest fajne, bo w kontekście tego jak słyszymy wszystkie artykuły, które mówią, że sorry, ale po prostu Copilot i wszystkie inne narzędzia kosztują, MS i sam MS de facto, masa energii i kosztują więcej niż oni na tym zarabiają. To obecnie MS idzie w bycie głównym graczem, więc mogą kasę tracić. Szacun za to, że tak szybko to robią i muszą to zrobić po prostu, bo faktycznie rzeczy AI-owe na tyle mają, już będą miały wielkie użycie i mają wielkie użycie, że po prostu muszą zacząć oszczędzać kasę na tym. To jest bardzo wąskie stosowanie, gdzie wiadomo jak to wygląda.

Łukasz Kałużny: Dobra.

Szymon Warda: A odnośnie światłowodu, czy chodziło Ci o Azure Bust?

Łukasz Kałużny: Nie, nie, Azure Boosta chciałem poruszyć. Światłowód to zwykły Azure Boost. To Microsoft zrobił to całe AWS, czyli zaczął dorabiać platformę sprzętową dokładnie pod swój software.

Szymon Warda: Tak, żeby się pochwalić o czym mówimy. Mówimy o tym, że dostęp do dysków zdalnych na poziomie 12,5 gigabitów na sekundę i do 650 tys. IOPS-ów dla lokalnego storage’y, mówimy trzy koma 8 miliona IOPS-a.

Łukasz Kałużny: Wiesz co, ja nie pamiętam, jak to się, bij, zabij, teraz zapomniałem, jak to się zwało w AWS-ie, bo nie zwracasz… Tam są też te instancje, które są mocno hardware’owo zboostowane i dużo hardware’u jest wystawione do wirtualizatora albo odciąża wirtualizator. To de facto…

Szymon Warda: Robi wrażenie. I czemu? Znowu, nauczenie modeli na duże zbiory danych po prostu.

Łukasz Kałużny: Raczej oszczędność. Następna rzecz, która jest I to było trochę, miałem z tego bekę dosłownie, że jeden z komputerów, który powstał pod GPT wskoczył na trzecie miejsce najszybszych superkomputerów.

Szymon Warda: To tylko pokazuje skalę i jak bardzo MS na to postawił.

Łukasz Kałużny: Raczej tak. Czy Nvidia, która mówiła, że zbudowaliśmy sobie dwa superkomputery, jeden dla siebie, drugi dla Microsoftu, wspólnie tam też na Keynote’cie, poniżej roku.

Szymon Warda: To jest szalenie krótki czas, poniżej roku.

Łukasz Kałużny: Tak, to taki z HPC. Dobra, z AI-owych rzeczy coś, czego…

Szymon Warda: Czekaj, jeszcze jedną rzecz, bo skoro ruszyłeś hardware, to jeszcze są rzeczy nie AI-owe. Tym razem ja dorzucę użycie najnowszego krzemu do MD. Czyli oparty na EPYC Genoa nowe maszyny w klasie D, E i F. Jestem naprawdę zadowolony, że to w ogóle wchodzi, bo będziemy mieli akurat zapotrzebowanie na takie naprawdę duże, duże maszyny z dużą ilością CPU, tak że mnie to osobiście bardzo ucieszyło.

Łukasz Kałużny: To jest z tych. A z krzemem, to jeszcze jest… Raczej z krzemem, idąc dalej, bo powiedziałem w AI-u, bo chciałbym zakończyć ten temat, chociaż ciężko go zakończyć przy tym gignight’cie, twoja usługa, którą znowu zrename’owali.

Szymon Warda: Trzeci, czwarty raz. Chyba trzeci.

Łukasz Kałużny: Trzeci, jak liczę, czyli nie mamy już Azure Searcha, Cognitive Searcha, mamy teraz Azure AI Search. I tam jest jedna taka rzecz, która jest ciekawa, że wbudowany został nowy sposób wydobywania danych pod wektory i eWendingi, czyli Semantic Rating, który wyszedł im na całej współpracy.

Szymon Warda: To jest fascynujące generalnie, ponieważ to jest usługa, która bazuje na Lucinie, którą mało kto rozumie, a MS tylko robi rename’y i dodaje kolejne możliwości do tej usługi tak naprawdę, kiedy się kończy z reguły na jakimś tam searchu, powiedzmy sobie. Ja osobiście bardzo lubię, bardzo lubię wszystkie rzeczy oparte na Lucinie.

Łukasz Kałużny: Ciekawostkę, bo to usłyszycie w następnym odcinku i tam newsy też z Open AI-owej Confy. Więc RAG-a, który jest zbudowany w ramach Open AI-a, jest posadzony na Azure AI Searchu.

Szymon Warda: W ogóle tam fajne rzeczy się dzieją.

Łukasz Kałużny: Dobra, to to. I wiesz, ja z takich newsów tu sobie popatrzyłem, że tego, wbrew pozorom newsów nie AI-owych jest sporo poukrywanych w sesjach.

Szymon Warda: Tak, jest sporo, ale to one znowu, dla mnie, one wszystkie krążą wokół przenosin do Azure. Zmiany w SCOM-ie, zmiany w Azure Migrate, to jest wszystko przygotowania pod to, żeby zassać dane od klientów.

Łukasz Kałużny: Tak, jest trochę też innych, bo patrzyłem sobie, na appserwisy trochę wleciało nowych rzeczy upraszczających ich użycie. To też jest istotne i pokazujące jak użyć Copilota. A propos Copilotów, no to Azure też będzie ucopilotowiony.

Szymon Warda: Czemu nie.

Łukasz Kałużny: Czemu nie, to już tak, pomijając całą zabawę i ze swoich dwóch obserwacji, które są jeszcze ciekawe, bo ja tak patrzę, te newsy zalinkujemy też Book of News, żebyście sobie zobaczyli też jakieś linki do blogów, które warto zobaczyć z tych announcementów. Dwa elementy, które się pokazały i są interesujące. Po pierwsze, jest jasno powiedziane, że Quantum, czyli wszystkie obliczenia kwantowe, rozwijają je bardzo mocno dalej pod AI-a. Na zasadzie to jest nadal trochę papier.

Szymon Warda: Ciekawy jestem jak to wszystko połączą, bo powiedzmy Quantum stracił tego wiatru w żagle, już tak mocno nie wieje w tym kierunku.

Łukasz Kałużny: Raczej wiesz co, nie, my nie słyszymy o tym. To też jest, mam wrażenie, że teraz jest trochę zimna wojna pomiędzy tymi dostawcami.

Szymon Warda: Czyli na razie najwięcej w sumie słyszę od Cloudflare’a odnośnie Quantum.

Łukasz Kałużny: Jak się przed tym bronić. A z technicznych rzeczy od IBM-a, bo próbują zbudować nowe mainframe’y.

Szymon Warda: Bo nie udało im się z Watsonem de facto wejście w AI-a, trochę przegapili.

Łukasz Kałużny: Cloudem, Watsonem i całym szeregiem. I tam jest jedna taka rzecz, która jest ciekawa, robi mindfucka, czyli sieć kwantowa.

Szymon Warda: To mi uciekło z tego przeglądania.

Łukasz Kałużny: Tak, bo to było zaznaczone, chyba nie było w newsach, tylko w ogóle w trakcie sesji. Microsoft podjął współpracę z firmą, która próbuje zbudować sieci, przesyłanie kwantowe na bazie tradycyjnych kabli.

Szymon Warda: Czyli to jest taka opcja, jak upewnić się, że developerzy już nigdy nie zrozumieją sieci tak naprawdę.

Łukasz Kałużny: Wiesz i teraz jest zabawa. Chodzi o to, żeby szybciej przesyłać te dane znowu w ramach data center, jak i z klientem, zwiększyć tego wydajność w nieskończoność.

Szymon Warda: Ciekawe czemu? Może dlatego, żeby te wszystkie dane przesyłać?

Łukasz Kałużny: Więc tak, zostawmy już te dane, bo to zostanie. I

Łukasz Kałużny: drugi news, który gdzieś tam poszedł sobie bokiem, a był, to jest Microsoft Security Adoption Framework. Skrót, przepraszam, teraz muszę przeklnąć, jest chujowy, bo brzmi SAF, tak jak niedziałający framework Agile’owy promowany przez parę dużych firm doradczych, żeby zarabiać na naiwnych pieczątką. Więc pojawił się Security Adoption Framework. Pierwsze takie wrażenie, jak ktoś zaczyna dobrze, że się pojawiło, zaczyna to porządkować.

Szymon Warda: Tak, powinno być.

Łukasz Kałużny: Bo pokazuje to, tak jak przy Cloud Adoption Frameworku, pokazuje od business leadershipu do implementacji i pokazuje to krokami i obszarami. Więc to jest dobra rzecz.

Szymon Warda: A widzisz, akurat mnie co innego ucieszyło. Mnie ucieszyło w ogóle powrót zza grobu de facto, bo całego trendu, mianowicie ucieszyło mnie w końcu, że KoStudio jest ogólnie dostępne, bo to jest fajna rzecz, fajne możliwości daje. Cały KOS engineering, czyli odporność na błędy, itd., wszelkiej maści, jest ogólnie rzecz biorąc trudny w zrobieniu. KOS sobie to fajnie ułatwia. I ucieszyło mnie bardzo, że nie umarła ta idea np.

Łukasz Kałużny: Nie, wiesz co, to jest tak, że nawet drobna promocja AzureDaya, będzie nawet sesja na AzureDayu właśnie na temat KoStudio, bo tego tematu brakuje, propagowania.

Szymon Warda: Totalnie, jest zapomniany na zasadzie jakby, że zrobi usługę, to będzie wszystko działało.

Łukasz Kałużny: No nie, z reguły nie.

Szymon Warda: Dobrze, czy mamy coś jeszcze? Masz coś jeszcze?

Łukasz Kałużny: Mam dużo różnych pierdół, ale de facto każdy mógł złapać co innego i powinien przejrzeć swoje obszary, którymi się interesuje.

Szymon Warda: Jest tego dużo. Book of News ma scrolla minimalnej wielkości.

Łukasz Kałużny: Raczej wiesz co, ja to miałem w formie pdf i było to jakieś 84 strony, 85 stron, jak przeglądałem to przed Confą jeszcze w wersji tam wrzuconej do dokumentu. I tam nie ma wszystkiego, bo nie ma wielu pobocznych newsów, są tylko największe. I słuchajcie, co smutne, AI-owe. Raczej kierunek firmy. To co już mówiłem ileś tam odcinków temu, Microsoft teraz będzie AI Company.

Szymon Warda: Pamiętajmy o jednym, Microsoft jest firmą, która jest notowana na giełdzie. Celem firm notowanych na giełdzie jest maksymalizacja ceny akcji. Prosta opcja, jeżeli MS tyle pompuje w rzeczy AI-owe, które jest teraz najwyższym trendem jaki możliwy na giełdzie amerykańskiej, to akcje będą zyskiwały, czyli znaczy, że osoby trzymające akcje będą szczęśliwe, a to jest ich prawny obowiązek, maksymalizacja zysków dla akcjonariuszy, więc muszą to robić. Czy się to przyjmie, czy się nie przyjmie? Zobaczymy.

Łukasz Kałużny: Raczej w ciągu ostatniego miesiąca poszli znowu tam 13% do góry.

Szymon Warda: Co jest bardzo dużą wartością.

Łukasz Kałużny: Przy tej kapitalizacji, tak.

Szymon Warda: Tak.

Łukasz Kałużny: Bo dwa, kapitalizacja 2,8 biliona ich mniejszego robi robotę. Dobra, chyba kończymy.

Szymon Warda: Na razie.

Łukasz Kałużny: Na razie.