#Claude #GitHub Copilot #AI #Developer Experience #MCP
“Czasami czuję się jak nadzorca na plantacji bawełny, przysięgam.” Szymon otwiera odcinek o vibe working 2026 najlepszą metaforą zarządzania AI agents - bo od ostatniego odcinka o vibe codingu “prawie wszystko się zmieniło”. Claude Code zastąpił GitHub Copilota, a MCP działa minimalnie ale skutecznie. 🎯
Workflow? VSCode, Claude w terminalu, wirtualne desktopy per zadanie. Cross-modelowy review? Codex sprawdza kod Claude’a. A agent czasem przyznaje: “Przepraszam, musisz już ręcznie ten plik poprawić.” ⚠️
Najbardziej absurdalne projekty? Szymon zakodował port szeregowy (“Kolejny plan to oscyloskop przez USB”), Łukasz zrobił HTTP proxy przez wirtualny port szeregowy, a narzędzie do migracji firewalli na Terraform powstało w 4 godziny i “pójdzie do kosza, ale nie będzie Cię to bolało.”
Reality check? W projektach klienckich GitHub Copilot z governance, self-hosted runners, MCP do Azure DevOps. A ROI? Łukasz podsumowuje: “Ta kasa za te rzeczy zwraca się.” 🤖
Linki i ciekawe znaleziska
Transkrypcja
Szymon Warda: Modele nauczyły się już PowerShella.
Łukasz Kałużny: Inaczej…
Szymon Warda: Działa, to nie jest tak, że… To nie jest tak, że bash działa, a na Powershellu nie ogarnia średników i składnia mu się rypie. Kolejnym planem jest podłączenie oscyloskopu, żeby debugować sygnał analogowy pod USB. Można? Jak najbardziej. Więc jeżeli to zadziała to nie ma już limitów, że tak powiem. Tak że bym powiedział rewolucja, ale też przeszliśmy przez taką fazę, że: subagenci, wszystko będzie inaczej i to też nie poszło aż w tym kierunku. Cześć, czołem, kluski z rosołem. O dziwo słuchacie Patoarchitektów. Prowadzą Szymon Warda…
Łukasz Kałużny: I Łukasz Kałużny. Wszystkie linki do tego odcinka klasycznie, gdzieś na dole albo na stronie. Tak, kluski z rosołem, Szymon się z tego nie wyleczy. To zaczynając szybkie przypomnienie, dwa nadchodzące szkolenia. Pierwsze Szymon od Ciebie - Observability.
Szymon Warda: Na sterydach i przepisane i zaktualizowane o bardzo wiele rzeczy, tak że nówka sztuka nie śmigana, że tak powiem, będzie. Poza tym co było, o czym, mianowicie przejście przez Loki, Tempo, Prometheusza i tak dalej, to pokażemy jak cały stos powinien w ogóle wyglądać, jak się tym w ogóle pobawić. Tak że pobawimy się i popatrzymy też właśnie jak to wszystko spiąć ładnie Aloyem i tak dalej, i tak dalej, łącznie z tym, że nawet agenta LLM-owego zepniemy, żeby nam tłumaczył Pyroscope’owe trace’y.
Łukasz Kałużny: Tak i znalazł się sweet spot, czyli trzy spotkania po cztery godziny, żeby to wszystko modułowo pokazać. I to się odbywa już zaraz, startuje 16 lutego.
Szymon Warda: A u Ciebie Łukasz?
Łukasz Kałużny: A u mnie najbliższe dwa szkolenia, takie najszybciej, o których chcę powiedzieć, to jest 24 lutego - Agentic AI the Hard Way. Czyli budujemy agenta, ale bez żadnego frameworka. Czyli korzystając z czystego SDK, w tym przypadku OpenAI, bo jest najpopularniejszym formatem, jak popatrzymy i też z naszej praktyki najczęściej spotkacie go w polskich firmach pod tym względem. Więc wytłumaczenie, jak działa agent. Tak jak pokazywaliśmy Kubernetesa od podszewki, tak teraz pokazanie działania agentów bez frameworków od podszewki i najważniejszych elementów. A zaraz potem, 3 lutego - Model Context Protocol Masterclass, czyli jak budować MCP, a nie nimi się bawić.
Szymon Warda: Trochę zabawy pewnie też będzie.
Łukasz Kałużny: Dobra i przypominamy, powoli się rozkręcamy, 16 czerwca konferencja z okazji 200 odcinka. Już chyba teraz możemy powiedzieć, że będziemy mieli Oskara Dudycza i Mariusza Gila. Już z Oscarem rozmawiałem dokładniej, będzie opowiadał o tym, że usuwalność jest najważniejszą cechą kodu, który chcemy utrzymywać.
Szymon Warda: Tak, to się chyba nawet nazywa architektura rewolucyjna bym powiedział.
Łukasz Kałużny: Tak, ale tak, jest tam removability over maintainability. Solidowcy mogą zapłakać na tej prezentacji, więc zapraszamy, będzie fajnie. 28 piętro z świetnym widokiem na Warszawę, więc bardzo ciekawa też lokalizacja. Jeszcze szybkie dodatkowe ogłoszenie, do Protopii, czyli firmy, którą prowadzimy z Szymonem i stoi za Patoarchitektami i stąd słyszycie o naszych doświadczeniach, szukamy AI inżyniera, czyli osoby, która pomoże nam w budowie rozwiązań agentowych, LLM-owych w tych projektach, którymi Wam się chwalimy, dzielimy doświadczeniami czy narzekamy na jakieś technologie. I od takiej osoby oczekujemy, że będzie mieć dobry background programistyczny. Preferowany jest Python, ale zupełnie nie jesteśmy zamknięci na inne języki. Więc jak nie masz doświadczenia w Pythonie, to akurat nie jest problem. Liczy się tutaj mindset. Nie musisz też mieć doświadczenia komercyjnego z LLM-ami. W tym miejscu nauczymy Cię. Jeżeli masz jakieś pytania odnośnie tego stanowiska jak to wygląda, to napisz do mnie na LinkedInie na priv bądź na Discordzie. Szczegóły znajdziesz w ogłoszeniu. Ogłoszenie oczywiście tak jak wszystkie inne linki tutaj znajdziesz na stronie odcinka i pod spodem. W zeszłym roku mieliśmy taki odcinek o vibe codingu i zmieniło się Szymon dużo chyba.
Szymon Warda: Prawie wszystko się zmieniło, że tak powiem. Zmieniły się możliwości, to, co można było zrobić, to, co jest możliwe i jak w ogóle do tego podejść. Tak że bym powiedział rewolucja, ale też przeszliśmy przez taką fazę, że: subagenci, wszystko będzie inaczej i to też nie poszło aż w tym kierunku, więc…
Łukasz Kałużny: Nie, ale inaczej. Powiem Ci tak, myśląc rano o tym odcinku uknułem bardzo zły tytuł i przehype’owany i clickbaitowy, ale można go nazwać w niektórych rzeczach, które robimy, vibe workingiem w niektórych miejscach już, jeżeli popatrzysz. Bo używamy tego szerzej ogólnie, szeroko w naszej pracy z tego korzystamy.
Szymon Warda: Łukasz, ja miejscami czuję się jak nie powiem kto popędzający nie powiem kogo na farmie bawełny, przysięgam.
Łukasz Kałużny: Zostawię linka do stosownego mema.
Szymon Warda: O tego właśnie mema mi chodzi.
Łukasz Kałużny: Tak, o tego mema. Jest lepsze badanie. Ponoć to co tam, tak jak brzydko się wyrażamy do naszych agentów, jest pewien research, który mówi, że daje to lepszą jakość.
Szymon Warda: Daje, absolutnie daje, tak. Złotym środkiem jeszcze jest boldowanie rzeczy niektórych i albo pisanie je wielkimi literami też przynosi efekty.
Łukasz Kałużny: Dobra, to teraz tak, żarty żartami, z czego korzystamy Szymon? To może tak, jeżeli na to popatrzymy.
Szymon Warda: Ja nie (…) i VSCode… Mój flow jest bardzo prosty. Wchodzę do katalogu, tworzę nowy katalog, robię git init, potem wpisuję code spacja kropka, odpalam VSCode’a, potem Ctrl+Shift+P, odpalam okno Claude’a i lecimy. Jeżeli czegoś potrzebuję… Czemu w ogóle tak? Tak samo jak i Ty. Właściwie to okno chatowe jest powiedzmy jako zastępstwo do Google’a i wyszukiwania. A wrzucanie wszystkiego do Code’a, tam od razu mogę wrzucić jako pliki wszystkie załączniki, rzeczy, które potrzebuję, iterować i tak dalej, tworzę cały workspace w formie gita, odpalam Claude’a i to śmiga.
Łukasz Kałużny: Dobra, to idąc, ja mam, mój flow jest trochę inny, nie mogę się przyzwyczaić do okienka po prawej stronie z Claudem. Więc mój flow, jeżeli popatrzymy, ten pracy, czy tam w tym wejściu w projekcie jest bardzo podobny. O tak, jest bardzo podobny. Tylko ja najpierw odpalam code kropka, a potem w terminalu odpalam Claude’a sobie po prostu. Więc to jest taka różnica. Dobra. Chyba najważniejsza rzecz, z której wychodziliśmy jak rozmawialiśmy, to jest mało MCP. Nie mamy tam tego nawalone i to jest chyba bardzo ważna rzecz.
Szymon Warda: Nie ma, bo też to nie ma sensu. Mamy to samo odnośnie pamięci. Mamy to samo praktycznie odnośnie Bicepa / Terraforma / Azure’a tak naprawdę, tego co potrzebujemy. Ty jeszcze polecasz bawienie się Playwrightem. Ja jeszcze miałem use case’y pod to.
Łukasz Kałużny: Dobra, to listuję to co mamy tam u siebie. To ja tak, to co powiedziałeś, czyli Context7 do szerokiej dokumentacji, MCP Context7 polecamy, MCP Microsoft Learn do dokumentacji Microsoftowej, bo najwięcej pracujemy z Azurem. To jest to, to, to z tej listy, takiej codziennie używanej, MCP do dokumentacji Terraforma, żeby być na bieżąco jak trzeba coś rzucić. I ja jeszcze tutaj wrzuciłem tego Play standardowo, jak teraz musiałem się bawić kawałkami frontendów do tych rzeczy i tego potrzebowałem, to Playwright MCP, żeby agent mógł sobie zrobić screenshota i zobaczyć błędy, żebym nie musiał tego przeklejać po prostu z lenistwa, jak mi coś nie odpowiadało. Więc to są takie rzeczy, które, jeżeli chodzi o MCP, mam standardowo załadowane.
Szymon Warda: Znaczy ja jeszcze w kontekście książki, którą ostatnio czytałem, mianowicie Stolen Focus. To nie jest jakaś super nowość, powiedzmy z ostatnich kilku lat. Zacząłem dużo eksperymentować w kontekście właśnie context switchingu, bo z reguły agent to jest nowy proces, bo buduje się i powiedzmy on tam coś tam grzebie. Jeżeli damy mu odpowiednią robotę, to będzie grzebał dość długo, możemy sobie powiedzieć. I tylko wyskakuje czasem okno pytające, czy coś może zrobić. Z reguły klikamy tak. Więc ja eksperymentuję dość sporo w kontekście tego właśnie, żeby context switching mój tak naprawdę między różnymi zadaniami był jak najmniejszy. I to, co mi się udało wypracować, co faktycznie działa, wydaje mi się, że nawet dobre efekty przynosi, to jest po pierwsze to, że o ile kiedyś miałem powiedzmy 2 VSCode’y odpalone koło siebie, to teraz robię tak, że każdy wirtualny desktop jest osobnym zadaniem niejako, nad którym pracuję. Tam jest VSCode, tam jest przeglądarka, tam jest terminal. I co ważne, przerzuciłem się też na terminal w VSCodzie, a nie ten osobno odpalony. I to jest fajne, bo w tym momencie Windows + Ctrl + strzałki i przełączam się między kolejnymi zadaniami. I to faktycznie bardzo fajnie ułatwia, że jest konkretne dzielenie i wszystkie zasoby odnośnie tego zadania są na tym konkretnym desktopie. I tak mniej więcej dwa do trzech takich desktopów i to działa. Naprawdę polecam to mocno bardzo bym powiedział. Mniej tabowania, szukania co, gdzie jest i o co chodzi.
Łukasz Kałużny: No dobra, to ja tutaj mam w tym… Ja raczej…
Szymon Warda: Też dodam, dobra książka, polecam, naprawdę.
Łukasz Kałużny: Nie, dobra, to z moimi mam tak, że po prawej stronie trzymam sobie, to u mnie dosłownie na ekranie, to tam w zależności od podziałki, ale powiedzmy, że albo mam podzielone na 3 albo na 2 okna, tam w zależności od kontekstu. To na jednym oknie jest na pół ekranu, mam po prostu terminal z Claude’ami, o tak, terminal z Claude’ami. A na drugiej połowie mam VSCode’a, albo w zależności nad czym tam dokładnie pracuje. Więc ja mam trochę inaczej, trochę więcej context switchingu. Mi akurat to jakoś w tym patrząc się, że czasami wpuszczając dłuższe zadania to lecę z auto acceptem na edit i na buildy i patrzę co się patrzę co się dzieje.
Szymon Warda: Oczywiście. Dobrze, to co się u nas jeszcze pozmieniało?
Łukasz Kałużny: To jest jedna organizacja. Druga rzecz, to tam właśnie powiedziałem tym. Mi się teraz jeszcze zdarza, zacząłem korzystać troszeczkę z skilli i teraz bardzo mocno trzeba popatrzeć na to od strony, bo głównie się… Szymon, Ty też porzuciłeś tak naprawdę GitHub Copilota już częściowo od jakiegoś czasu na rzecz Claude Code’a.
Szymon Warda: Tak, czasami do jakichś tekstów nie technicznych po to, żeby się przełączyć na ChataGPT, bo czasami ma trochę bardziej taki edge pisząc.
Łukasz Kałużny: Tak, jak zobaczysz. Więc chyba to jest jedna taka ważna zmiana. GitHub Copilot u nas jest po to, żeby wiedzieć, co możemy spotkać u klientów i co powiedzieć i raczej to jest bardziej sprawdzanie. Claude stał się wyborem, chyba tak. Kolejna osoba u nas w firmie też się przesiadła na Claude Code’a. To pozdrowienia dla Sebastiana w tym momencie. Więc to jest jeden taki istotny element. I teraz tak, w Claude Code on szaleje mocno. I rzecz, którą na przykład u mnie teraz już bardzo mocno wykorzystuję, to jest tryb planu, o tak, do debugowania, zaplanowania rozwiązania issue’a, zrobienia za mnie. Mam przygotowany gdzieś kawałek, na przykład w jednym projekcie teraz wykorzystuję skilla. I 1 ze skilli, który jest publicznie, z którego też korzystam, już wrzuciłem, żeby można było sobie zobaczyć, mam w nim załadowane skille i komendy, czyli to co mam po slashu, żeby na przykład w kontekście jakiegoś konkretnego projektu mieć do repo załadowane komendy typu właśnie /skill, który ma opisany step by step jak robić debug na przykład, żeby ściągnąć mi wszystkie informacje i zrobić wstępną analizę tam w danym rozwiązaniu wszystkich informacji. Czyli wpisuję sobie na przykład slash, uprośćmy /debug i podaję sobie ID na przykład tej transakcji, tego wywołania ID do korelacji i ma zacząć mi, zgarnąć z różnych miejsc informacje.
Szymon Warda: To w tym momencie przypomniała mi się jedna rzecz, która mocno wybiła i to widać jak dokładnie stały się modele wrażliwe. Dobra praktyka, najprostsza, to jest po prostu, która się bardzo sprawdza, to jest mówienie zrób i zweryfikuj w tym momencie, bo agent często stwierdzi, że się naprawił, a nie naprawił. I polecenie, żeby zweryfikował, zbudował i do końca sprawdził jest też to jest taki dość spory oszczędzacz czasu naszego przede wszystkim. Mała drobnica, ale naprawdę oszczędza.
Łukasz Kałużny: Więc tak, to jest taki jeden element, który jest w tym wszystkim istotny. I teraz to, co mówisz do sprawdzania, to jest rzecz, którą testuję, bo to jest użycie Codexa od OpenAI-a i też zalinkowałem tutaj do niego skilla. Robimy sobie, to jest Codex integration for Claude Code. Jest bardzo fajnie rozwinięty. Czyli wrzucamy sobie, żeby zrobił nam review na przykład teraz naszego pull request, który przygotowujemy, naszej rzeczy, którą mamy nie scommitowane, żeby zrobił tego review. I to jest dość taka nietypowa rzecz, że wywołujemy sobie, żeby inny model zobaczył. Druga rzecz, warto słuchajcie zobaczcie, jeżeli korzystacie…
Szymon Warda: Łukasz, jeszcze tylko nawiążę, to nie zawsze koniecznie musi być inny model, to czasami może być też inny prompt, w sensie inna sesja zupełnie, która nie ma tego całego kontekstu do weryfikacji tego, co, jak to działa i do sprawdzenia. Tak, też z tego korzystam bardzo mocno i to jest bardzo przydatne.
Łukasz Kałużny: Tak, jeżeli zobaczycie jeszcze na Skill Directory od Anthropika oficjalne, wyjdzie reklama w ogóle Claude, ale to sorry. Jeżeli zobaczycie na, gdzieś tam na część, to też są właśnie, teraz tam powstał cały marketplace z tym. Jedną z takich rzeczy to jest właśnie PR Reviewer, który jest oddzielnym skillem, subagentem, który to będzie weryfikował i sprawdzał co się dzieje. To jest taki istotny element, że to dostajemy, że też jest wbudowane. Z takich skilli jeszcze gdzieś mi się ostatnio przewinął i go u siebie troszeczkę testuję z tych pluginów, to jest taki plugin, który… Jeden to jest ten Code Review, a drugi to jest PR Simplifier, tak mniej więcej to ładnie można go określić. Czyli front, którego zadaniem jest: spróbuj to uprościć, spróbuj ten wyżyk uprościć. Więc to jest też ciekawa rzecz. I istotna rzecz, te pluginy, skille, komendy, to o czym wszystkim mówimy, to jest tak naprawdę kawałek markdowna odpowiednio zbudowanego. I polecam sobie, jeżeli korzystacie, to polecam sobie zobaczyć jak wyglądają pluginy właśnie w Code’zie, bo jedną z najciekawszych elementów jest to, że plugin to jest zbiór skilli, czyli tego co masz pod slashem, agentów, komend w tym, oraz MCP, JSON-a. Czyli plugin może przynieść swoje wymagane MCP, które będą on demand odpalone. To też jest ciekawy pod spodem element, który się znajduje.
Szymon Warda: Dobra, ja bym jeszcze skorzystał z tego momentu do korekcji tego co się zmieniło właściwie, bo mówiliśmy, że zmieniło się dużo. Kilka rzeczy, które się zmieniły w kontekście poprzedniego odcinka, który mieliśmy, to jest z mojej strony tych kilka rzeczy. Po pierwsze, modele nauczyły się już PowerShella.
Łukasz Kałużny: Inaczej…
Szymon Warda: Działa. To nie jest tak, że bash działa, a na PowerShellu nie ogarnia średników i składnia mu się rypie. Działa. Teraz już to generalnie można powiedzieć spokojnie: działa. To też może zrobić, nie wiem czy próbowałeś generalnie, że z jednego repo modyfikacje innego repo. Czyli sytuacje kiedy mamy na przykład helma i mamy jakiś source, to umie się połączyć i umie sobie zapisać, że ma dostęp do innego katalogu i tam też operować niemalże natywnie. Bardzo fajna rzecz, żeby nie trzeba się przełączać. Właśnie Context Open Telemetry i szkolonka, inne rzeczy, które właśnie teraz robimy. I dla mnie ostatnia rzecz, która była pierdołą, to było wklejanie screenshotów, jeżeli coś nie działa, do UI, do którego nie mamy dostępu i tak dalej, przekonuje modele momentalnie, okej, że już wiedzą o co chodzi. Więc bardzo fajnie to działa.
Łukasz Kałużny: Dobra, i to jest taki element, że właśnie tak jak z tym Playwrightem, o którym powiedziałem, że mi się zdarza, żeby z lenistwa, żeby sam robił screenshoty. O tak, miałem taką wredną rzecz. Więc dla mnie teraz… Inaczej, teraz patrząc się z perspektywy takiego, jak to się ładnie określa, duera, to naprawdę jest niezastąpione, o tak, w tym momencie. I na przykład ta kasa za te, jeżeli teraz popatrzymy zupełnie uczciwie, kasa za te rzeczy zwraca się.
Szymon Warda: Mieliśmy dyskusję, bo to jest też w ogóle ciekawe, odnośnie dziwnych rzeczy, które udało nam się ostatnio zakodować. Ja zacznę, bo ja ostatnio totalnie agentowo obkodowałem port szeregowy. Poszła komunikacja przez USB, przez konwerter na port szeregowy. Kolejnym planem jest podłączenie oscyloskopu, żeby debugować sygnał analogowy pod USB. Można, jak najbardziej. Więc jeżeli to zadziała, to nie ma już limitów, że tak powiem. Ty miałeś też dość ciekawe przygody.
Łukasz Kałużny: Wiesz co, to jest, zastanawiam się, czy zaczynamy z side projectem Patoli, czy może tego co robiliśmy u klienta. Ale zacznijmy od Patoli. Zacznijmy od Patoli. Powiedzmy, że potrzebowałem sobie, zrobiłem sobie serwer HTTP proxy, który z maszyny wirtualnej z faktycznym HTTP proxy też komunikuje się przez wirtualny port szeregowy, o tak. Po co mi HTTP proxy na maszynie wirtualnej? Niektórzy mogą się domyślać, innych zapraszamy może na Discorda o tej dyskusji po co, tak i to zostawmy. A z ciekawszych rzeczy to potrzebowałem, bo mieliśmy taką akcję, że pomagamy klientowi przenieść się z konfiguracją sieciową, z konfiguracją reguł firewall’owych z klikania na Terraforma. Jednym z takich artefaktów, który tam powstał, bo przydałoby się nie przenosić śmietnika, który jest niepotrzebny do Terraforma, bo są tam pewne naleciałości. I tutaj dosłownie od pomysłu do działającej rzeczy minęły 4 godziny. To serwer, który odbiera z firewalli logi w postaci rsysloga po UDP. To jest istotne, więc może tego przyjąć dużo, napisane w Golangu. I zapisuje sobie, dumpuje ten ruch z odpowiednim tam przeparsowaniem i innymi rzeczami do plików parquet, które możemy na przykład DuckDB (…) już potem bardzo prosto odczytać. I na przykład takie narzędzie napisane do migracji było kurde 4 godziny, ono pójdzie do kosza potem, ale w ogóle ci nie będzie, nie będzie tego żal. Ale na czas takiej migracji, jeżeli wiesz na przykład właśnie takich onetime narzędzi pisanych, zresztą Szymon, ilość skryptów w życiu migracyjnych, które się przy aplikacjach napisaliśmy, to była masakra, o tak.
Szymon Warda: Słuchaj, ja migrowałem mój katalog przepisów kucharskich z Evernote do Obsidiana w pełni automatycznie.
Łukasz Kałużny: Szymon ma takie zboczenie zawodowe. Ten Cook It jeszcze żyje?
Szymon Warda: Właśnie go wyłączyłem niedawno.
Łukasz Kałużny: Teraz jeszcze jedna rzecz taka, bo to jest nasz świat, w którym my pracujemy, mamy troszeczkę wygodniejszy sposób zakupu narzędzi i większą elastyczność ze względu na też wielkość naszej firmy, Protopii. Z drugiej strony mamy też świat, gdzie pracujemy z klientami.
Szymon Warda: Trochę inny.
Łukasz Kałużny: I tam trochę jest bardziej smutna rzeczywistość. Musimy brać pod uwagę więcej governance, centralizacji, zarządzania licencjami, czyli ten taki staw cały przy około kiedy masz większą skalę.
Szymon Warda: Tak, chociaż ja bym tu jedną rzecz dodał. Dość jasno wynika, że lecimy z Claude’a. O ile kiedyś różnica była większa, to teraz powiedzmy Copilot z modelami claude’owymi też daje radę. To już nie jest taka przepaść jak była kiedyś. Wyrównało się, naprawdę już jest bardzo dobrze, bym powiedział.
Łukasz Kałużny: Dokładnie. Więc tutaj jest, teraz rzecz polega na tym wszystkim, że testujemy sobie też, ja testuję z klientami GitHub Copilota w różnych rzeczach. I Copilot co do zasady naprawdę daje radę. To już nie jest ten moment. Teraz jeszcze jestem ciekaw, w przyszłym tygodniu będę robił eksperymenty z GitHub Copilot CLI jak działa bez Code’a, ale zapowiada się obiecująco. Właśnie z jednej perspektywy, robiłem teraz u klienta też taki flow przy okazji tych firewalli, żeby można było zlecić agentowi pracę i to wejść nie u siebie w ogóle w Copilocie, tylko że Twoim interfejsem jest po prostu sesja Copilota w przeglądarce. Jeżeli możecie zobaczyć tam jest zlecanie sesji, czyli wrzucasz prompta i weź to obrób, pod tytułem: przygotuj mi pull request, żeby otworzyć ruch pomiędzy A i B razem z review. I kurde robił to, robił to bezbłędnie. Na jakich rzeczach? Też mam okazję testować tego agenta na CodeBase, też naprawdę daje radę. I trzecią istotną rzeczą z tymi elementami to jest to, że agent może chodzić na Twoim self-hosted runner’ze, mając dostęp do Twojej infry. I tu to działa naprawdę i robi to. Dla mnie było to małym teraz game changerem w tym miejscu, jeżeli tak popatrzymy.
Szymon Warda: W ogóle integracja, jeżeli chodzi właśnie o agentów lokalnych nawet, właśnie z tym, żeby same ogarniały odpalanie buildów, odpalanie w ogóle samego GitHuba jako takiego actionu, wyników, to w zupełności działa. Podpowiem, po pierwsze, takie rzeczy umieją po HTTP sobie bardzo ładnie radzić i po HTTP sczytywać wyniki. Ale jak jeszcze mu powiemy, że ma GitHub CLI-a zainstalowanego, to już w ogóle całkowicie sam ogarnia niemalże wszystko co może zrobić w GitHubie. Taka mała pierdoła, trzeba czasami go nakierować.
Łukasz Kałużny: Inaczej, to nawet w innych projektach, bo na przykład mamy jakiś projekt teraz z klientem w Azure DevOps i do projektu do Claude’a mam zapiętego MCP, czy do GitHub Copilota mam MCP do DevOpsa Zapięte.
Szymon Warda: Też daje radę.
Łukasz Kałużny: Żeby zarządzać właśnie worka itemami i całość sobie aktualizować. To jest jedna rzecz. I teraz żeby to dobrze działało, to kłania się Agents.md, Claude.md. I taka rzecz, jak ja wchodzę na jakiś codebase, na który nie ma, to lokalnie sobie generuję w Claude, po prostu robię /init, żeby wstępnie zainicjalizował sobie ten plik. Zostawię Wam tutaj wpis, który opowiada w jaki sposób można podejść do strukturyzowania. Jeżeli za to macie w firmie Copilota, to polecam Wam zobaczyć Copilot Instruction. W szczególności to na przykład co powiedziałem o tym agencie do firewalli, to tam bardzo mocno jest zrobiona oczywiście struktura i są custom instruction robione per typy plików i per katalogi. I muszę przyznać, że to dość dobrze dynamicznie się ładuje w te customowe. Jestem z tego aktualnie mocno w tym miejscu zadowolony, w jaki sposób tego dokonuje. I warto sobie zobaczyć w ogóle, jeżeli używacie VSCode’a, jak bardzo na przykład mamy te custom instruction i inne elementy, w jaki sposób można to sobie zcustomizować, to wszystko tam, bo to też jest bardzo ciekawy element.
Szymon Warda: Tak, jeszcze taką, bo już powoli będziemy się zbierali, jeszcze takie trochę ziarenko goryczy dosypię. Mówiliśmy o tym, żeby właśnie używać Gita i to jest super ważne, bo ja ostatnio miałem sytuację, kiedy agent po prostu powiedział: sorry, wiesz co, musisz już ręcznie ten plik, bo coś mi się pomieszało. Więc takie rzeczy też się zdarzają. I ten flow pracy, jeżeli chodzi właśnie o inicjalizację, nie poleganie tylko na vibe codingu przez kilka dni i tak dalej, bo wszystko będzie w porządku, to się nie sprawdza. Przydaje się jasne commitowanie, jasne opisywanie, co się właściwie działo i robienie sobie jasnych checkpointów z weryfikowaniem konkretnego agenta i co tam się w ogóle wydarzyło.
Łukasz Kałużny: Właśnie, jest taka ciekawostka na przykład, polecamy Wam posłuchać, bo nie wiem, czy reklamowaliśmy tutaj, na newsletterze na pewno. Mamy też drugi, trochę mniej techniczny, Powered by Protopia videocast, który możecie znaleźć na YouTubie. I tam jest też ciekawy element, że tutaj w przeciwieństwie do Pato, który wychodzi co tydzień, tam nie trzeba było się tak męczyć, bo to puszczamy odcinek średnio raz na 3 tygodnie. To to wszystko leży w Gicie. Nie bawiłem się w żadnego CMS-a i inne rzeczy do zarządzania podcastem. Po prostu leży sobie prywatne, w naszym orgu leży prywatne repozytorium gitowe, gdzie znajdują się transkrypcje, harmonogram i inne rzeczy i zrobiony pod to cloudMD. Jak jeszcze z 4, 5 odcinków zrobimy, to wyekstraktuje skille, żeby wiedział jak sobie pobrać i przygotować wszystkie materiały na podstawie transkrypcji.
Szymon Warda: Dokładnie. Dobra, kończymy chyba w takim razie.
Łukasz Kałużny: Kończymy. Trzymajcie się.
Szymon Warda: Dajcie znać czy taka forma bardziej miękka jest okej, czy bardziej technicznie, co i jak. No i (…) Łukasza trzymajcie się, tak że trzymajcie się.
Łukasz Kałużny: Trzymajcie się. Na razie.
Szymon Warda: Hej.

Wypełnij poniższy formularz, aby być na bieżąco ze wszystkimi
odcinkami Patoarchitektów
i uzyskać dostęp do dodatkowych
materiałów.