Wprowadzenie: Blask po adrenalinie i kofeinie
Andrzej Kinastowski (AK): Konnichiwa! Witajcie wszyscy w AI Automation Dojo, gdzie przyglądamy się kondycji konferencji biznesowych i zadajemy pytanie: czy tego wszystkiego nie dało się załatwić mailem? Cóż, postanowiliśmy zrobić taką, której nie dało się. Dziś pławimy się w blasku po naszej trzeciej edycji Konferencji Samurai and Friends. Usłyszycie dwóch założycieli Office Samurai, którzy aktualnie działają na niebezpiecznym połączeniu adrenaliny i kofeiny. Jesteśmy tu, by rozłożyć na czynniki pierwsze, co się dzieje, gdy tworzy się konferencję o inteligentnej automatyzacji, która szanuje inteligencję wszystkich uczestników. Jestem waszym gospodarzem, Andrzej Kinastowski, jednym z założycieli Office Samurai — firmy, która postanowiła zorganizować konferencję i faktycznie uczynić ją użyteczną. Wyobraźcie to sobie. Więc niezależnie od tego, czy byliście tam i chcecie ponownie przeżyć tę chwałę, czy też ominęło was to wydarzenie i toniecie w FOMO — jesteście we właściwym miejscu. Teraz chwyćcie swoją ulubioną katanę albo ten darmowy długopis, który na pewno zgarnęliście z biurka rejestracyjnego, i zaczynajmy. W zeszłym tygodniu odbyła się trzecia edycja naszej corocznej konferencji Samurai and Friends. Dominik, jak się czujesz — jak bardzo jesteś zmęczony? Czy już się zregenerowałeś?
Dominik Jaskulski (DJ): Andrzeju, po pierwsze, powinienem zapytać cię — jaka konferencja? Oficjalnie żadnej konferencji nie było. Nie ma żadnej strony internetowej, na której można by kupić bilety. To wydarzenie wyłącznie na zaproszenie, gdzie zapraszamy naszych przyjaciół — głównie osoby na stanowiskach menedżerskich, dyrektorskich lub C-level — aby porozmawiać o automatyzacji AI i usprawnianiu procesów. I czuję się trochę wyczerpany, ale zadowolony.
(AK): Ostatecznie mieliśmy coś około 160 osób. Mieliśmy naprawdę świetne afterparty, które moim zdaniem jest oczywiście całkiem ważne. A pytanie, które często sobie zadaję zaraz po konferencji, brzmi: dlaczego właściwie to robimy?
(DJ): Organizujemy to wydarzenie, ponieważ na rynku jest mnóstwo szumu wokół tego, co potencjalnie można osiągnąć dzięki AI. Widzisz te posty na LinkedInie z 500 przypadkami użycia AI, które w zasadzie nic nie znaczą, prawda? Jeśli się im przyjrzeć, to prawdopodobnie zostały wygenerowane przez samo AI i nie są to prawdziwe przypadki użycia. Chcieliśmy więc zobaczyć, co naprawdę dzieje się na rynku, co jest możliwe, jakie projekty realizują różne firmy, a także jakie błędy popełniają w trakcie tych projektów. Myślę, że to również była interesująca część — i bardzo rzadka na konferencjach, prawda? — że prelegenci pokazują także to, co nie poszło dobrze albo w jaki sposób uznali, że muszą zmienić kierunek swojego projektu. Myślę, że to właśnie jest największa wartość — ta konferencja dotyczyła prawdziwych rzeczy, prawdziwych projektów.
(AK): Myślę, że to coś, co — jak widzimy również w ankietach wypełnianych przez uczestników — przede wszystkim pokazuje, że zasada „zero ściemy” została zachowana. A osoby, które występują, to ci, którzy faktycznie coś robią i są gotowi dzielić się swoimi historiami.
(DJ): Chciałem tylko dodać, że nie było żadnych wystąpień o planach dotyczących programów AI, mapach drogowych AI ani innych konsultingowych bzdur, prawda? Chodziło wyłącznie o prawdziwe projekty, które faktycznie się wydarzyły, i o to, jakich wniosków ludzie z nich wyciągnęli.
Technologie i partnerzy
(AK): Mieliśmy na konferencji całkiem sporo różnych technologii, choć już widzimy, że na przykład w świecie RPA niektórzy dostawcy trochę pozostali w tyle, jeśli chodzi o AI. Mieliśmy jednak dużo szczęścia, że współpracowały z nami i sponsorowały nas firmy partnerskie. Były to UiPath i KYP.ai. Aspire pomagało nam przy organizacji konferencji oraz w nagłośnieniu wydarzenia. I oczywiście była też firma Shock, która co roku przygotowuje świetną scenografię i zajmuje się wszystkimi technicznymi detalami. To, co zrobili w tym roku — zsynchronizowanie kolorów całej sali z głównym kolorem prezentacji — to, moim zdaniem, jeden z tych drobnych elementów, których nie zobaczy się nigdzie indziej.
(DJ): I myślę, że musimy też wspomnieć, że konferencja była tak gorąca, że aż mieliśmy pożar, prawda?
(AK): Och tak. Mieliśmy pożar. Nie było to zamierzone, ale bardzo, bardzo szybko udało się go opanować — jednak tak, rzeczywiście mieliśmy taki incydent.

Najważniejsze momenty pierwszego dnia
(AK): Ty prowadziłeś pierwszy dzień, trzymając wszystko pod kontrolą i w ryzach czasowych. Zaczęliśmy od mojego wystąpienia otwierającego, w którym mówiłem o branży gier. Jakie masz przemyślenia na ten temat?
(DJ): Tak, byłem naprawdę zaskoczony i ciekaw, co chciałeś przenieść z branży gier do świata automatyzacji AI. Jestem pewien, że zrobimy o tym osobny odcinek podcastu, więc pewnie nie ma sensu teraz zagłębiać się w ten temat.
Prezentacja 1: Automatyzacja Agentyczna (Krzysztof Karaszewski z AgenciAI.biz)
(AK): Następnie wystąpił Krzysztof Karaszewski z AgenciAI.biz. Jego temat brzmiał „Nowa granica: co jest możliwe dzięki automatyzacji agentycznej”, a Krzysztofa znamy już od dawna. Co o tym sądzisz?

(DJ): Cóż, powiedziałbym, że to wystąpienie bardzo różniło się od pozostałych, które skupiały się na konkretnych projektach. Krzysztof pokazywał, co obecnie jest możliwe dzięki AI, a także jak szybko rozwijają się modele. Wyniosłem z jego prezentacji dwie rzeczy:
- LLM nie ma teraz aż takiego znaczenia, prawda? Bo za miesiąc pojawi się jakiś nowy model LLM, który być może rozwiąże problemy, z jakimi mierzyłeś się wcześniej. Więc nie chodzi o to, czy używasz ChatGPT, Claude’a, Gemini czy któregokolwiek z nich, prawda? Myślę, że ważniejsze jest po prostu to, aby mieć dostęp do tych modeli bazowych w swojej organizacji.
- Drugim wnioskiem jest kwestia promptowania, prawda? Chodzi o to, by zapytać AI, w jaki sposób AI mogłoby pomóc nam właściwie zadać pytanie innemu AI.
(AK): To coś, co bardzo zaciekawiło wiele osób, bo jeśli już to robisz, to w pewnym sensie już o tym wiesz i wydaje się to oczywiste, ale jeśli nigdy wcześniej tego nie próbowałeś, to jest to pewnego rodzaju moment „aha” — że możesz poprosić LLM, by napisał prompt dla innego LLM, i że robi to naprawdę, naprawdę dobrze. Nadal jednak musisz wiedzieć, co chcesz z tego uzyskać.
(DJ): To znaczy, to też zależy od tego, czego oczekujesz od LLM, prawda? Jeśli pytasz LLM, jaka jest najwyższa góra na świecie, to prawdopodobnie nie potrzebujesz żadnych specjalnych technik inżynierii promptów. Ale jeśli chcesz, żeby LLM zrobił coś bardziej złożonego, coś prawdziwego, to wtedy powinieneś bardziej skupić się na jakości swojego pytania. Myślę, że on nazwał to „meta-promptowaniem”.
(AK): Meta-promptowanie. Tak, dokładnie. Kolejna rzecz, która mnie bardzo zaciekawiła, to jego eksperymenty z wykorzystaniem LLM do analizy procesów. To temat, o którym sporo dyskutujemy w firmie. Bardzo by nam to pomogło. Na razie to trochę metoda prób i błędów — niektóre rzeczy działają, inne nie tak dobrze, jak byśmy tego chcieli.
(DJ): Zdecydowanie widzę obecnie, że nasi analitycy bardzo aktywnie korzystają z AI do robienia notatek ze spotkań, podsumowań czy listy kolejnych działań. Więc to już teraz pomaga. Ale gdyby AI potrafiło także narysować całą mapę procesu bez większych błędów — albo przynajmniej wykonać 80% pracy — to byłoby idealne, prawda? Myślę jednak, że wyzwanie polega na tym, że te rozwiązania dobrze działają, gdy mamy tzw. „happy path”, ale gdy pojawia się wiele wyjątków, powroty do wcześniejszych etapów procesu, dodawanie kolejnych elementów — wtedy AI znacznie trudniej za tym nadążyć.
(AK): Tak, no dla ludzi to jest trudne, więc dla AI tym bardziej. Większość procesów, z jakimi się spotykamy, już dawno przestała być prostymi procesami typu „happy path”. A Krzysztof publikuje też wiele ciekawych postów na LinkedInie, więc zachęcamy wszystkich, żeby zajrzeli, co pisze. Zawsze stara się przesuwać granice tego, co AI potrafi zrobić.
(DJ): Jest jeszcze jedna rzecz, którą pamiętam z prezentacji Krzysztofa. Porównywał on agentów UI, prawda? Czyli agentów, którzy zamiast klasycznych robotów RPA, gdzie mamy selektory i krok po kroku mówimy robotowi, co ma zrobić w aplikacji, działają inaczej. Teraz, dzięki LLM, koncepcja polega na tym, że możesz po prostu dać prompt typu: „hej, zarezerwuj mi lot do Dubaju w przyszłym tygodniu” albo „hej, chcę nową deskorolkę, wybierz najlepszą dla mojego średniego poziomu umiejętności i kup ją dla mnie”. Na rynku są już przykłady, gdzie LLM potrafi na przykład zamówić dla ciebie pizzę.
Ale gdy mówimy o prawdziwych procesach biznesowych i zapytasz LLM: „hej, chcę zatrudnić Andrzeja w mojej firmie, więc skontaktuj się z nim i zatrudnij go”, LLM może mieć problem z ustaleniem, co dokładnie musi zrobić, żeby to faktycznie zrealizować.
Krzysztof pokazywał też porównanie, jak działają Claude i ich agentyczny interfejs UI w różnych aplikacjach — i to było dla mnie bardzo interesujące — że LLM „uczy się” aplikacji na podstawie położenia elementów, prawda? Czyli identyfikuje przyciski, a potem wie: muszę zejść 200 pikseli w dół, 100 w lewo i kliknąć kolejny przycisk. Ale co się stanie, jeśli zmieni się rozdzielczość albo interfejs?
Porównywał to również, z tego co pamiętam, do rozwiązania UiPath — chyba UI Vision albo UI Agent — gdzie agent wciąż otrzymuje podstawowy prompt o tym, co ma zrobić, ale działa na selektorach, a nie na pozycjach przycisków. Co jest ciekawe i, z tego co pamiętam, znacznie szybsze.           
(AK): Tak, ale minie naprawdę, naprawdę dużo czasu, zanim pozwolimy agentom samodzielnie klikać w naszych systemach, prawda? To technologia, która wciąż ma przed sobą długą drogę. Bo jeśli przetwarzasz dziesiątki tysięcy spraw i pozwalasz agentowi każdorazowo samemu decydować, to nie byłoby ani efektywne, prawda? Ale w tym momencie byłoby też dość ryzykowne.
(DJ): I myślę, że dla małych firm albo osób prywatnych, które mogą pozwolić sobie na takie ryzyko, to nie byłby problem, prawda? Ale dla dużych korporacji, gdzie chcesz, żeby AI trzymało się określonego procesu, to może być wyzwanie. I ten motyw właściwie powracał w różnych wystąpieniach — właśnie to pytanie, jak upewnić się, że AI, a w szczególności Gen AI, nie będzie robić głupich rzeczy.
Prezentacja 2: Automatyzacja e-maili z wykorzystaniem AI (Kingfisher)
(AK): Następnie wystąpili Dariusz Procyk i Mirosław Rodzeń z Kingfisher. Dla tych, którzy nie znają logo Kingfisher — w Polsce należą do nich sklepy Castorama, a w Wielkiej Brytanii VNQI. To naprawdę duża, międzynarodowa firma, a posiadanie tak wielu sklepów samo w sobie stanowi wyzwanie. Tytuł ich wystąpienia brzmiał: „Drogi e-mailu, musimy porozmawiać — automatyzacja e-maili z wykorzystaniem AI”. To projekt, który faktycznie realizujemy wspólnie z nimi, więc mamy wgląd w to, co tam się dzieje. Otrzymują około 30 000 e-maili miesięcznie na wspólne skrzynki finansowe. I ktoś musi te e-maile przetwarzać, prawda?

(DJ): I to nie dotyczy tylko jednej skrzynki, prawda? Bo z tego co pamiętam, jest ich czterdzieści kilka. Są więc różne zespoły, różne języki. Nie da się więc po prostu stworzyć prostego formularza i powiedzieć wszystkim: „o, teraz musicie wypełniać formularz, a my będziemy to obsługiwać jako zgłoszenie serwisowe”, na przykład.
(AK): A cała historia dotyczyła tego, jak wspólnie zbudowaliśmy framework oparty na wielu różnych komponentach, z których jednym z kluczowych elementów był komponent AI — tzw. communications mining. Zadaniem communications mining było wzięcie wiadomości e-mail, uporządkowanie danych i wyodrębnienie tych informacji, które są potrzebne robotom do wykonania odpowiednich procesów. Było tam kilka naprawdę ciekawych przykładów, gdzie te e-maile są czasem trudne do obsługi nawet dla ludzi. Nie zawsze zawierają wszystkie potrzebne informacje, czasem są napisane w bardzo dziwny sposób, a czasem nawiązują do wiadomości sprzed pięciu e-maili wstecz w tym samym wątku. Pamiętam właściwie dwa takie przykłady:
- Jeden z przykładów to e-mail o treści: „Hej, zrób dla mnie to samo zadanie, co w zeszłym tygodniu”. I naprawdę trzeba znać tę osobę oraz znaleźć jej wcześniejsze zgłoszenie, żeby zrozumieć, o co jej chodzi.
- Drugi przykład dotyczył zdjęcia, prawda? Ktoś po prostu wysłał zdjęcie z informacją o zużyciu prądu w sklepie. Tylko zdjęcie — i to była cała treść e-maila, prawda? A zadaniem było zaksięgowanie w systemie finansowym, ile energii elektrycznej zostało zużyte w danym miesiącu.
(AK): To naprawdę dobre przykłady tego, jak teoria spotyka się z praktyką — i widzimy, że te technologie przeszły długą drogę, a communications mining to świetne narzędzie, z którego z powodzeniem korzystaliśmy. Ale przy niektórych typach projektów ta technologia po prostu nie wystarcza na obecnym etapie. I właśnie o tym była ta historia — że teraz zaczynamy wykorzystywać LLM-y do przetwarzania tych e-maili, ponieważ ze względu na ich złożoność samo narzędzie communications mining już nie wystarcza. Oczywiście użycie LLM-ów wiąże się z własnymi wyzwaniami. Nie otrzymuje się na przykład wskaźnika pewności (confidence score), który w tego typu procesach jest kluczowy.
(DJ): Dla tych z was, którzy nie znają pojęcia communications mining — bo część naszych słuchaczy może je słyszeć po raz pierwszy — jest to podejście, w którym uczy się model uczenia maszynowego na dużej liczbie e-maili, co ma z nimi robić: jak kategoryzować je do różnych kategorii, jak wyciągać z nich określone informacje. To zupełnie inne podejście niż w przypadku LLM-ów, gdzie po prostu dajesz prompt w stylu „zrozum, o co chodzi w tym e-mailu” — i liczysz na najlepszy rezultat.
(AK): Tak, naprawdę interesująca technologia. Jestem pewien, że zrobimy o niej osobny odcinek. Na razie nie ma idealnych rozwiązań, jeśli chodzi o przetwarzanie e-maili czy zgłoszeń. Zobaczymy, dokąd zaprowadzi nas technologia. Ale myślę, że to wystąpienie było bardzo wartościowe z perspektywy tego, o czym wspomniałeś wcześniej — świetnie jest mówić o rzeczach, które się udały, ale jeszcze ważniejsze, może nawet ważniejsze, jest mówienie o tym, co nie zadziałało, żeby inni nie musieli popełniać tych samych błędów, co my.
Prezentacja 3: Analiza interakcji cyfrowych (SPS Hungary)
(AK): Następnie wystąpił Gábor Körmendi z SPS Hungary. Tematem jego prezentacji była „Analiza interakcji cyfrowych: przypadek SPS Hungary”. Opowiadał o tym, jak w swojej organizacji wykorzystują KYP.ai, prawda? Dominik, ty dość często pracujesz z KYP.ai.

(DJ): SPS — dla tych, którzy nie znają tej organizacji — to firma typu BPO, czyli zajmująca się outsourcingiem usług. W przeszłości była częścią Swiss Post Services w ramach grupy XC, a obecnie działa jako niezależna organizacja. Oczywiście mają wiele powtarzalnych zadań — realizują procesy dla wielu klientów, głównie z Niemiec. I muszą ewidencjonować czas pracy, prawda?
Załóżmy, że ty, Andrzeju, spędzasz 2 godziny na realizacji pewnego procesu dla BMW. Następnie trzeba wystawić fakturę tej firmie za twoje dwie godziny pracy. W przeszłości ludzie ręcznie wybierali: teraz pracuję dla firmy A i wykonuję ten proces, a teraz dla firmy B i robię coś innego.
Dzięki KYP.ai odkryliśmy, że pracownicy spędzali około 4% swojego czasu tylko na wybieraniu, przy jakim procesie aktualnie pracują. To generowało koszt liczony w tysiącach godzin rocznie — tylko na tę czynność. Dzięki KYP.ai udało się to ograniczyć, ponieważ KYP.ai działa w tle i samodzielnie rozpoznaje, co robią pracownicy, a pomiary może wykonywać z dokładnością do sekund.           
(AK): Więc nie tylko nie zajmuje to czasu pracowników, ale też uzyskuje się wyniki znacznie bliższe prawdzie niż w przypadku pomiarów manualnych.
(DJ): Dodatkowo mieli też dostęp do informacji o aktywnościach swoich pracowników. Dzięki temu mogli zobaczyć, ile faktycznie pracują, czy niektórzy są niedostatecznie wykorzystywani lub przeciążeni, a także jak lepiej zrównoważyć pracę w zespole. Byłem jednak trochę zaskoczony, że nie korzystają jeszcze z funkcji odkrywania procesów (process discovery) w KYP.ai — czyli funkcji, które potrafią wskazać, co można zautomatyzować lub usprawnić w procesach, analizując działania pracowników i tworząc na ich podstawie mapy procesów. Ale z tego, co zrozumiałem, to właśnie kolejny krok, który planują podjąć w swojej drodze rozwoju.
(AK): I coś, co wciąż mnie zadziwia w KYP.ai, to fakt, że kiedy po raz pierwszy zobaczyłem to narzędzie — a wywodzę się ze środowiska ciągłego doskonalenia — moją pierwszą myślą było: „o mój Boże, gdybym prowadził projekty lean management, miałbym tak niesamowite dane”. A potem okazuje się, że różne firmy wykorzystują je do zupełnie innych celów, prawda? I to wciąż ma sens. Ostatecznie więc jest to narzędzie, które różne organizacje wdrażają z zupełnie różnych powodów.
(DJ): W przypadku SPS chodziło o zarządzanie operacyjne — chcieli lepiej sterować swoimi procesami. Ale mamy też firmy, które używają KYP.ai wyłącznie do identyfikowania przypadków do automatyzacji lub usprawnień, prawda? Albo takie, które po prostu chcą dowiedzieć się, jakie procesy w ogóle posiadają.
Prezentacja 4: Zacznij od lean i nigdy nie przestawaj (Euroclear)
(AK): Kolejnym prelegentem był Michał Baraniak z Euroclear. Tematem jego wystąpienia było Zacznij od… Lean. I nigdy nie przestawaj. Historia ciągłej transformacji Euroclear Bank. . To wystąpienie było zdecydowanie w moim stylu, prawda? Wywodzę się z Lean Management i zbudowałem swoją karierę na ciągłym doskonaleniu. A tak właściwie, Michał był częścią mojego zespołu w Lufthansie. Euroclear to bank dla banków — zajmuje się transakcjami międzybankowymi i wieloma naprawdę istotnymi rzeczami, które, jak wiadomo, mogą zatrzymać świat, jeśli coś w Euroclear nie zadziała, prawda? Jakie masz przemyślenia na temat tego, co robią w Euroclear?

(DJ): To znaczy, to było coś zupełnie innego niż typowa transformacja lean. Zazwyczaj widzimy, że do firmy przychodzą czarne pasy lean, wprowadzają Kaizen — czyli te drobne usprawnienia, które każdy może zgłaszać — wdrażają tablice dla zespołów albo spotkania typu stand-up. Powiedziałbym, że to raczej podstawowe elementy, które budują fundament kultury lean.
A Euroclear jest zupełnie inny, bo oni robią to już od wielu lat i doszli do wniosku, że nie mogą skupić się wyłącznie na poziomie zespołów podczas transformacji lean. Zaczęli więc realizować projekty end-to-end, analizując, co robią różne zespoły, ale w ramach całego procesu od początku do końca. I muszę przyznać, że bardzo zaskoczył mnie przykład, który pokazał Michał — mieli proces, który składał się, o ile dobrze pamiętam, z 95 kroków. W proces ten zaangażowanych było kilka zespołów, a zadania były przekazywane między nimi 50 razy.
Kiedy przeanalizowali ten proces, pokazali wyniki zespołom i wspólnie zaprojektowali, jak powinien wyglądać w rzeczywistości, udało im się zmniejszyć liczbę kroków do około 40. Liczbę przekazań między zespołami zredukowali do 15, może nawet mniej. Znacząco uprościli więc cały proces. Skrócili też czas realizacji kilkukrotnie — z kilku dni do jednego dnia.
I jeśli pomyśleć o automatyzacji — gdyby na ten pierwszy, pierwotny proces przyszły zespoły RPA albo AI i zapytały: „jak możemy to zautomatyzować za pomocą LLM lub AI?” — pewnie udałoby się poprawić kilka miejsc, osiągnąć jakieś szybkie zwycięstwa, ale w rzeczywistości byłaby to ogromna strata czasu.            
(AK): To prawda — i to jest coś w rodzaju świętego Graala ciągłego doskonalenia: usprawnianie procesów end-to-end. Wszyscy o tym mówią, wszyscy chcą to robić, ale naprawdę niewiele firm faktycznie to robi. A tutaj rzeczywiście to robią — i, tak jak powiedziałeś, to logiczna sekwencja kroków. Zaczęli od podstaw: mają dashboardy, mają spotkania — wszystkie te elementy zostały wdrożone. Ale na tym nie poprzestali. Poszli dalej, w coraz bardziej złożone obszary. I to naprawdę działa, prawda? To lata i lata pracy.
I co również bardzo istotne — nie można się zatrzymać. Nie można zmienić kierunku po kilku latach, bo to właśnie często się zdarza: przychodzi nowy dyrektor zarządzający, uruchamia program ciągłego doskonalenia, realizują go przez trzy, cztery lata, osiągają świetne wyniki, a potem dyrektor odchodzi. Przychodzi nowy i mówi: „Nie, nie, nie, teraz będziemy robić coś innego”.            
(DJ): To prawda. Jest jeszcze jedna rzecz, która moim zdaniem była u nich wyjątkowa — na pierwszym miejscu postawili klienta. Cała ta transformacja była skoncentrowana na kliencie, a oni faktycznie zapraszali klientów do udziału w tych projektach, aby przekazali im swoje opinie, aby wysłuchać tzw. głosu klienta (voice of the customer).
(AK): Dokładnie tak. Wszyscy mówią, że to robią, wszyscy wiedzą, że tak powinno być — ale prawie nikt faktycznie tego nie robi.
Prezentacja 5: Inicjatywa automatyzacji RABuy (Rockwell Automation)
(AK): Kolejne wystąpienie poprowadzili Sawa Konfisz i Jakub Markowski z Rockwell Automation. Rockwell Automation to firma zajmująca się automatyzacją — jak sama nazwa wskazuje. Ale chodzi o tę automatyzację, o której wszyscy myślą, gdy mówi się „roboty” — czyli rzeczywistą, fizyczną automatyzację przemysłową.
Jednak ich prezentacja dotyczyła czegoś innego — tytuł brzmiał: „RABuy: inicjatywa automatyzacji eliminująca SAP z procesu zakupowego”. I bardzo spodobał mi się ten pomysł, bo wymyślili coś, na co sam prawdopodobnie bym nie wpadł.
W skrócie — kiedy muszą wprowadzić zapotrzebowanie zakupowe do systemu (a realizują takich zakupów mnóstwo), biorą ofertę otrzymaną od dostawcy, przesyłają ją do systemu, a AI odczytuje dane z tej oferty i tworzy z niej zamówienie zakupu. I kiedy już się to zobaczy, wydaje się to najbardziej logicznym rozwiązaniem na świecie. Wygląda wręcz oczywiście.       

(DJ): I jeśli się nad tym zastanowić, to nie brzmi może spektakularnie. Ale kiedy zaczęli mówić o liczbach, wyciągnąłem telefon, otworzyłem kalkulator i szybko policzyłem, że faktycznie zwiększyli produktywność całej firmy o jakieś 50 etatów, jeśli dobrze pamiętam. Nie jestem pewien, czy udało im się to przełożyć bezpośrednio na P&L, ale nawet jeśli to są tzw. miękkie oszczędności na poziomie 50 etatów w organizacji liczącej kilka tysięcy osób, to oznacza, że pracownicy mogą skupić się na ważniejszych rzeczach niż wprowadzanie zamówień do systemu.
(AK): To nie jest coś, co ludzie lubią robić. Ręczne wprowadzanie danych zdecydowanie nie należy do ulubionych zajęć. A oni stworzyli bardzo zgrabne narzędzie z łatwym w użyciu interfejsem, które wykonuje tę pracę za ciebie. Oczywiście, mając na uwadze, że LLM-y wciąż potrafią „halucynować” i popełniać błędy, ostatnim krokiem jest to, by człowiek sprawdził, jak system zinterpretował ofertę, wprowadził ewentualne poprawki i dopiero wtedy pozwolił mu utworzyć zamówienie.
(DJ): Jest też inna perspektywa, z której można to zobaczyć — oni tak naprawdę wykorzystali podejście low-code do tworzenia aplikacji. Stworzyli więc własną aplikację low-code, która wyglądała znacznie lepiej niż ich stary system SAP. Dodatkowo mogli zrezygnować z części licencji SAP, co może nie jest najlepszą wiadomością dla SAP-a, ale z pewnością przyniosło Rockwellowi pewne oszczędności.
Drugi dzień – szczegółowe prezentacje
(AK): To był koniec pierwszego dnia. Nie będziemy wchodzić w szczegóły dotyczące afterparty — ale było fenomenalne. A potem przyszedł dzień drugi. Ponieważ pierwszego dnia prezentacje trwają po 30 minut, jest trochę czasu na pytania, ale skupiamy się głównie na przekazywaniu pomysłów, inspirowaniu ludzi i pokazywaniu przykładów zastosowań. Natomiast drugiego dnia przeznaczamy czas na szczegółowe sesje — mamy mniej wystąpień, ale dłuższe, godzinne, w których zagłębiamy się w szczegóły wdrożeń i często techniczne aspekty tego, co się dzieje. Ten dzień prowadziła Dagmara Sysuła, nasza Delivery Manager.
Prezentacja 1: Agent AI dla serwisu P2P (McCormick)
(AK): Pierwszym wystąpieniem drugiego dnia była prezentacja Radosława Ociepy z McCormick. Mówił o agencie AI dla serwisu P2P. To temat, który jest nam szczególnie bliski, ponieważ w ostatnich miesiącach również nad czymś takim pracowaliśmy. Jakie masz wrażenia?

(DJ): Myślę, że agenci serwisowi — niezależnie od tego, czy mówimy o finansach, HR, zakupach czy help desku IT — to właśnie ten obszar, w którym faktycznie pojawi się ogromna liczba automatyzacji opartych na AI. Podejrzewam też, że gdy mówimy na przykład o zwolnieniach w Salesforce, prawda? Ogłosili, że spośród 9 000 osób w dziale obsługi klienta zredukowali liczbę pracowników o około 4 000. I przypuszczam, że w większości byli to właśnie agenci pierwszej linii wsparcia (level one service desk agents).
(AK): I myślę, że kiedy słyszymy o tych masowych zwolnieniach, które firmy ogłaszają, większość z nich to bzdura w tym sensie, że tłumaczą to AI, ale poziom adopcji AI wcale nie jest jeszcze tak wysoki. To po prostu wymówka, żeby zrobić coś, co i tak by zrobili. Ale w tym przykładzie, o którym mówisz, myślę, że faktycznie może tak być. To obszar, w którym Gen AI jest naprawdę skuteczne — zwłaszcza na poziomie L1.
Dla słuchaczy: jeśli szukacie dobrego obszaru, od którego warto zacząć przy wdrażaniu AI, to właśnie praca typu service desk może być świetnym miejscem. Oni zbudowali swoje rozwiązanie w oparciu o UiPath Agents, czyli dość nowe rozwiązanie — ma zaledwie kilka miesięcy, odkąd uzyskało ogólny dostęp. Pokazali jednak, że dzięki tej technologii mogą wdrażać rozwiązania szybko i skutecznie. Bo gdyby mieli budować to od zera, wymagałoby to ogromu pracy i umiejętności, których — nie wiem, czy w ogóle — mają wewnątrz organizacji. Pewnie musieliby zatrudnić inżynierów DevOps od uczenia maszynowego i podobnych specjalistów.         
(DJ): Dzięki temu, że już mają platformę UiPath i korzystają z robotów, wdrożenie tego rozwiązania stało się dla nich znacznie, znacznie prostsze. I naprawdę nie mogę się doczekać, co będzie dalej. Wspomnieli, że zaczęli od serwisu P2P, ponieważ w tym obszarze pojawia się mnóstwo powtarzalnych pytań typu: „hej, jaki jest status mojej faktury?”.
(AK): I ma to sens, żeby zacząć właśnie tam, ale już mają plany, żeby wykorzystać tę samą technologię do zrobienia tego samego w innych działach serwisowych. Dzięki temu, że mieliśmy całą godzinę, mogliśmy naprawdę głęboko wejść w szczegóły, jak to zrobili. Dokładnie zobaczyliśmy, w jaki sposób zbudowali swoich agentów.
(DJ): Myślę, że to był dość typowy układ, prawda? Mieli, o ile pamiętam, trzy lub cztery aplikacje, w których trzeba było sprawdzać informacje — SAP, Ariba i jeszcze dwie inne. W zależności od przypadku użycia trzeba było zajrzeć do jednej z nich. Więc to nie był agent działający tylko w jednej aplikacji, lecz konieczne było orkiestracyjne zarządzanie tym, co robią agenci.
Poza tym agenci nie wykonywali całej pracy sami, prawda? Były też integracje, były roboty RPA — klasyczne podejście. Agenci byli wykorzystywani do zrozumienia, czego dotyczy pytanie, a kiedy już wiadomo, o co chodzi, nie trzeba, żeby agent wykonywał całą pracę — można to zrobić klasyczną automatyzacją.           
(AK): Zdecydowanie. I myślę, że użyli też innego agenta do napisania ładnej odpowiedzi na podstawie danych, które robot przekazuje agentowi. Ale to ma sens i wyraźnie pokazuje, że nie warto używać AI do wszystkiego. Są elementy, w których AI ma sens, i takie, w których lepiej sprawdzają się inne technologie. Wiesz, co mnie zaskoczyło w tej prezentacji?
(DJ): Wspomnieli, że nie ma człowieka w pętli. A ich dyrektor biznesowy poprosił, aby nie weryfikować e-maili, które są wysyłane. Dla mnie było to naprawdę zaskakujące, bo zwykle zalecamy, aby ktoś na końcu dokonał weryfikacji lub przynajmniej na wczesnym etapie sprawdził, czy agent podąża we właściwym kierunku.
(AK): I ludzie o to pytali i było to omawiane. W zasadzie procesy, które obecnie wykonuje agent, są bardzo niskiego ryzyka, prawda? Zgadzam się, że na początku, przez pierwsze kilka tygodni, warto byłoby umieścić człowieka w pętli, ale lubimy odważnych ludzi, którzy robią odważne rzeczy.
Prezentacja 2: UiPath Act Two – automatyzacja agentyczna (UiPath)
(AK): Następnie wystąpił Piotr Zając z UiPath. Temat: UiPath Act 2 – Automatyzacja Agentyczna. To była naprawdę duża dawka informacji.

(DJ): To, moim zdaniem, była najbardziej treściwa prezentacja. Piotr mówi bardzo szybko i równie szybko pokazywał, jak UiPath transformuje swoją organizację i produkty — z tradycyjnego RPA w stronę automatyzacji nastawionej na AI. Myślę, że było to przede wszystkim interesujące dla klientów UiPath, może nie aż tak dla użytkowników Blue Prism czy Automation Anywhere. Ale kiedy rozmawialiśmy o tym, czy moglibyśmy zaprosić innych dostawców na konferencję i poprosić ich o przedstawienie możliwości AI, byliśmy sceptyczni, czy mieliby naprawdę co opowiedzieć. Odpowiedź mogłaby brzmieć: „Jakie możliwości AI?”
(AK): UiPath mocno pracuje nad stroną AI swojego biznesu, do tego stopnia, że określają to mianem „Act Two” — czyli przemiany ich platformy w coś zupełnie innego. To nie oznacza, że przestaną dostarczać roboty i tak dalej, bo mają one swoje miejsce w całym ekosystemie. Ale słusznie zauważają, że to już nie wystarcza, i dlatego wszystkie te funkcje AI muszą tam być — bo właśnie tego oczekują klienci.
(DJ): Krótko mówiąc, mam wrażenie, że UiPath stara się wprowadzić AI do każdego rodzaju swojego produktu, prawda? Umieszczają je w robotach, np. w funkcjach samonaprawiających selektory, w automatyzacji testów, np. w przypadkach użycia AI dla testów, w process mining, czyli w ekstrakcji dokumentów. W zasadzie wszędzie, gdzie można by potencjalnie użyć AI — ale oni już mają cały framework, prawda? Czyli nie budują tego od zera.
(AK): Ważne jest też to, że te funkcje AI są w pewnym sensie opcjonalne — jeśli nie podoba ci się pomysł samonaprawiających się selektorów, co osobiście budzi moje wątpliwości, a jestem pewien, że moi deweloperzy też mają swoje, to po prostu ich nie używasz. Ale masz możliwość skorzystania z nich wtedy, kiedy to pasuje i ma sens.
Prezentacja 3: KYP.ai i nieoczekiwane odkrycia (Office Samurai)
(AK): Następnie wystąpili Zuzanna Pamula i Michał Kozubski, oboje z Office Samurai, opowiadając o KYP.ai i nieoczekiwanych odkryciach. To było coś, na co naprawdę czekałem, mimo że pracuję z nimi na co dzień, ponieważ starali się zebrać jak najwięcej zaskakujących rzeczy, które oni lub nasi klienci odkryli podczas projektów z KYP.ai. Jak już wcześniej dyskutowaliśmy, KYP.ai można wykorzystać do wielu różnych rzeczy.

(DJ): Dla mnie największym wnioskiem było to, że być może powinniśmy pomyśleć o tworzeniu bardziej spersonalizowanych dashboardów w KYP.ai, gdzie można by sprawdzić, ile kosztują spotkania w twojej organizacji. Pokazywali naprawdę ciekawe przykłady, gdzie analizowana była praca menedżera, prawda? Wiesz, menedżer w obecnych organizacjach zazwyczaj korzysta z Outlooka, może Teams, trochę Excela. I zamiast czasem wykonywać konkretną pracę, spędza głównie czas na spotkaniach i rozmowach z ludźmi — czasem jest to uzasadnione, czasem pewnie można by to ograniczyć. Ale tak naprawdę nie wiesz, jak duża jest skala tego zjawiska. Z KYP.ai można jednak policzyć, ile kosztują twoje codzienne spotkania.
(AK): I to coś, co dla menedżerów stanowi większość ich pracy. Ale nawet pracownicy operacyjni spędzają dużo czasu na spotkaniach, prawda? Oczywiście pewna liczba spotkań jest potrzebna, żeby wszystko funkcjonowało, ale w wielu organizacjach jest ich po prostu za dużo, a te spotkania przeszkadzają pracownikom w wykonywaniu ich rzeczywistej pracy.
(DJ): Kiedy o tym myślę, nigdy nie słyszałem w żadnej organizacji, że brakuje spotkań. Zwykle słyszę albo „mamy wystarczająco” — co jest idealną sytuacją, albo „mamy za dużo” — a to dotyczy około 80% przypadków.
(AK): Próbuję przekonać Zuzannę lub Michała, żeby zrobili samodzielny odcinek podcastu właśnie o tym. Więc bądźcie czujni — wrócimy z kolejnymi przykładami.
Prezentacja 4: Podręcznik automatyzacji AI (Dominik Jaskulski)
(AK): A na deser — Dominik Jaskulski ze swoim wystąpieniem „AI Automation Playbook”. Dla mnie to było coś, o czym myślałem przez cały czas jego prezentacji — że powinniśmy stworzyć coś takiego wcześniej. Zebrał w nim przemyślenia, ramy i pomysły dotyczące tego, jak AI powinno być wprowadzane w organizacjach.

(DJ): Szczerze mówiąc, tę prezentację przygotowałem przypadkowo, bo pierwotnie planowałem mówić o przypadkach użycia AI — gdzie szukać zastosowań, które mają sens, a które nie, żeby uczestnicy konferencji wychodzili z konkretnymi pomysłami, od czego zacząć.
Ale kiedy zacząłem układać wszystkie slajdy, brakowało mi pewnej spójności w historii. Wpadłem więc na pomysł, że można wyróżnić kilka głównych faz wprowadzania AI w organizacji. Prezentacja była też oparta na wnioskach z dwóch raportów — jednego od McKinsey i drugiego od MIT. Oba raporty wskazywały na lukę w strategii AI, gdzie wiele organizacji prowadzi jedynie tzw. implementacje horyzontalne. Chodzi o to, że np. dajesz wszystkim pracownikom dostęp do ChatGPT czy Microsoft Copilot — niektórzy go używają, niektórzy nie. Trudno w takich przypadkach zmierzyć realne korzyści. KYP.ai może w tym pomóc, ale wciąż trudno przetłumaczyć te korzyści na P&L. McKinsey stwierdził, że tylko 1% organizacji uważa swoją strategię AI za kluczową.
Oprócz projektów horyzontalnych są też projekty wertykalne — jak agent P2P w McCormick czy projekt Rockwell Automation. To są projekty w określonym obszarze, obejmujące proces end-to-end i rozwiązujące realny problem organizacji. I faktycznie tylko około 5% takich projektów odnosi sukces; większość zatrzymuje się na etapie POC lub pilota. Wniosek był taki, że to właśnie te projekty dają prawdziwe korzyści, które przekładają się na P&L.
Jednak rozpoczęcie od takich projektów nie jest łatwe. Moja propozycja była taka, żeby wprowadzać AI etapami: najpierw w sposób horyzontalny — chatbota, Copiloty, potem AI asystentów, czyli AI podłączone do twojej wiedzy i baz danych, które mogą odpowiadać na pytania i podsumowywać informacje w systemach. Kolejny etap to proste agenty AI, które mogą coś dla ciebie zrobić w pojedynczym systemie. Przykłady z McCormick i Rockwell pokazują właśnie takie pojedyncze agenty — mają jedno zadanie, bez konieczności synchronizacji z bardzo złożonym systemem agentycznym.
Ostatni poziom to już orchestracja agentów — czasem agent musi orkiestracyjnie sterować innymi agentami. Zanim dojdziesz do tego poziomu, warto moim zdaniem wykonać pewną „pracę domową” i zacząć od podstawowych rzeczy.                           
(AK): Ten ostatni poziom to coś, co naprawdę niewiele firm osiąga, a na dużą skalę jeszcze nikt nie działa. To prawda — cokolwiek robisz, jeśli chcesz to robić odpowiedzialnie, a nie tylko w PowerPoincie, musisz wykonać pewną liczbę kroków, zanim tam dotrzesz.
Raport MIT jest brutalny — czytałem go i miałem wrażenie, że faktycznie tylko 5% takich projektów odnosi sukces i przynosi korzyści. Myślałem, że będzie to wyższy odsetek. Fakt, że 40% organizacji wprowadziło Copiloty lub chatboty AI dla pracowników, a w 90% firm pracownicy już z nich korzystają, oznacza, że twoje dane trafiają do czyjejś chmury bez twojej zgody i bez nadzoru. Uważam to za świetne odkrycie, bo jeśli jesteś w dziale bezpieczeństwa IT, musisz sobie uświadomić, że jeśli nie zapewnisz bezpiecznego sposobu korzystania z AI, pracownicy będą używać jej w sposób niebezpieczny — i nie będziesz w stanie ich powstrzymać.      
(DJ): Kolejna kwestia to szkolenia, prawda? Widzieliśmy wiele organizacji, które np. kupują ogólne szkolenia lub proszą pracowników, żeby obejrzeli kilka filmików na YouTube albo przeszli kurs o tym, czym są LLM, ale potem nie potrafią tego przełożyć na swoją pracę. Pokazywałem przykład jednej firmy — nie mogę podać nazwy — gdzie zespół analizował bardzo rozbudowane zapytania SQL, tysiące linii. Wrzuciłem te zapytania do Copilota, stworzyłem prosty prompt i w ciągu siedmiu minut uzyskali wynik, który wcześniej zajmował trzyosobowemu zespołowi cały dzień.
Według badań MIT, jeśli samodzielnie zaczynasz wdrażać AI w firmie, masz tylko 50% szans na sukces w porównaniu do współpracy z doświadczonym partnerem zewnętrznym.     
(AK): Wystąpienie, które wygłosiłeś, też będę namawiał, aby przerobić je na odcinek podcastu. Podsumowując — te dwa dni były dla nas zdecydowanie wyczerpujące, ale było niesamowicie cenne słuchać wszystkich historii, które miały do opowiedzenia firmy, i spotkać wszystkich ludzi zainteresowanych tymi tematami.
(DJ): Wiesz, czuję się naprawdę zainspirowany i pełen energii. I zazwyczaj to właśnie jest główny powód, dla którego biorę udział w konferencjach, prawda? Jednym z celów jest nauczyć się czegoś nowego, ale ta część inspiracyjna i ekscytacja — „hej, my też mamy ten sam problem, a oni już pokazali, jak go rozwiązać, więc zróbmy to również w naszej firmie” — to naprawdę motywuje.
Wnioski
(AK): I to już koniec naszego podsumowania Samurai and Friends. Scena jest pusta, banery zdjęte, a ostatnie darmowe ciastka zostały pożarte po zaciekłej walce. Dōmo arigatō za słuchanie naszego Victory Lab. Ogromne, szczere podziękowania dla prawdziwych bohaterów wydarzenia — prelegentów i firm, które podzieliły się swoimi historiami. Ten odcinek i sama konferencja nie byłyby możliwe bez naszej producentki Anny Cubal, mistrzyni strategii zza kulis. Nagrywamy w legendarnym Wodzu Beats Studio, gdzie już planujemy pomysły na kolejne wydarzenie. Jeśli to podsumowanie sprawiło, że chcesz wziąć udział w akcji następnym razem, upewnij się, że śledzisz nas w mediach społecznościowych, by nie przegapić ogłoszeń. Do następnego razu — utrzymuj swoje procesy zautomatyzowane, a konferencje wolne od ściemy. Mata ne.
 
															 
															 
															 
															