{"id":22310,"date":"2026-02-12T12:03:21","date_gmt":"2026-02-12T11:03:21","guid":{"rendered":"https:\/\/office-samurai.com\/odcinek-19-wojny-ai-agenci-i-koniec-rpa-jak-genai-naprawde-zmieni-swiat-w-najblizszych-latach\/"},"modified":"2026-03-13T16:05:46","modified_gmt":"2026-03-13T15:05:46","slug":"odcinek-19-wojny-ai-agenci-i-koniec-rpa-jak-genai-naprawde-zmieni-swiat-w-najblizszych-latach","status":"publish","type":"post","link":"https:\/\/office-samurai.com\/pl\/odcinek-19-wojny-ai-agenci-i-koniec-rpa-jak-genai-naprawde-zmieni-swiat-w-najblizszych-latach\/","title":{"rendered":"Odcinek 19 | Wojny AI, agenci i koniec RPA \u2013 jak GenAI naprawd\u0119 zmieni \u015bwiat w najbli\u017cszych latach?"},"content":{"rendered":"\n<div class=\"wp-block-buttons is-content-justification-center is-layout-flex wp-container-core-buttons-is-layout-a89b3969 wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button is-style-outline is-style-outline--1\"><a class=\"wp-block-button__link has-black-color has-text-color has-link-color has-medium-font-size has-custom-font-size wp-element-button\" href=\"https:\/\/youtu.be\/VgDZWIUMeWE?si=CRM49RTIpkVDmLOA\" style=\"border-radius:0px\" target=\"_blank\" rel=\"noreferrer noopener\">YouTube<\/a><\/div>\n\n\n\n<div class=\"wp-block-button is-style-outline is-style-outline--2\"><a class=\"wp-block-button__link has-black-color has-text-color has-link-color has-medium-font-size has-custom-font-size wp-element-button\" href=\"https:\/\/open.spotify.com\/episode\/2I6569rjYPNfreW21LSzru?si=45-i6KS_RhybRDjv2fE9mA\" style=\"border-radius:0px\" target=\"_blank\" rel=\"noreferrer noopener\">Spotify<\/a><\/div>\n\n\n\n<div class=\"wp-block-button is-style-outline is-style-outline--3\"><a class=\"wp-block-button__link has-black-color has-text-color has-link-color has-medium-font-size has-custom-font-size wp-element-button\" href=\"https:\/\/podcasts.apple.com\/us\/podcast\/ai-wars-agents-and-end-of-rpa-how-genai-will\/id1814320637?i=1000749283677\" style=\"border-radius:0px\" target=\"_blank\" rel=\"noopener\">Apple Podcasts<\/a><\/div>\n<\/div>\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Stan_rozwoju_oprogramowania_i_era_%E2%80%9Evibe_coding%E2%80%9D\"><\/span><strong>Stan rozwoju oprogramowania i era \u201evibe coding\u201d<\/strong><span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p><strong>AK:<\/strong> Konnichiwa, witamy w <a href=\"https:\/\/youtube.com\/playlist?list=PLhXE_-WUIvq0-qsJPqg509l6s7vLhEOPs&amp;si=OLO01yrVaR3-USGb\" target=\"_blank\" rel=\"noopener\">AI Automation Dojo<\/a>. Dzi\u015b przygl\u0105damy si\u0119 stanowi rozwoju oprogramowania i zadajemy pytanie: czy jeste\u015bmy in\u017cynierami, czy po prostu czarodziejami rzucaj\u0105cymi zakl\u0119cia na czarn\u0105 skrzynk\u0119, a\u017c zrobi to, czego chcemy? Naszym go\u015bciem jest dzi\u015b Krzysztof Karaszewski. Dawno temu to on nauczy\u0142 mnie programowania w UiPath, wi\u0119c je\u015bli uwa\u017cacie, \u017ce m\u00f3j kod jest kiepski, c\u00f3\u017c, technicznie rzecz bior\u0105c, to jego wina. Porozmawiamy o wojnach modeli, potencjalnym wygini\u0119ciu tradycyjnych bot\u00f3w oraz o czym\u015b zwanym \u201evibe coding\u201d, co szczerze m\u00f3wi\u0105c, wygl\u0105da jak co\u015b, co robi Generacja Z, ignoruj\u0105c przy tym wasze maile.     <\/p>\n\n<figure class=\"wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio\"><div class=\"wp-block-embed__wrapper\">\n<iframe class=\"cky-consent-iframe\" data-consent=\"marketing\" data-cky-src=\"https:\/\/www.youtube.com\/embed\/VgDZWIUMeWE?feature=oembed\" data-cky-placeholder=\"1\" class=\"cky-consent-iframe\" data-consent=\"marketing\" data-cky- data-cky-placeholder=\"1\" title=\"AI wars, agents and end of RPA - how GenAI will really change the world in next years?\" width=\"800\" height=\"450\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe>\n<\/div><\/figure>\n\n<p>Jestem waszym gospodarzem, Andrzej Kinastowski, jednym z za\u0142o\u017cycieli <a href=\"https:\/\/office-samurai.com\/pl\/firma-zajmujaca-sie-automatyzacja-procesow-biznesowych\/\">Office Samurai<\/a>, gdzie wierzymy, \u017ce jedyne, co powinno mie\u0107 halucynacje, to my na firmowej imprezie. Chwy\u0107cie wi\u0119c swoj\u0105 ulubion\u0105 katan\u0119 albo \u0142opat\u0119, \u017ceby zakopa\u0107 swoje stare akcje technologiczne, i zabieramy si\u0119 do pracy. Dzi\u015b go\u015bcimy Krzysztofa Karaszewskiego, eksperta w dziedzinie automatyzacji i AI. Po raz pierwszy spotka\u0142em Krzysztofa jakie\u015b osiem lat temu; w\u00f3wczas pracowa\u0142 w Symphony Solutions, a ja mia\u0142em szcz\u0119\u015bcie uczestniczy\u0107 w jego zaawansowanym szkoleniu dla programist\u00f3w UiPath RPA. Od tego czasu przeszed\u0142 d\u0142ug\u0105 drog\u0119 zar\u00f3wno w automatyzacji, jak i w AI. Krzysztof, witamy w dojo.     <\/p>\n\n<p><strong>KK:<\/strong> Dzi\u0119kuj\u0119, mi\u0142o tu by\u0107.<\/p>\n\n<p>AK: Krzysztof, co w zesz\u0142ym roku zrobi\u0142o na Tobie najwi\u0119ksze wra\u017cenie?<\/p>\n\n<p><strong>KK:<\/strong> C\u00f3\u017c, zdecydowanie post\u0119p, jaki dokonano w przypadku du\u017cych modeli j\u0119zykowych (LLM). Zaczynali\u015bmy od stosunkowo prostych system\u00f3w, kt\u00f3re uros\u0142y do niespotykanego wcze\u015bniej poziomu. Rok zacz\u0119li\u015bmy od AI potrafi\u0105cego wykonywa\u0107 bardzo proste zadania programistyczne, a ko\u0144czymy z systemami, kt\u00f3re faktycznie potrafi\u0105 tworzy\u0107 inne systemy.  <\/p>\n\n<p><strong>AK:<\/strong> Tak, w tym kontek\u015bcie przyjrzyjmy si\u0119 bli\u017cej 2025 roku. Zaczynali\u015bmy go z poczuciem, \u017ce co\u015b wiemy, a teraz, patrz\u0105c wstecz, wydaje si\u0119 to jak odleg\u0142a staro\u017cytna cywilizacja. Tempo rozwoju w niekt\u00f3rych obszarach by\u0142o wr\u0119cz absurdalne. Narz\u0119dzia, kt\u00f3re jeszcze sze\u015b\u0107\u2013dziewi\u0119\u0107 miesi\u0119cy temu by\u0142y hitem, teraz wydaj\u0105 si\u0119 niemal przestarza\u0142e. Daj nam raport po autopsji: co tak naprawd\u0119 wydarzy\u0142o si\u0119 na rynku w minionym roku i dlaczego wszystko wydaje si\u0119 porusza\u0107 tak szybko?    <\/p>\n\n<p><strong>KK:<\/strong> Dzi\u0119kuj\u0119, \u017ce to poruszy\u0142e\u015b, bo wchodzili\u015bmy w 2025 rok z pewnymi mocnymi przekonaniami i stanowiskami na samym pocz\u0105tku. W\u0142a\u015bciwie wszystko, co wydarzy\u0142o si\u0119 w 2025, zosta\u0142o zapocz\u0105tkowane pod koniec 2024, kiedy pojawi\u0142y si\u0119 nowe modele rozumowania \u2013 pierwsze modele reasoningowe w postaci o1. Wielu ludzi wierzy\u0142o te\u017c, \u017ce osi\u0105gn\u0119li\u015bmy \u015bcian\u0119 w rozwoju LLM, a nawet Ilya Sutskever potwierdzi\u0142, \u017ce pojawi\u0142a si\u0119 nowa przestrze\u0144 kreatywno\u015bci, kt\u00f3r\u0105 trzeba wykorzysta\u0107, aby zrobi\u0107 post\u0119p. Pod koniec 2025 roku okaza\u0142o si\u0119, \u017ce niekoniecznie jest to prawda; wygl\u0105da na to, \u017ce tej \u015bciany jeszcze nie osi\u0105gn\u0119li\u015bmy.   <\/p>\n\n<p>To prze\u0142om pod koniec 2024 roku pozwoli\u0142 nam wej\u015b\u0107 w 2025 z nowymi typami modeli rozumowania, kt\u00f3re mo\u017cna nazwa\u0107 \u201emy\u015bl\u0105cymi\u201d, cho\u0107 proces ten jest znacznie bardziej skomplikowany. Modele reasoningowe generuj\u0105 tokeny i s\u0105 dodatkowo trenowane pod k\u0105tem sposobu ich generowania, aby zwi\u0119kszy\u0107 swoj\u0105 wydajno\u015b\u0107. Takie podej\u015bcie ma pewne ograniczenia i wady, ale zdecydowanie zyski w inteligencji pozwalaj\u0105 je zrekompensowa\u0107. Wchodzili\u015bmy w rok z mocnym przekonaniem, \u017ce osi\u0105gn\u0119li\u015bmy \u015bcian\u0119 i tylko uczenie ze wzmocnieniem mog\u0142oby nas pchn\u0105\u0107 do przodu, co p\u00f3\u017aniej okaza\u0142o si\u0119 nie do ko\u0144ca prawd\u0105.<br\/>Pierwsz\u0105 du\u017c\u0105 premier\u0105 2025 roku by\u0142 model R1, model rozumowania od DeepSeek, kt\u00f3ry zszokowa\u0142 ca\u0142y \u015bwiat, poniewa\u017c zosta\u0142 wytrenowany przy u\u0142amku koszt\u00f3w w por\u00f3wnaniu do o1. By\u0142 naprawd\u0119 dobry, mniej wi\u0119cej na tym samym poziomie, ale osobi\u015bcie dostrzeg\u0142em problemy z takimi modelami, poniewa\u017c R1 naprawd\u0119 d\u0142ugo i g\u0142\u0119boko my\u015bla\u0142. Nie by\u0142o to \u0142atwe do wykorzystania w systemach agentowych, gdzie wcze\u015bniej otrzymywali\u015bmy odpowiedzi niemal natychmiast, ale w styczniu wszystko si\u0119 zmieni\u0142o \u2013 trzeba by\u0142o poczeka\u0107 troch\u0119 d\u0142u\u017cej, ale w zamian otrzymywali\u015bmy znacznie lepsz\u0105 odpowied\u017a.      <\/p>\n\n<p><strong>AK:<\/strong> Tak, pami\u0119tam, jaki szum to wywo\u0142a\u0142o, bo my\u015bleli\u015bmy, \u017ce Amerykanie odm\u00f3wi\u0105 sprzeda\u017cy chip\u00f3w Chinom i \u017ce w og\u00f3le nie dadz\u0105 rady. Nagle, jak powiedzia\u0142e\u015b, za u\u0142amek koszt\u00f3w powstaje model, kt\u00f3ry jest zaskakuj\u0105co dobry. Pod wieloma wzgl\u0119dami, z perspektywy koszt\u00f3w, kompromituje wszystkie inne firmy, kt\u00f3re przepala\u0142y miliardy na swoje modele. Kiedy m\u00f3wimy o modelach, ludzie m\u00f3wi\u0105 o \u201ewojnach modeli\u201d, i ka\u017cdy chce mie\u0107 najlepszy model, ten, kt\u00f3ry kr\u00f3luje w rankingu. Jak wygl\u0105daj\u0105 teraz Twoje rankingi si\u0142y? Kto jest \u201eprom king\u201d w\u015br\u00f3d LLM, a kto raczej je obiad sam w sto\u0142\u00f3wce w Twojej ocenie?     <\/p>\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Wojny_modeli_i_strategiczna_dysproporcja_miedzy_laboratoriami_AI\"><\/span><strong>Wojny modeli i strategiczna dysproporcja mi\u0119dzy laboratoriami AI<\/strong><span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p><strong>KK:<\/strong> Uwa\u017cam, \u017ce wojny modeli, czyli pr\u00f3by posiadania najlepszego modelu, to pu\u0142apka, i wyra\u017anie wida\u0107 to w przypadku OpenAI. OpenAI zdecydowanie ma teraz najlepszy model, kt\u00f3rym jest GPT-5.2 X High. Nawet sama nazwa jest troch\u0119 dziwna, ale nigdy nie byli dobrzy w nadawaniu nazw. Z drugiej strony, to absolutnie \u015bwietny model; prawdopodobnie nie jeste\u015bmy nawet w stanie zmierzy\u0107, jak dobry jest naprawd\u0119. To po prostu bardzo pot\u0119\u017cny model, ale z drugiej strony kosztuje mn\u00f3stwo \u2013 jest dwa\u2013trzy razy dro\u017cszy od drugiego najlepszego. Podobnie jak w przypadku R1, du\u017co my\u015bli i generuje wiele token\u00f3w wyj\u015bciowych, kt\u00f3re s\u0105 zwykle cztery\u2013pi\u0119\u0107 razy dro\u017csze ni\u017c tokeny wej\u015bciowe. Moim zdaniem nie pasuje zbyt dobrze do zastosowa\u0144 agentowych, bo ka\u017cdy krok w procesie rozumowania i ka\u017cda akcja zajmuje bardzo du\u017co czasu.      <\/p>\n\n<p>Ale tak, to zdecydowanie najlepszy model w tej chwili. Drugim najlepszym \u2013 i to te\u017c pokazuje, jak r\u00f3\u017cne strategie maj\u0105 te firmy \u2013 s\u0105 OpenAI, Anthropic i Google, kt\u00f3re konkuruj\u0105 ze sob\u0105. Obecnie xAI Elona Muska troch\u0119 odstaje, ale zobaczymy, co przynios\u0105 nowe modele, kt\u00f3re wydadz\u0105 w tym roku. Skupiaj\u0105c si\u0119 na tych trzech du\u017cych laboratoriach AI, uwa\u017cam, \u017ce OpenAI ma najwi\u0119ksz\u0105 dysproporcj\u0119 mi\u0119dzy modelami a produktem, kt\u00f3ry oferuj\u0105. Ich produktem jest ChatGPT, gdzie wi\u0119kszo\u015b\u0107 ludzi zadaje g\u0142upie pytania. B\u0105d\u017amy szczerzy \u2013 wi\u0119kszo\u015b\u0107 z tych pyta\u0144 mo\u017cna szybko rozwi\u0105za\u0107, korzystaj\u0105c z wyszukiwarki. Ale model, kt\u00f3ry maj\u0105, naprawd\u0119 du\u017co my\u015bli i nie daje zbyt dobrego do\u015bwiadczenia u\u017cytkownika, kiedy trzeba d\u0142ugo czeka\u0107 na jak\u0105kolwiek odpowied\u017a.      <\/p>\n\n<p>Jest ogromna r\u00f3\u017cnica mi\u0119dzy wersj\u0105 modelu OpenAI bez reasoningu a wersj\u0105 reasoningow\u0105. Ka\u017cdy model reasoningowy ma swoj\u0105 wersj\u0119 bez reasoningu. Istnieje wersja reasoningowa GPT-5.2 X High, ale jest te\u017c wersja bez reasoningu, kt\u00f3ra naprawd\u0119 nie jest zbyt dobra \u2013 po prostu sobie s\u0142abo radzi. To w\u0142a\u015bnie napotykaj\u0105 wi\u0119kszo\u015b\u0107 u\u017cytkownik\u00f3w ChatGPT, zw\u0142aszcza darmowych. Dlatego w sierpniu mieli\u015bmy sytuacj\u0119, w kt\u00f3rej ludzie byli rozczarowani GPT-5, bo dawa\u0142 gorsze odpowiedzi ni\u017c GPT-4o. Model by\u0142 szeroko reklamowany przez Sama Altmana jako co\u015b niesamowitego, a potem ludzie go dostawali i m\u00f3wili, \u017ce wcze\u015bniej mieli dost\u0119p do GPT-4o, kt\u00f3ry by\u0142 ca\u0142kiem dobry i dawa\u0142 wra\u017cenie \u201eludzkiego\u201d podej\u015bcia. Teraz otrzymuj\u0105 odpowiedzi od znacznie mniejszych modeli, chyba \u017ce zap\u0142ac\u0105.      <\/p>\n\n<p>Uwa\u017cam, \u017ce OpenAI nie ma zbyt dobrej strategii w tym sensie, \u017ce maj\u0105 \u015bwietne modele, ale tylko je\u015bli du\u017co zap\u0142acisz, wi\u0119c nie s\u0105 one dla szerokiej publiczno\u015bci. W przeciwie\u0144stwie do tego mamy Anthropic, kt\u00f3ry ma fenomenaln\u0105 strategi\u0119, bo koncentruje si\u0119 tylko na tym, co dzia\u0142a. Nie pr\u00f3buj\u0105 zast\u0105pi\u0107 Hollywood swoim modelem Sora; nie staraj\u0105 si\u0119 te\u017c stworzy\u0107 kolejnego \u015bwietnego modelu do generowania obraz\u00f3w. Skupiaj\u0105 si\u0119 wy\u0142\u0105cznie na automatyzacji agentowej i agentowym kodowaniu. W tej dziedzinie, mimo \u017ce ich modele nie zajmuj\u0105 szczyt\u00f3w ranking\u00f3w \u2013 w niekt\u00f3rych benchmarkach s\u0105 nawet troch\u0119 za modelami Google \u2013 s\u0105 najbardziej u\u017cyteczne i najlepsze pod wzgl\u0119dem praktycznej zastosowalno\u015bci.    <\/p>\n\n<p>Niewielu ludzi zauwa\u017cy\u0142o, \u017ce obecnie mo\u017cna korzysta\u0107 z modeli Anthropic w ramach Copilot i Copilot Studio od Microsoft. Microsoft przez wiele miesi\u0119cy wspiera\u0142 OpenAI i wydawa\u0142 miliardy, a teraz zdaj\u0105 sobie spraw\u0119, \u017ce dla swoich klient\u00f3w korporacyjnych, kt\u00f3rzy p\u0142ac\u0105 najwi\u0119cej, OpenAI nie b\u0119dzie najlepszym rozwi\u0105zaniem. By\u0107 mo\u017ce po prostu daj\u0105 tym klientom mo\u017cliwo\u015b\u0107 korzystania z Anthropic. W tej dziedzinie, mimo \u017ce Opus 4.5 nie zajmuje wszystkich szczyt\u00f3w ranking\u00f3w, jest prawdopodobnie najbardziej u\u017cytecznym modelem w tej chwili. To model, kt\u00f3rego u\u017cywam codziennie, bo odpowiada na moje zapytania znacznie szybciej i daje bardzo dobre odpowiedzi. Jest absolutnie fenomenalny, je\u015bli chodzi o prac\u0119 agentow\u0105; potrafi generowa\u0107 ca\u0142e systemy bez nadzoru cz\u0142owieka. Uwa\u017cam, \u017ce to jeden z prze\u0142om\u00f3w 2025 roku.      <\/p>\n\n<p>A mamy te\u017c Google. Google DeepMind ma bardzo silny zesp\u00f3\u0142, fenomenalne talenty i ogromne zasoby, prawdopodobnie najwi\u0119ksze moce obliczeniowe na \u015bwiecie. Nie trenuj\u0105 swojego modelu w jednym miejscu; s\u0105 w stanie trenowa\u0107 go w r\u00f3\u017cnych lokalizacjach, kiedy spada zapotrzebowanie na moc obliczeniow\u0105. Maj\u0105 model Gemini 3 Flash, kt\u00f3ry szczerze m\u00f3wi\u0105c powinien pasowa\u0107 do ChatGPT, bo jest szybki, odpowiada bardzo szybko i daje naprawd\u0119 dobre odpowiedzi. Jest tylko kilka punkt\u00f3w za modelami najwy\u017cszego poziomu. Dlatego widzimy rosn\u0105c\u0105 liczb\u0119 aplikacji Gemini Chat, bo dla zwyk\u0142ych u\u017cytkownik\u00f3w Gemini Flash ma wi\u0119cej sensu \u2013 jest cztery razy ta\u0144szy ni\u017c GPT-5.2.     <\/p>\n\n<p><strong>AK:<\/strong> Tak, my\u015bl\u0119, \u017ce Gemini by\u0142 prawdopodobnie moim ulubionym modelem 2025 roku, bo nie mia\u0142em jeszcze okazji du\u017co testowa\u0107 Anthropic. W pewnym momencie by\u0142em rozczarowany ChatGPT i przeszed\u0142em na Gemini. Czasami mnie zawi\u00f3d\u0142, ale og\u00f3lnie do\u015bwiadczenie by\u0142o naprawd\u0119 dobre, zw\u0142aszcza gdy prze\u0142\u0105czasz si\u0119 na szybki model do prostych zada\u0144, a je\u015bli chcesz p\u00f3j\u015b\u0107 g\u0142\u0119biej, u\u017cywasz modelu Pro i on wtedy sam \u201erozgryza\u201d sprawy za ciebie. To jest ca\u0142kiem interesuj\u0105ce, bo pami\u0119tam, \u017ce trzy lata temu, kiedy LLM-y dopiero si\u0119 zaczyna\u0142y, wszyscy m\u00f3wili, \u017ce OpenAI ma tak\u0105 przewag\u0119 nad wszystkimi, \u017ce inni nie b\u0119d\u0105 w stanie nadrobi\u0107. Wszyscy si\u0119 \u015bmiali z Google, bo wydawa\u0142o si\u0119, \u017ce troch\u0119 przespali co\u015b wielkiego, a tymczasem trzy lata wystarczy\u0142y, \u017ceby nadrobi\u0107 zaleg\u0142o\u015bci i zmieni\u0107 uk\u0142ad si\u0142, je\u015bli masz odpowiednie \u015brodki finansowe.    <\/p>\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Powrot_Google_i_strategia_halucynacji\"><\/span><strong>Powr\u00f3t Google i strategia halucynacji<\/strong><span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p><strong>KK:<\/strong> Tak, i Google ma w tym sporo do\u015bwiadczenia. Szczerze m\u00f3wi\u0105c, nigdy nie lekcewa\u017cy\u0142em Google; korzysta\u0142em z ich modeli od samego pocz\u0105tku. Powodem, dla kt\u00f3rego Google by\u0142o troch\u0119 w tyle, by\u0142a ich strategiczna decyzja, \u017ceby nie wypuszcza\u0107 modeli LLM, dop\u00f3ki nie rozwi\u0105\u017c\u0105 problemu halucynacji. To zabawne, bior\u0105c pod uwag\u0119, \u017ce teraz Demis Hassabis, kt\u00f3ry kieruje Google DeepMind, m\u00f3wi, \u017ce prawdopodobnie nigdy nie uda si\u0119 ca\u0142kowicie wyeliminowa\u0107 halucynacji; pewien ich poziom zawsze b\u0119dzie cz\u0119\u015bci\u0105 modeli. Kiedy zobaczyli, jak dobre s\u0105 te modele i \u017ce rynek oczekuje ich wydania \u2013 a oni tracili na warto\u015bci akcji \u2013 przekierowali \u015brodki w\u0142a\u015bnie na przestrze\u0144 LLM.    <\/p>\n\n<p>Google zaskoczy\u0142o wielu ludzi w 2025 roku. Widzia\u0142em to ju\u017c pod koniec 2024, kiedy wypu\u015bcili model Gemini 2.0 Flash. By\u0142 12\u201315 razy ta\u0144szy od GPT-4o, a jednocze\u015bnie dzia\u0142a\u0142 prawie na tym samym poziomie, a w wielu obszarach nawet lepiej. Dodatkowo okno kontekstu na poziomie 1 miliona token\u00f3w by\u0142o oko\u0142o 10 razy wi\u0119ksze ni\u017c to, co potrafi\u0142 analizowa\u0107 jakikolwiek inny model naraz. Zaraz po premierze DeepSeek R1, Google r\u00f3wnie\u017c wypu\u015bci\u0142o eksperymentaln\u0105 wersj\u0119 Gemini Flash z reasoningiem. To by\u0142 model my\u015bl\u0105cy i faktycznie \u015bwietny; odpowiada\u0142 bardzo szybko. To by\u0142 pierwszy moment, kiedy u\u015bwiadomi\u0142em sobie, \u017ce te modele staj\u0105 si\u0119 coraz lepsze w kodowaniu, poniewa\u017c Gemini 2 Flash thinking potrafi\u0142 bez \u017cadnych halucynacji wygenerowa\u0107 nawet dwa\u2013trzy tysi\u0105ce linii kodu. Ko\u0144czyli\u015bmy rok z kilkuset liniami, a potem w ci\u0105gu kilku miesi\u0119cy widzimy dziesi\u0119ciokrotny wzrost. Ludzie zacz\u0119li zdawa\u0107 sobie spraw\u0119, \u017ce Google zdecydowanie nadgania, a po wydaniu Gemini 2.5 Pro by\u0142o jasne, \u017ce Google wr\u00f3ci\u0142o do gry.        <\/p>\n\n<p><strong>AK:<\/strong> Tak, chc\u0119 przej\u015b\u0107 do kodowania, ale najpierw musz\u0119 Ci\u0119 o co\u015b zapyta\u0107, bo wspomnia\u0142e\u015b o halucynacjach, a to m\u00f3j ulubiony temat w kontek\u015bcie LLM. Mam wra\u017cenie, \u017ce przez ostatnie 10 lat Elon Musk m\u00f3wi, \u017ce w przysz\u0142ym roku Tesle b\u0119d\u0105 w pe\u0142ni autonomiczne, a ja wci\u0105\u017c musz\u0119 odwozi\u0107 moj\u0105 c\u00f3rk\u0119 do pracy. Sam Altman przez ostatnie trzy lata m\u00f3wi, \u017ce w przysz\u0142ym roku pozb\u0119dziemy si\u0119 halucynacji. Czy to w og\u00f3le mo\u017cliwe? Jak to widzisz \u2013 czy jest to wbudowane w technologi\u0119, czy jest szansa, \u017ce uda si\u0119 doprowadzi\u0107 do poziomu, w kt\u00f3rym nie b\u0119dziemy ju\u017c musieli tworzy\u0107 wszystkich mem\u00f3w o tym, co te silniki \u017ale rozumiej\u0105?<br\/>    <\/p>\n\n<p><strong>KK:<\/strong> Dop\u00f3ki nie znajdziemy lepszej architektury ni\u017c du\u017ce modele j\u0119zykowe, halucynacje prawdopodobnie nigdy nie znikn\u0105. Modele zawsze halucynuj\u0105; po prostu wi\u0119kszo\u015b\u0107 czasu robi\u0105 to poprawnie. Wczesne modele Gemini z pocz\u0105tku 2025 mia\u0142y wska\u017anik halucynacji na poziomie 0,5%, co by\u0142o bardzo niskie. Inne modele, jak o3, halucynowa\u0142y blisko 6%, co jest ogromn\u0105 r\u00f3\u017cnic\u0105. 6% to nie jest narz\u0119dzie gotowe do produkcji; je\u015bli halucynuje co 20 razy, ryzykujesz sporo pieni\u0119dzy. Dlatego lubi\u0142em Gemini 2.0 Flash, cho\u0107 niestety p\u00f3\u017aniej Google i Gemini odeszli od tej strategii i teraz ich modele halucynuj\u0105 jeszcze wi\u0119cej. Nie poleci\u0142bym modeli Gemini do wszystkich zastosowa\u0144 produkcyjnych w tej chwili; sensowniejsze mo\u017ce by\u0107 u\u017cycie modeli Anthropic, bo Sonnet znany jest z du\u017co mniejszej liczby halucynacji. Mechanizmy weryfikacji w systemach agentowych s\u0105 niezwykle wa\u017cne.       <\/p>\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Vibe_coding_i_przyszlosc_inzynierii\"><\/span><strong>Vibe coding i przysz\u0142o\u015b\u0107 in\u017cynierii<\/strong><span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p><strong>AK:<\/strong> Dobrze, przejd\u017amy wi\u0119c do kodowania, bo widz\u0119 Twoje posty na LinkedIn i wiem, \u017ce to jest co\u015b, czym si\u0119 naprawd\u0119 interesujesz. Termin \u201evibe coding\u201d zrobi\u0142 sporo szumu i rzeczywi\u015bcie brzmi jak co\u015b, co robi Generacja Z, s\u0142uchaj\u0105c lo-fi beats. Widzimy ludzi tworz\u0105cych oprogramowanie, po prostu rozmawiaj\u0105c z AI. Kiedy zaczynali\u015bmy podcast, potrzebowa\u0142em oprogramowania do promptowania, ale mia\u0142em bardzo konkretne wymagania co do jego dzia\u0142ania. Szuka\u0142em go przez dwie godziny i nie mog\u0142em znale\u017a\u0107 takiego, kt\u00f3re by\u0142oby dok\u0142adnie odpowiednie, a potem sp\u0119dzi\u0142em 15 minut z Google i po prostu napisa\u0142o mi to dok\u0142adnie tak, jak chcia\u0142em, dok\u0142adnie to, czego potrzebowa\u0142em na \u017c\u0105danie.    <\/p>\n\n<p>Uwielbiam to, ale pojawia si\u0119 pytanie: jak daleko to zajdzie? Czy wszyscy programi\u015bci i in\u017cynierowie wygin\u0105, bo po prostu \u201emagicznie\u201d b\u0119dziemy tworzy\u0107 oprogramowanie, czy to tylko co\u015b, czym mo\u017cna sobie pobawi\u0107 i zrobi\u0107 ma\u0142e rzeczy, a ze wzgl\u0119du na natur\u0119 LLM nigdy nie uda nam si\u0119 zbudowa\u0107 czego\u015b du\u017cego, realistycznie gotowego do produkcji? Jak to widzisz?  <\/p>\n\n<p><strong>KK:<\/strong> Zdecydowanie b\u0119dziemy w stanie budowa\u0107 systemy gotowe do produkcji i to nie jest odleg\u0142a przysz\u0142o\u015b\u0107. Sam ju\u017c tworz\u0119 takie systemy, korzystaj\u0105c z r\u00f3\u017cnych metod. 2025 by\u0142 rokiem modeli reasoningowych, a mechanizm, kt\u00f3ry to umo\u017cliwia, polega na dodatkowym treningu, gdzie model otrzymuje nagrody za poprawne odpowiedzi. Kod i matematyk\u0119 mo\u017cna szybko zweryfikowa\u0107 jako poprawne lub b\u0142\u0119dne. Mo\u017cesz szybko sprawdzi\u0107, \u017ce 2 plus 2 r\u00f3wna si\u0119 4, bez potrzeby u\u017cywania innego modelu LLM, bo on te\u017c mo\u017ce halucynowa\u0107. W tej dziedzinie dokonano najwi\u0119kszych post\u0119p\u00f3w.     <\/p>\n\n<p>Rozpoczynali\u015bmy 2025 rok od benchmarku AI Frontier Math, kt\u00f3ry jest niezwykle trudny \u2013 zadania normalnie zajmowa\u0142yby wykwalifikowanym matematykom tygodnie. Na pocz\u0105tku roku osi\u0105gali\u015bmy tylko 2%, a teraz mamy ponad 40%. To dwudziestokrotny post\u0119p. Wszystkie pytania matematyczne z benchmarku Acme zosta\u0142y rozwi\u0105zane przez modele LLM. Kod ma podobne w\u0142a\u015bciwo\u015bci \u2013 mo\u017cna go zweryfikowa\u0107: albo si\u0119 kompiluje, albo nie. Dzi\u0119ki temu modele reasoningowe staj\u0105 si\u0119 niezwykle dobre w kodowaniu. Na pocz\u0105tku 2025 roku modele LLM wykonywa\u0142y proste kodowanie, najwy\u017cej kilku setek linii, a teraz AI potrafi generowa\u0107 pe\u0142ne systemy, szczeg\u00f3lnie je\u015bli pod\u0142\u0105czysz je do rozwi\u0105za\u0144 agentowych, takich jak Claude Code, kt\u00f3ry mo\u017ce czyta\u0107 kod, analizowa\u0107 dane i potwierdza\u0107, czy podchodzi do zadania w odpowiedni spos\u00f3b.      <\/p>\n\n<p>To prawdopodobnie w\u0142a\u015bnie to zaskoczy\u0142o wszystkich, kiedy Andrej Karpathy uku\u0142 termin \u201evibe coding\u201d. Sta\u0142o si\u0119 to memem, ale moim zdaniem nie ma si\u0119 z czego \u015bmia\u0107. Opus 4.5 mo\u017ce dzia\u0142a\u0107 przez godziny i wykonywa\u0107 du\u017co kodowania w trakcie \u201esnu\u201d, bez bezpo\u015bredniego nadzoru. Metody i narz\u0119dzia staj\u0105 si\u0119 co miesi\u0105c lepsze i bardziej przyst\u0119pne. Claude Code na samym pocz\u0105tku by\u0142 bardzo surowy, ale teraz mamy rozszerzenia i funkcje, kt\u00f3re czyni\u0105 to narz\u0119dzie nie tylko lepszym, ale te\u017c bardziej przyst\u0119pnym dla zwyk\u0142ych u\u017cytkownik\u00f3w.    <\/p>\n\n<p><strong>AK:<\/strong> Dobrze, a jaka jest przysz\u0142o\u015b\u0107 programist\u00f3w? Je\u015bli jeste\u015b \u015bredniozaawansowanym programist\u0105 w C# czy czymkolwiek innym, co robisz? Krzyczysz i chowasz si\u0119, czy my\u015blisz o zmianie kariery? Jak by\u015b powiedzia\u0142, jaka jest w\u0142a\u015bciwa reakcja na to, co si\u0119 dzieje?   <\/p>\n\n<p><strong>KK:<\/strong> Trudno to jednoznacznie powiedzie\u0107, bo zale\u017cy to od tego, jak szybko organizacje b\u0119d\u0105 w stanie przyj\u0105\u0107 t\u0119 technologi\u0119 i jak bardzo b\u0119d\u0105 gotowe ryzykowa\u0107 po tym, jak wiele firm sparzy\u0142o si\u0119 na halucynacjach i rozwi\u0105zaniach agentowych, kt\u00f3re nie zawsze dzia\u0142aj\u0105 poprawnie. Moim zdaniem wci\u0105\u017c trzeba umie\u0107 programowa\u0107, a z modelami agentowymi mo\u017cna si\u0119 tego nauczy\u0107 znacznie szybciej. Umiej\u0119tno\u015b\u0107 programowania nie zniknie, szczeg\u00f3lnie takie kompetencje jak projektowanie system\u00f3w, do\u015bwiadczenie u\u017cytkownika czy wiedza biznesowa potrzebna do kierowania modelami. Ale samo kodowanie \u2013 siedzenie przed komputerem i pisanie kodu przez godziny \u2013 to prawdopodobnie bardzo szybko odejdzie w przesz\u0142o\u015b\u0107. Ka\u017cdy programista, z kt\u00f3rym rozmawiam, u\u017cywa jakiego\u015b rodzaju agentowego kodowania, aby szybko tworzy\u0107 przyk\u0142ady dla klient\u00f3w. Dyskusja staje si\u0119 wtedy o wiele bardziej produktywna, gdy mo\u017cna pokaza\u0107 fragment kodu, zamiast opiera\u0107 rozmow\u0119 tylko na slajdach PowerPoint.     <\/p>\n\n<p><strong>AK:<\/strong> Tak, to ogromne, bo mo\u017cna bardzo szybko stworzy\u0107 prototyp lub MVP i pokaza\u0107 ludziom, jak to b\u0119dzie wygl\u0105da\u0107, bez pracy trwaj\u0105cej tygodniami. Jestem w tej kwestii troch\u0119 na \u201ep\u0142ocie\u201d. Programowa\u0142em przez wi\u0119ksz\u0105 cz\u0119\u015b\u0107 \u017cycia, tu i tam, gdy by\u0142a taka potrzeba, ale nie jestem profesjonalnym programist\u0105. Jestem ciekaw, czy uda nam si\u0119 opanowa\u0107 halucynacje na tyle, by zaufa\u0107 wygenerowanemu kodowi. Kolejna ciekawa rzecz jest taka, \u017ce wci\u0105\u017c potrzebujemy do\u015bwiadczonych, starszych architekt\u00f3w, kt\u00f3rzy rozumiej\u0105 ca\u0142o\u015b\u0107, ale wydaje si\u0119, \u017ce ju\u017c nie potrzebujemy junior\u00f3w i mid\u00f3w. A je\u015bli nie u\u017cywasz junior\u00f3w i mid\u00f3w, nigdy nie wyhodujesz nowych senior\u00f3w. To prawdziwa zagwozdka.      <\/p>\n\n<p><strong>KK:<\/strong> To zdecydowanie jedno z najwi\u0119kszych ryzyk. Halucynacje w kodzie nie s\u0105 wielkim problemem, bo zawsze mo\u017cna je zweryfikowa\u0107, pisz\u0105c testy. Kilka miesi\u0119cy temu modele LLM nie radzi\u0142y sobie dobrze z pisaniem test\u00f3w, ale teraz to si\u0119 zmieni\u0142o. My\u015bl\u0119, \u017ce faktycznie b\u0119dziemy produkowa\u0107 znacznie wi\u0119cej kodu, wi\u0119c potrzebnych b\u0119dzie wi\u0119cej ludzi. Rola dewelopera nie zniknie, ale mo\u017ce nast\u0105pi\u0107 stagnacja dla junior\u00f3w. Radzi\u0142bym ka\u017cdemu m\u0142odszemu programi\u015bcie, by korzysta\u0142 z agentowego kodowania i LLM, aby szybciej si\u0119 uczy\u0107 i rozwija\u0107 swoje umiej\u0119tno\u015bci. Nie s\u0105 tak g\u0142upie, jak wielu my\u015bli; naprawd\u0119 mog\u0105 Ci\u0119 prowadzi\u0107 i wiele nauczy\u0107, nawet je\u015bli czasem si\u0119 myl\u0105.      <\/p>\n\n<p><strong>AK:<\/strong> Ludzie wydaj\u0105 si\u0119 oczekiwa\u0107, \u017ce odpowiedzi LLM b\u0119d\u0105 perfekcyjne, ale tak naprawd\u0119 potrzebujemy, \u017ceby by\u0142y lepsze ni\u017c przeci\u0119tny cz\u0142owiek. Przeci\u0119tny cz\u0142owiek te\u017c pope\u0142nia b\u0142\u0119dy i halucynuje. Zabierzesz znajomych na piwo, a po trzecim piwie zaczniecie gada\u0107 o polityce \u2013 zobaczysz, ile rzeczy ludzie wymy\u015blaj\u0105 tylko po to, \u017ceby pokaza\u0107, \u017ce maj\u0105 racj\u0119. Chodzi o to, \u017ceby LLM nie dzia\u0142a\u0142 gorzej ni\u017c cz\u0142owiek. Ale masz te\u017c do\u015bwiadczenie z pierwszej r\u0119ki, buduj\u0105c co\u015b na konkurs Google w spos\u00f3b agentowy, gdzie sam nie pisa\u0142e\u015b \u017cadnego kodu.<br\/><br\/>    <\/p>\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Studium_przypadku_25_000_linii_kodu_bez_ingerencji_czlowieka\"><\/span><strong>Studium przypadku: 25 000 linii kodu bez ingerencji cz\u0142owieka<\/strong><span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p><strong>KK: <\/strong>Tak, w rzeczywisto\u015bci istnieje silne, powszechne przekonanie, \u017ce AI nie mo\u017ce tworzy\u0107 oprogramowania, kt\u00f3re wcze\u015bniej nie zosta\u0142o zbudowane. Narz\u0119dzie, kt\u00f3re Wam pokazuj\u0119, to nowy typ oprogramowania. 25 000 linii kodu, \u017cadnej z nich nie dotyka\u0142em. Gdybym zapyta\u0142 r\u00f3\u017cne modele LLM, ile czasu zaj\u0119\u0142oby jego stworzenie, szacowa\u0142y od 500 do 1 500 godzin. Zbudowanie go samemu zaj\u0119\u0142oby mi pewnie oko\u0142o dw\u00f3ch miesi\u0119cy, a gdybym wynaj\u0105\u0142 firm\u0119, kosztowa\u0142oby \u0142atwo 50 000 dolar\u00f3w. Zbudowa\u0142em to w ci\u0105gu kilku wieczor\u00f3w. To zdecydowanie nie jest gotowy produkt, ale z przyjemno\u015bci\u0105 Wam go poka\u017c\u0119.      <\/p>\n\n<p>System oparty jest na pomy\u015ble, kt\u00f3ry opracowa\u0142em rok temu, zdobywaj\u0105c nagrod\u0119 Google. Bierzesz nagranie wideo procesu i je wgrywasz, a AI analizuje je, aby wyodr\u0119bni\u0107 r\u00f3\u017cne informacje. Wersja, kt\u00f3r\u0105 stworzy\u0142em rok temu, by\u0142a bardzo prymitywna, ale system, kt\u00f3ry Wam teraz prezentuj\u0119, rozszerza funkcjonalno\u015bci. Wyci\u0105ga z wideo zrzuty ekranu i tworzy ramki (bounding boxes) dla ka\u017cdego elementu interfejsu, z kt\u00f3rym u\u017cytkownik wchodzi\u0142 w interakcj\u0119. Mo\u017cna edytowa\u0107 te ramki, przycina\u0107 obraz i u\u017cywa\u0107 AI do wykrywania informacji wra\u017cliwych, aby je zamaskowa\u0107, tak by programista nie widzia\u0142 ich w Dokumencie Definicji Procesu (PDD).    <\/p>\n\n<p>Je\u015bli jaki\u015b krok jest pomini\u0119ty, w narz\u0119dziu znajduje si\u0119 wbudowany edytor wideo, w kt\u00f3rym mo\u017cesz zrobi\u0107 zrzut ekranu z tej klatki i edytowa\u0107 go samodzielnie. Wszystko to zostanie przekonwertowane do PDD. System nie tylko generuje list\u0119 krok\u00f3w, ale te\u017c przenosi wszystkie dane do dokumentu. Jest te\u017c widok schematu przep\u0142ywu oraz lista krok\u00f3w. Ca\u0142a baza danych jest po\u0142\u0105czona i mog\u0119 \u015bledzi\u0107 koszty ka\u017cdego wywo\u0142ania API do modeli Gemini. To mn\u00f3stwo funkcji \u2013 to nie jest prosty system HR \u2013 ma wszystkie te funkcje agentowe, a jako\u015b\u0107 PDD jest naprawd\u0119 dobra.     <\/p>\n\n<p><strong>AK:<\/strong> To naprawd\u0119 imponuj\u0105ce, zw\u0142aszcza \u017ce powsta\u0142o w ci\u0105gu kilku wieczor\u00f3w przy u\u017cyciu narz\u0119dzia LLM. My\u015blisz, \u017ce z czasem przekszta\u0142cisz to w pe\u0142noprawne narz\u0119dzie, czy by\u0142o to tylko, \u017ceby udowodni\u0107 pewn\u0105 tez\u0119? <\/p>\n\n<p><strong>KK:<\/strong> Nie, zdecydowanie chcia\u0142bym z tego zrobi\u0107 narz\u0119dzie. Zastanawiam si\u0119, czy je skomercjalizowa\u0107, czy udost\u0119pni\u0107 jako open source. Cz\u0119\u015bci tych danych, na przyk\u0142ad nagra\u0144 dzia\u0142a\u0144 u\u017cytkownik\u00f3w, nie mo\u017cna przenie\u015b\u0107 do chmury z r\u00f3\u017cnych powod\u00f3w zwi\u0105zanych z bezpiecze\u0144stwem i zgodno\u015bci\u0105. Mog\u0119 udost\u0119pni\u0107 to jako open source do u\u017cytku lokalnego i jednocze\u015bnie mie\u0107 komercyjn\u0105 wersj\u0119 SaaS. Du\u017co nauczy\u0142em si\u0119 na tym projekcie, kt\u00f3ry wymaga\u0142 stosunkowo niewielkiego wysi\u0142ku, a \u017cadnej z 25 000 linii nie pisa\u0142em sam. Pracowa\u0142em tylko z modelami Opus i Gemini, bo s\u0105 \u015bwietne, je\u015bli chodzi o projektowanie UI.     <\/p>\n\n<p>Najprawdopodobniej planuj\u0119 jak\u0105\u015b form\u0119 wydania na pocz\u0105tku lutego. Najwi\u0119ksz\u0105 warto\u015bci\u0105 agentowego kodowania jest to, \u017ce mog\u0119 szybko zweryfikowa\u0107 m\u00f3j pomys\u0142. Nie potrzebuj\u0119 finansowania, w\u0142asnych pieni\u0119dzy ani wsp\u00f3\u0142za\u0142o\u017cycieli, \u017ceby po prostu zacz\u0105\u0107. Mog\u0119 zbudowa\u0107 narz\u0119dzie, pokaza\u0107 je grupie u\u017cytkownik\u00f3w i od razu otrzyma\u0107 potwierdzenie, czy ma to sens. Tradycyjni programi\u015bci nie dostrzegaj\u0105 w tym takiej warto\u015bci, ale sam proces weryfikacji pomys\u0142u ma ogromny potencja\u0142, \u017ceby poprawi\u0107 jako\u015b\u0107 oprogramowania.    <\/p>\n\n<p><strong>AK:<\/strong> Tak, je\u015bli chodzi o weryfikacj\u0119 pomys\u0142\u00f3w, to prawdziwe wybawienie. Office Samurai zak\u0142ada\u0142o kilka innych firm i mieli\u015bmy taki projekt, gdzie sp\u0119dzili\u015bmy rok na tworzeniu oprogramowania, kt\u00f3re w ko\u0144cu nie sprawdzi\u0142o si\u0119 u u\u017cytkownik\u00f3w. To by\u0142o traumatyczne do\u015bwiadczenie, kt\u00f3rego moim zdaniem mogliby\u015bmy unikn\u0105\u0107, gdyby w\u00f3wczas istnia\u0142y takie narz\u0119dzia. Rozumiem, \u017ce to narz\u0119dzie wysy\u0142a fragmenty wideo do modeli Gemini.   <\/p>\n\n<p><strong>KK:<\/strong> Jedn\u0105 z zalet modeli Gemini jest to, \u017ce analizuj\u0105 wideo jako ca\u0142o\u015b\u0107. Nawet narracja u\u017cytkownika, wyja\u015bniaj\u0105cego, co jest wy\u015bwietlane na ekranie, jest analizowana przy stosunkowo niskim koszcie, poniewa\u017c korzysta z Gemini Flash. <\/p>\n\n<p><strong>AK:<\/strong> To mnie zachwyca, zw\u0142aszcza to, co te modele potrafi\u0105 zrobi\u0107 z obrazami, a w pewnym stopniu tak\u017ce z wideo. W 2025 roku widzieli\u015bmy modele takie jak Nano Banana, kt\u00f3re pozwalaj\u0105 faktycznie edytowa\u0107 to, co ju\u017c mamy. Kiedy\u015b m\u00f3wi\u0142o si\u0119 do ChatGPT czy Google \u201ewygeneruj mi taki obraz\u201d, i je\u015bli chcia\u0142e\u015b co\u015b zmieni\u0107, nie mog\u0142e\u015b powiedzie\u0107 \u201ezr\u00f3b kapelusz zielony\u201d, bo model generowa\u0142 ca\u0142kowicie nowy obraz. Teraz mo\u017cesz faktycznie edytowa\u0107 fragmenty tego, co masz, co by\u0142o dla mnie szokuj\u0105ce. Pracuj\u0119 z modelami LLM generuj\u0105cymi obrazy od samego pocz\u0105tku i nie spodziewa\u0142em si\u0119, \u017ce edycja pojawi si\u0119 tak szybko.   <\/p>\n\n<p><strong>KK:<\/strong> To bezpo\u015brednio odnosi si\u0119 do halucynacji. Nie da si\u0119 mie\u0107 takiego systemu przy wysokim wska\u017aniku halucynacji, poniewa\u017c musi on zmienia\u0107 dok\u0142adnie to, co chcesz, w obr\u0119bie przestrzeni zdefiniowanej w promptcie. Jak m\u00f3wi Demis Hassabis, halucynacje prawdopodobnie nigdy nie znikn\u0105, ale mo\u017cna stosowa\u0107 mechanizmy weryfikacji lub dodatkowy model LLM do sprawdzania wynik\u00f3w. Istnieje wiele sposob\u00f3w, kt\u00f3re mog\u0105 obni\u017cy\u0107 poziom halucynacji.<br\/>   <\/p>\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Luka_w_dokladnosci_w_automatyzacji_biznesowej\"><\/span><strong>Luka w dok\u0142adno\u015bci w automatyzacji biznesowej<\/strong><span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p><strong>AK:<\/strong> Mam wra\u017cenie, \u017ce wiele tych dyskusji bierze si\u0119 st\u0105d, \u017ce s\u0105 rzeczy, w kt\u00f3rych LLM-y s\u0105 niesamowicie dobre, jak generowanie kodu, ale s\u0105 te\u017c inne rzeczy, kt\u00f3re dla cz\u0142owieka wydaj\u0105 si\u0119 trywialne, a dla LLM s\u0105 bardzo skomplikowane. Z naszej perspektywy automatyzacji pracujemy z LLM, kt\u00f3re rozumiej\u0105 przychodz\u0105c\u0105 komunikacj\u0119, jak e-maile czy zg\u0142oszenia. Dla jednego klienta pracowali\u015bmy nad projektem, w kt\u00f3rym otrzymuj\u0105 e-maile spoza organizacji, typu \u201eCzy otrzymali\u015bcie moj\u0105 faktur\u0119? Kiedy j\u0105 zap\u0142acicie?\u201d. Ka\u017cda du\u017ca firma ma tego mn\u00f3stwo.   <\/p>\n\n<p>Sprawdzenie informacji w ERP to \u0142atwa cz\u0119\u015b\u0107, ale trudn\u0105 zawsze by\u0142o wydobycie wszystkich danych z e-maila i za\u0142\u0105cznik\u00f3w. Zauwa\u017cyli\u015bmy, \u017ce w \u201ehappy path\u201d dzia\u0142a to znakomicie, ale potem ludzie zaczynaj\u0105 do\u0142\u0105cza\u0107 pliki Excela i zrzuty ekranu ze swoich ERP-\u00f3w i pisz\u0105 te maile w naprawd\u0119 dziwaczny spos\u00f3b. Obecnie system ma oko\u0142o 70% dok\u0142adno\u015bci, co oznacza, \u017ce w 70% przypadk\u00f3w odczytuje wszystko dok\u0142adnie \u2013 numery faktur i tak dalej. To w\u0142a\u015bnie ludzie oczekuj\u0105 w \u015bwiecie automatyzacji; przyzwyczaili\u015bmy si\u0119 do RPA, gdzie albo dzia\u0142a idealnie, albo wcale. Dok\u0105d Twoim zdaniem to zmierza?    <\/p>\n\n<p><strong>KK:<\/strong> 70% to wci\u0105\u017c dobry wynik. Zach\u0119cam klient\u00f3w, aby tworzyli proste agenty, zamiast wbudowywa\u0107 wszystko w deterministyczny workflow. Wydajno\u015b\u0107 poprawi si\u0119, je\u015bli agenci b\u0119d\u0105 mogli pisa\u0107 kod w trakcie swojego cyklu wykonawczego. Kiedy kto\u015b do\u0142\u0105cza zrzut ekranu, LLM mo\u017ce go przeanalizowa\u0107 i lekko \u201ehalucynowa\u0107\u201d, ale jednocze\u015bnie mo\u017ce przyci\u0105\u0107 lub obr\u00f3ci\u0107 obraz, \u017ceby wydoby\u0107 z niego wi\u0119cej informacji i lepiej go zrozumie\u0107. Takie systemy zdecydowanie poprawi\u0105 poziom dok\u0142adno\u015bci z oko\u0142o 70% i zbli\u017c\u0105 nas do 90%.    <\/p>\n\n<p>Poza tym uwa\u017cam, \u017ce to wi\u0119kszy problem zwi\u0105zany z procesami, a nie z AI. Pod koniec tego roku zobaczymy wi\u0119cej system\u00f3w, kt\u00f3re same b\u0119d\u0105 tworzy\u0107 automatyzacje na podstawie prostego wideo lub dokumentu PDD. To sprawi, \u017ce automatyzacja stanie si\u0119 znacznie bardziej przyst\u0119pna dla mniejszych organizacji, kt\u00f3re maj\u0105 trudno\u015bci z tym, jak j\u0105 wdro\u017cy\u0107.  <\/p>\n\n<p><strong>AK:<\/strong> Pr\u00f3g wej\u015bcia b\u0119dzie coraz ni\u017cszy. Ja osobi\u015bcie jestem sceptyczny wobec u\u017cywania LLM do wyboru selektor\u00f3w, bo je\u015bli chcesz zbudowa\u0107 stabiln\u0105, wydajn\u0105 automatyzacj\u0119 przetwarzaj\u0105c\u0105 dziesi\u0105tki tysi\u0119cy element\u00f3w dziennie, nie ma sensu pyta\u0107 LLM za ka\u017cdym razem, gdzie klikn\u0105\u0107. Ale fakt, \u017ce RPA jest low-code, teraz staje si\u0119 wad\u0105, bo dla LLM pisanie kodu jest bardzo \u0142atwe, ale ustawienie blok\u00f3w w odpowiedniej kolejno\u015bci i ich po\u0142\u0105czenie jest znacznie trudniejsze.  <\/p>\n\n<p><strong>KK:<\/strong> U\u017cywa\u0142em Claude Code do edytowania plik\u00f3w UiPath XAML i dzia\u0142a\u0142o to ca\u0142kiem dobrze. Samo u\u017cywanie LLM do klikania za u\u017cytkownika w og\u00f3le nie ma sensu. Pierwszy du\u017cy projekt, kt\u00f3ry zbudowa\u0142em w UiPath, polega\u0142 na stworzeniu \u201eclickera\u201d, kt\u00f3ry wykonywa\u0142 procesy na podstawie opisu w j\u0119zyku naturalnym \u2013 ale przerwa\u0142em go, bo ka\u017cda nierozpoznana halucynacja oznacza\u0142a problem. W RPA mamy wyj\u0105tki i obs\u0142ug\u0119 wyj\u0105tk\u00f3w, czego nie da si\u0119 \u0142atwo zaimplementowa\u0107 w LLM, bo LLM nie ma wyj\u0105tk\u00f3w; po prostu \u201emy\u015bli\u201d, \u017ce ma racj\u0119, cho\u0107 jest w b\u0142\u0119dzie. Przeszed\u0142em wi\u0119c w obszar, w kt\u00f3rym AI pisze oprogramowanie automatyzuj\u0105ce. Narz\u0119dzia low-code u\u017cywaj\u0105 skomplikowanych notacji JSON czy XAML, kt\u00f3re s\u0105 trudniejsze dla LLM do szybkiego zrozumienia i edycji. Zwinne, mniejsze organizacje mog\u0105 przej\u015b\u0107 na vibe coding dla automatyzacji webowych, gdzie AI pisze, wykonuje i orkiestruje procesy.      <\/p>\n\n<p><strong>AK:<\/strong> Pr\u00f3bowa\u0142em jednego z agentowych przegl\u0105darek internetowych i by\u0142em zar\u00f3wno rozczarowany, jak i mi\u0142o zaskoczony. Poprosi\u0142em j\u0105, \u017ceby wesz\u0142a na stron\u0119 e-commerce i por\u00f3wna\u0142a produkty, i nie znalaz\u0142a wszystkiego, cho\u0107 wszystko by\u0142o dost\u0119pne. Ale naprawd\u0119 zaskoczy\u0142o mnie, jak poradzi\u0142a sobie z problemem cenowym \u2013 by\u0142 ni\u017cszy cenowy poziom dla cz\u0142onk\u00f3w klubu i nie wiedzia\u0142a, kt\u00f3r\u0105 cen\u0119 wzi\u0105\u0107, wi\u0119c faktycznie doda\u0142a produkt do koszyka, \u017ceby sprawdzi\u0107 ko\u0144cowy koszt. Uwa\u017ca\u0142em, \u017ce to ca\u0142kiem sprytne.   <\/p>\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Lekka_AGI_i_kontinuum_inteligencji\"><\/span><strong>Lekka AGI i kontinuum inteligencji<\/strong><span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p><strong>AK:<\/strong> Ludzie m\u00f3wi\u0105 o AGI, a Sam Altman zapowiada j\u0105 na przysz\u0142y rok. Wiem, \u017ce interesujesz si\u0119 tematem \u201elight AGI\u201d albo ma\u0142ej AGI. Dok\u0105d to zmierza \u2013 czy dostaniemy inteligentnych sta\u017cyst\u00f3w, czy jeste\u015bmy jeszcze daleko od czego\u015b takiego?  <\/p>\n\n<p><strong>KK:<\/strong> AGI to raczej kontinuum. Istnieje wiele etap\u00f3w mi\u0119dzy systemem deterministycznym a modelem AGI. Poj\u0119cie minimalnej AGI lub light AGI odnosi si\u0119 do systemu, kt\u00f3ry nie jest w pe\u0142ni zdolny jak najlepsi ludzie, ale potrafi dostarcza\u0107 wiarygodn\u0105, warto\u015bciow\u0105 prac\u0119. Moja ulubiona definicja Demisa Hassabisa to zdolno\u015b\u0107 systemu AI do replikowania dowolnych funkcji poznawczych cz\u0142owieka \u2013 czyli system, kt\u00f3ry m\u00f3g\u0142by wpa\u015b\u0107 na pomys\u0142 Teorii Wzgl\u0119dno\u015bci na podstawie prostego zestawu danych.   <\/p>\n\n<p>Z tej perspektywy pe\u0142na AGI mo\u017ce by\u0107 dopiero za 5\u201310 lat, ale minimalna AGI \u2013 system, kt\u00f3ry potrafi niezawodnie wykonywa\u0107 prac\u0119 intelektualn\u0105 na poziomie przeci\u0119tnego cz\u0142owieka \u2013 mo\u017cemy zobaczy\u0107 jeszcze w tym lub przysz\u0142ym roku. Je\u015bli po\u0142\u0105czysz umiej\u0119tno\u015bci najlepszych modeli AI w jeden supermodel, by\u0142oby to bardzo bliskie minimalnej AGI. <\/p>\n\n<p>Opus w Claude Code jest zaskakuj\u0105co inteligentny. Zbudowa\u0142em t\u0119 aplikacj\u0119 w 15 minut, podczas gdy przeci\u0119tny programista sp\u0119dzi\u0142by dos\u0142ownie dni, badaj\u0105c, jak j\u0105 stworzy\u0107. Powinni\u015bmy przygotowa\u0107 si\u0119 na fakt, \u017ce nie b\u0119dziemy najinteligentniejszym gatunkiem na planecie; wkr\u00f3tce mo\u017cemy mie\u0107 tysi\u0105ce \u201egeniuszy\u201d pracuj\u0105cych w centrum danych przy bardzo niskich kosztach, por\u00f3wnywalnych do koszt\u00f3w ludzi.  <\/p>\n\n<p><strong>AK:<\/strong> Jestem troch\u0119 bardziej sceptyczny, ale myli\u0142em si\u0119 co do tego, jak szybko LLM-y si\u0119 ucz\u0105. Czy istnieje jaki\u015b spos\u00f3b, \u017ceby si\u0119 przygotowa\u0107, poza budowaniem bunkra i chowaniem si\u0119 w nim? <\/p>\n\n<p><strong>KK:<\/strong> Organizacje powinny uczy\u0107 si\u0119 tych nowych system\u00f3w. Na pocz\u0105tku 2025 by\u0142em r\u00f3wnie\u017c bardzo sceptyczny, pod\u0105\u017caj\u0105c za Ily\u0105 Sutskeverem, kt\u00f3ry m\u00f3wi\u0142, \u017ce osi\u0105gn\u0119li\u015bmy \u015bcian\u0119. Osobi\u015bcie nie chcia\u0142bym, \u017ceby AGI zosta\u0142o wynalezione za mojego \u017cycia, bo to technologia bardzo transformuj\u0105ca i niebezpieczna. Ale po zobaczeniu post\u0119p\u00f3w w tym roku jestem bardziej optymistyczny \u2013 jest bli\u017cej, ni\u017c my\u015blimy. Nie ma \u017cadnej \u015bciany; model Gemini 3 Pro by\u0142 po prostu trenowany d\u0142u\u017cej i wci\u0105\u017c daje wzrost jako\u015bci. Minimalna AGI by\u0142a spodziewana w 2028 roku, czyli za zaledwie dwa lata. W naszym \u017cyciu zobaczymy AGI.      <\/p>\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Ryzyka_i_%E2%80%9Eoszukujaca%E2%80%9D_AI\"><\/span><strong>Ryzyka i \u201eoszukuj\u0105ca\u201d AI<\/strong><span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p><strong>AK:<\/strong> Je\u015bli chodzi o bezpiecze\u0144stwo i mo\u017cliwo\u015b\u0107, \u017ce te modele p\u00f3jd\u0105 nie tak, na czym powinni\u015bmy si\u0119 skupi\u0107?<\/p>\n\n<p><strong>KK:<\/strong> Pozw\u00f3l, \u017ce podziel\u0119 si\u0119 kluczow\u0105 histori\u0105. U\u017cywa\u0142em Claude Code z Opus i da\u0142em mu niemo\u017cliwe zadanie: rozwi\u0105za\u0107 wyzwanie RPA w mniej ni\u017c 10 milisekund. Chcia\u0142em sprawdzi\u0107, jak si\u0119 zachowa, i w ko\u0144cu zacz\u0119\u0142o \u201ehakowa\u0107\u201d stron\u0119. Nadpisywa\u0142o funkcje JavaScript i zast\u0119powa\u0142o je w\u0142asnym kodem, \u017ceby pokona\u0107 ten poziom 10 milisekund.   <\/p>\n\n<p><strong>AK:<\/strong> Ten ma\u0142y oszust.<\/p>\n\n<p><strong>KK:<\/strong> By\u0142o sprytne, ale oszukiwa\u0142o. Teraz wyobra\u017a sobie wi\u0119ksze systemy z wi\u0119ksz\u0105 liczb\u0105 narz\u0119dzi \u2013 to ju\u017c nie jest pod nasz\u0105 kontrol\u0105. Dlatego ludzie odchodz\u0105 z OpenAI, by skupi\u0107 si\u0119 na kwestiach bezpiecze\u0144stwa, jak w przypadku Safe Superintelligence (SSI) Ilyi Sutskevera. Je\u015bli zatrudnisz AI jako pracownika i b\u0119dzie mia\u0142o niew\u0142a\u015bciwe uprawnienia do systemu HR, mo\u017ce po prostu zdecydowa\u0107 si\u0119 \u201ezhakowa\u0107\u201d system, \u017ceby wykona\u0107 zadanie. Te narz\u0119dzia s\u0105 zmotywowane do rozwi\u0105zywania problem\u00f3w; nie maj\u0105 kodeksu moralnego, tylko granice, kt\u00f3re im wyznaczymy.    <\/p>\n\n<p><strong>AK:<\/strong> Je\u015bli jeste\u015b programist\u0105 zmartwionym o swoj\u0105 prac\u0119, bezpiecze\u0144stwo i ochron\u0119 AI mo\u017ce by\u0107 w\u0142a\u015bciw\u0105 dziedzin\u0105 do zmiany kierunku. Obecnie bezpiecze\u0144stwo IT koncentruje si\u0119 na ochronie danych, ale wci\u0105\u017c nie skupiamy si\u0119 na tym, jak zapewni\u0107, \u017ceby narz\u0119dzia wykonywa\u0142y zadania zgodnie z prawem, naszymi warto\u015bciami i etyk\u0105. <\/p>\n\n<h2 class=\"wp-block-heading\"><span class=\"ez-toc-section\" id=\"Prognozy_na_2026_rok\"><\/span><strong>Prognozy na 2026 rok<\/strong><span class=\"ez-toc-section-end\"><\/span><\/h2>\n\n<p><strong>AK:<\/strong> Zanim Ci\u0119 wypu\u015bcimy, jakie s\u0105 Twoje prognozy na 2026 rok?<\/p>\n\n<p><strong>KK:<\/strong> 2025 rok przer\u00f3s\u0142 wszystkie moje oczekiwania. Je\u015bli chodzi o open source, model Mistral 20B mo\u017ce dzia\u0142a\u0107 na sprz\u0119cie konsumenckim i jest tak samo zdolny jak najlepszy model z zesz\u0142ego roku. Inteligencja nie b\u0119dzie ju\u017c ograniczona do centr\u00f3w danych; b\u0119dziemy j\u0105 mieli na naszych telefonach. Uwa\u017cajcie te\u017c na modele dyfuzji do tekstu od Google. Obs\u0142uguj\u0105 tysi\u0105ce token\u00f3w i dzia\u0142aj\u0105 niesamowicie szybko. Mo\u017cemy te\u017c zobaczy\u0107 rozwi\u0105zanie ci\u0105g\u0142ego uczenia si\u0119, gdzie modele ucz\u0105 si\u0119 na b\u0142\u0119dach i zmieniaj\u0105 swoj\u0105 sie\u0107 neuronow\u0105 w locie. Tempo post\u0119pu jest znacznie szybsze, ni\u017c wi\u0119kszo\u015b\u0107 ludzi my\u015bli; koszt rozwi\u0105zania benchmarku ARC-AGI spad\u0142 500-krotnie w ci\u0105gu roku.      <\/p>\n\n<p><strong>AK:<\/strong> C\u00f3\u017c, chyba b\u0119dziemy musieli spotka\u0107 si\u0119 za rok i zobaczy\u0107, co si\u0119 wydarzy\u0142o. Krzysztof, bardzo dzi\u0119kuj\u0119 za podzielenie si\u0119 swoim do\u015bwiadczeniem. <\/p>\n\n<p><strong>KK:<\/strong> Dzi\u0119kuj\u0119.<\/p>\n\n<p><strong>AK:<\/strong> I to by by\u0142o na tyle \u2013 oficjalnie przebili\u015bmy ba\u0144k\u0119 AI i jakim\u015b cudem jeszcze nam nie eksplodowa\u0142a w twarz. Arigatou za s\u0142uchanie. Wiemy, \u017ce Wasz czas jest cenny, chyba \u017ce ju\u017c zostali\u015bcie zast\u0105pieni przez agenta AI, w takim wypadku dzi\u0119ki, \u017ce sp\u0119dzili\u015bcie swoje bezrobocie z nami. Wielkie dzi\u0119ki dla mojego by\u0142ego nauczyciela Krzysztofa Karaszewskiego, kt\u00f3ry przeprowadzi\u0142 nas przez wojny modeli, nie bior\u0105c je\u0144c\u00f3w, oraz dla prawdziwej inteligencji stoj\u0105cej za operacj\u0105, naszej producentki Anny Cubal, kt\u00f3ra wycina wszystkie fragmenty, w kt\u00f3rych prosz\u0119 AI, by t\u0142umaczy\u0142o mi moje w\u0142asne \u017carty. Nagrywali\u015bmy, jak zawsze, w bunkrze znanym jako Wodzu Beats Studio. Je\u015bli Wam si\u0119 podoba\u0142o, zostawcie pi\u0119ciogwiazdkow\u0105 recenzj\u0119. Je\u015bli nie, po prostu popro\u015bcie LLM, \u017ceby wygenerowa\u0142o lepszy podcast dla Was. Do nast\u0119pnego razu \u2013 oby Wasze dane by\u0142y czyste, a AGI przyjazna.<br\/>Mata ne        <\/p>\n\n<style>a.wp-block-button__link,\n  a.wp-block-button__link * {\n    text-decoration: none !important;\n    -webkit-text-decoration: none !important;\n  }\n<\/style>\n","protected":false},"excerpt":{"rendered":"<p>Przyjrzyjmy si\u0119 bli\u017cej rokowi 2025. Zaczeli\u015bmy go z poczuciem, \u017ce co\u015b wiemy, a teraz, gdy patrzymy wstecz, wydaje si\u0119 to jak odleg\u0142a staro\u017cytna cywilizacja. Tempo rozwoju w niekt\u00f3rych obszarach by\u0142o wr\u0119cz absurdalne. Narz\u0119dzia, kt\u00f3re podkr\u0119cali\u015bmy szumem sze\u015b\u0107 do dziewi\u0119ciu miesi\u0119cy temu, teraz wydaj\u0105 si\u0119 niemal przestarza\u0142e. Dajcie nam raport po autopsji: co tak naprawd\u0119 wydarzy\u0142o si\u0119 na rynku w minionym roku i dlaczego wszystko wydaje si\u0119 porusza\u0107 tak szybko?    <\/p>\n","protected":false},"author":5,"featured_media":21799,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"inline_featured_image":false,"footnotes":""},"categories":[147],"tags":[178],"class_list":["post-22310","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-agenci-ai","tag-podcast-pl"],"acf":[],"_links":{"self":[{"href":"https:\/\/office-samurai.com\/pl\/wp-json\/wp\/v2\/posts\/22310","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/office-samurai.com\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/office-samurai.com\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/office-samurai.com\/pl\/wp-json\/wp\/v2\/users\/5"}],"replies":[{"embeddable":true,"href":"https:\/\/office-samurai.com\/pl\/wp-json\/wp\/v2\/comments?post=22310"}],"version-history":[{"count":0,"href":"https:\/\/office-samurai.com\/pl\/wp-json\/wp\/v2\/posts\/22310\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/office-samurai.com\/pl\/wp-json\/wp\/v2\/media\/21799"}],"wp:attachment":[{"href":"https:\/\/office-samurai.com\/pl\/wp-json\/wp\/v2\/media?parent=22310"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/office-samurai.com\/pl\/wp-json\/wp\/v2\/categories?post=22310"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/office-samurai.com\/pl\/wp-json\/wp\/v2\/tags?post=22310"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}