Agent AI – multiplikator zdolności, ale i problemów
Lekceważenie narzędzi AI może mieć katastrofalne skutki dla sprawności i konkurencyjności firm, równie poważane jak pośpieszne i wymuszone wdrożenia. Sztuczna inteligencja jest już na szczycie priorytetów inwestycyjnych, ale ogromna część projektów i tak kończy się niepowodzeniem, ponieważ firmy nie mają strategii i jasnych celów, nie są technicznie gotowe, kupują fałszywki lub ulegają psychologicznej presji rynku. Niewiele mówi się także o tym, że sama technologia nie jest doskonała, za to bardzo droga, implementacja jest skomplikowana, a na dodatek agent AI halucynuje i wymyśla rzeczywistość, która nie istnieje.
Robotyzacja procesów biznesowych (RPA), czyli algorytmy wykonujące powtarzalne czynności oparte na regułach, ale pozbawione zdolności uczenia się. Następnie zaawansowana analityka predykcyjna oraz uczenie maszynowe (ML), a w końcu generatywna sztuczna inteligencja (GenAI) wykazująca pewien zakres kreatywności i potrafiąca tworzyć nowe treści na podstawie prostych poleceń językowych. Tak w dużym uproszeniu można opisać przyrost autonomii i kolejne warstwy inteligencji dodawane do różnego typu oprogramowania. Ostatnia z wymienionych innowacji okazała się nie lada przełomem, a według wyliczeń IMF charakteryzuje się historycznie bezprecedensową szybkością adopcji, która osiągnęła 100 milionów użytkowników w zaledwie kilka miesięcy. To tempo znacznie szybsze niż w przypadku innych technologii ogólnego przeznaczenia, jak internet, telewizja kablowa czy telefonia komórkowa.
Dziś na ustach wszystkich są agenci AI, czyli nowe podejście do architektury systemów sztucznej inteligencji, które łączy poszczególne warstwy i zakresy autonomii. Z informacji publikowanych przez twórców takich rozwiązań można wręcz odnieść wrażenie, że agent AI to narzędzie niemal doskonałe, wszechstronne i niezastąpione, że w zasadzie trudniej wskazać rzeczy, których agent nie potrafi zrobić, niż te, które wykonuje z łatwością. Prawda okazuje się jednak nieco bardziej surowa niż marketingowe deklaracje producentów.
Agent AI, czyli co lub kto?
Agent AI to w dużym skrócie autonomiczny system algorytmów wykorzystujący zaawansowane techniki uczenia maszynowego i przetwarzania języka naturalnego, które pozwalają mu zrozumieć kontekst otoczenia, uczyć się na podstawie wcześniejszych interakcji, dobierać narzędzia i samodzielnie podejmować decyzje prowadzące do osiągnięcia wyznaczonego celu. Wszystko to może się odbywać przy ograniczonej do minimum ingerencji człowieka. W odróżnieniu od powszechnie stosowanej automatyzacji procesów, która działa w oparciu o precyzyjnie ustalone reguły, agent AI, analizując wzorce pochodzące z realnego świata, wielu systemów i źródeł jednocześnie, może dostosowywać się do nich i podejmować dynamiczne działania lub wydawać odpowiednie rekomendacje. To, czy agent będzie miał zdolność do uczenia się i modyfikowania własnego zachowania na podstawie wcześniejszych doświadczeń, zależy od jego rodzaju, ale są już rozwiązania, które to umożliwiają.
Agenci AI mogą zatem uczyć się polityki własnego funkcjonowania np. na podstawie systemu nagród lub kar otrzymywanych ze środowiska. Ogólna zasada jest jednak taka, że agent otrzymuje jasno zdefiniowany cel, którego realizację opiera na danych z otoczenia. Samodzielnie planuje i ten plan realizuje, a jeśli musi, to wykonuje operacje w innych systemach i korzysta z narzędzi zewnętrznych, cały czas dążąc do maksymalizacji efektywności. Dla pełniejszego zrozumienia tego zjawiska warto również dodać, że agent AI to nie humanoidalny robot a oprogramowanie, które nie ma zastąpić człowieka, ale ma wzmacniać jego działania w czasie rzeczywistym. Poszczególni agenci mogą działać wspólnie, a nadzorujący pracę ludzie zawsze mogą dodać kontekst do wniosków wygenerowanych przez takie systemy sztucznej inteligencji.
Potencjał wykorzystania sztucznej inteligencji od razu dostrzeżono w operacjach łańcucha dostaw
Według danych opublikowanych przez Gartnera, aż 27% liderów łańcucha dostaw postrzega inwestowanie w rozwiązania oparte na sztucznej inteligencji jako jeden z trzech głównych czynników zapewniających uzyskanie przewagi konkurencyjnej lub umożliwiających wyeliminowanie niekorzystnej sytuacji konkurencyjnej. Dla 9% badanych jest to cel znajdujący się na szczycie listy. Podobne wnioski zawiera także raport IDC, według którego już w 2024 r. zaawansowana analityka oraz AI w łańcuchu dostaw były głównymi priorytetami inwestycyjnymi na najbliższe trzy lata.
Jakie realne i użyteczne role w procesach logistycznych oferują dziś agenci AI? – Kluczem do zrozumienia, czym jest agent AI i jakie zadania może wykonywać jest wyraźne odróżnienie jego funkcji od chatbota czy asystenta biernie reagującego na polecenia. Agent działa niezależnie, musi jak najszybciej zrealizować cel wytyczony przez człowieka, który go nadzoruje. Dopiero w tym kontekście widać, że realny potencjał inteligentnego algorytmu, np. w logistyce kontraktowej, leży przede wszystkim w obszarach wymagających dynamicznego podejmowania decyzji. Dobrym przykładem roli dla agenta jest planowanie pracy ludzi i sprzętu oraz ciągłe analizowanie mikrodecyzji operacyjnych, jak przydział slotów na rampach, bilansowanie obciążenia przychodzącego i wychodzącego czy reagowanie na nieplanowane wysyłki. System wielu agentów, reprezentujących różne interesy operacyjne (np. Outbound, Inbound, Rampa, Strażnik, SLA), może sprawnie wypracować optymalną decyzję, wykorzystując dane przetwarzane przez YMS, WMS i TMS. To pozwala skrócić lead time, uniknąć kar i poprawić wskaźniki bez angażowania dodatkowych zasobów kadrowych czy sprzętowych. Należy przy tym podkreślić, że choć technologia ta wymaga dopracowania, to nie jest to kolejny modny trend, lecz przeniesienie realnych mechanizmów rynkowych i predykcji na poziom, którego człowiek nie jest w stanie wykonać manualnie przy takim wolumenie – wyjaśnia Sławomir Rodak, dyrektor R&D oraz dyrektor komercyjny w spółce ID Logistics Polska, świadczącej kompleksowe rozwiązania logistyczne i transportowe, obsługę e-commerce oraz zarządzanie łańcuchem dostaw w 19 krajach.
– Trzeba również zwrócić uwagę, że do wdrożeń tego typu należy podchodzić z odpowiednim przygotowaniem. Agent nie będzie działał skutecznie bez dojrzałego zaplecza technologicznego w obszarach takich jak machine learning czy computer vision. Rozwiązania tego typu będą miały sens dopiero wtedy, gdy będą działać na rzetelnych danych i w otoczeniu, które umożliwi im podejmowanie trafnych i szybkich decyzji. Bez odpowiedniego zaplecza sam agent niewiele zmieni w organizacji, może wręcz generować więcej problemów niż korzyści. Multiplikacja działa w tym przypadku w obie strony. Potwierdzają to liczne analizy, w których brak jasnej strategii, celów biznesowych czy właściwych informacji wejściowych jest przyczyną przerwania kosztownych wdrożeń. W ID Logistics myślimy dziś o agentach jako o kolejnej fazie rozwoju naszych kompetencji, skupiamy się na budowaniu niezbędnych fundamentów technologicznych i rozwoju projektów, które przynoszą realną wartość biznesową. Rozwijamy m.in. automatyczne wymiarowanie odzieży, predykcję zapotrzebowania na pracowników i systemy bezpieczeństwa oparte na wizji komputerowej. Przygotowujemy naszą organizację i technologie na etap, w którym agenci zaczną realnie zwiększać efektywność operacyjną, nie tylko jako pojedyncze rozwiązania, ale również jako sieć współpracujących systemów – dodaje Sławomir Rodak z ID Logistics.
Agent jest zdolny, ale potrzebuje dobrego zaplecza i równie zdolnych ludzi
Proaktywna zdolność agentów, dająca możliwość podejmowania szybszych i trafniejszych decyzji ma swoje ograniczenia, a wśród nich znajdują się te leżące po stronie samych organizacji. Z danych PwC opublikowanych w 2025 r. wynika na przykład, że dla 37% zarządzających operacjami i łańcuchem dostaw jednym z trzech największych wyzwań przy skutecznym skalowaniu rozwiązań sztucznej inteligencji jest dostępność i jakość wprowadzanych danych. Dla 42% jest to trudność integracji rozwiązań AI z istniejącymi systemami. Nie jest to rzecz nowa, ponieważ podobne problemy można było obserwować także przy wdrażaniu innych technologii w łańcuchu dostaw, jak rozwiązania chmurowe, których wykorzystywanie deklaruje 56% firm, czy cyfrowe bliźniaki, których używa 21% przedsiębiorstw. Wśród tych, którzy podjęli próby wdrożeń cyfrowych rozwiązań, ale ostatecznie deklarowali przynajmniej częściowe niezadowolenie z podjętych inwestycji, głównym powodem była skomplikowana integracja (47%), a zaraz za nią problemy z danymi (44%). Wysoko uplasowały się także ograniczone zdolności dostawców rozwiązań (35%) oraz kompetencje kadrowe wewnątrz firm (32%).
Marzenie o agentach bez własnych danych oznacza twarde lądowanie ambitnych założeń
Wyjątkowo realistyczne podejście przy wdrażaniu agentów prezentuje już szereg podmiotów, także tych działających w środowisku łańcucha dostaw. Dla przykładu FourKites argumentuje, że agent AI bez odpowiednich danych nie będzie w stanie przygotować czystych i sensownych odpowiedzi na powierzone mu zadania. Różnica pomiędzy udanymi wdrożeniami a kosztownymi porażkami sprowadza się w gruncie rzeczy właśnie do architektury danych i pracy agentów w roli kompleksowych wież kontrolnych z podglądem w czasie rzeczywistym na procesy zachodzące w obiektach, u dostawców, odbiorców, przewoźników i klientów. Bez takiego podejścia technologia ta staje się tylko kolejnym systemem ostrzegawczym generującym szum zamiast wartości.
Takiej logice wtóruje m.in. Światowe Forum Ekonomiczne (WEF), wskazując, że niespójne, nieaktualne lub niewiarygodne dane poważnie ograniczają skuteczność sztucznej inteligencji, a starsze systemy stwarzają dodatkowe przeszkody integracyjne. Sprawy nie ułatwiają również wymogi regulacyjne, dlatego organizacje muszą nadać priorytetowe znaczenie przygotowaniu swoich danych do wykorzystania w AI. Kluczowe znaczenie ma w związku z tym posiadanie jasnej strategii gromadzenia informacji zewnętrznych, które łączą tradycyjne źródła danych operacyjnych (poziomy zapasów, informacje dotyczące śledzenia i lokalizacji), sygnały ryzyka i dane dostawców (ich kondycja, wydarzenia geopolityczne, ryzyko finansowe) oraz dane nieustrukturyzowane (e-maile, notatki ze spotkań, wiadomości rynkowe).
Zintegrowany zbiór powinien tworzyć kompleksowy obraz łańcucha dostaw w czasie rzeczywistym. Według WEF tak opisane wzorcowe platformy są nadal w powijakach, choć to obraz trochę jaskrawszy niż wizja prezentowana jeszcze w 2024 r., kiedy organizacja sugerowała, że jest bardzo mało prawdopodobne, aby system łańcucha dostaw został w pełni zautomatyzowany w najbliższym czasie. Główną przeszkodą jest fakt, że składa się on z dziesiątek branż oraz tysięcy firm i nie jest w stanie, a być może nie chce, zintegrować swoich pojedynczych systemów z najnowszymi technologiami. Pełna automatyzacja byłaby również powolna i niezwykle kapitałochłonna, wymagałaby współpracy, która jest trudna do osiągnięcia, zwłaszcza w wysoce konkurencyjnych obszarach, takich jak transport morski.
W tym kontekście nieco bardziej optymistycznie widzi to Gartner, który prognozuje, że do 2030 r. połowa przekrojowych rozwiązań do zarządzania łańcuchem dostaw, tj. spinających wiele działów i funkcji, może wykorzystywać inteligentnych agentów podejmujących samodzielne decyzje w ramach całego ekosystemu.
Optymizm już teraz udziela się kierownictwu wysokiego szczebla
Z badania IBM Institute for Business Value (IBV) i Oxford Economics przeprowadzonego wśród ponad 300 dyrektorów ds. łańcucha dostaw (CSCO) i dyrektorów operacyjnych (COO) pracujących w organizacjach wdrażających automatyzację opartą na sztucznej inteligencji wynika, że postrzegają oni agentów AI jako akcelerator biznesu. Aż 62% z nich zdaje sobie sprawę, że agenci wbudowani w operacyjne przepływy pracy przyspieszają podejmowanie działań, decyzji, tworzenie rekomendacji i komunikację. Jak wskazuje analiza, nawet 53% kadry kierowniczej w jakiejś formie wdraża automatyzację pracy za pomocą agentów AI, 22% rozwija wersje koncepcyjne, a 31% już je skaluje. Dodatkowo 70% dyrektorów uważa, że już w 2026 r. dzięki agentom AI ich pracownicy będą mogli dokładniej analizować dane i wspierać optymalizację w czasie rzeczywistym. Więcej, bo 76% twierdzi, że poprawi się ogólna wydajność procesów, a 57% oczekuje, że agenci AI będą tworzyć proaktywnie rekomendacje w oparciu o swoją wiedzę.
Gartner studzi nieco te nastroje, argumentując, że co prawda jest możliwe, aby w tak krótkim czasie nawet 95% decyzji opartych na danych było przynajmniej częściowo zautomatyzowanych, ale wciąż nie zmienia to faktu, że zaledwie 10% dyrektorów twierdzi, że ich firmy wykorzystują sztuczną inteligencję w sposób strategiczny. Jeszcze mniej liderów (9%) deklaruje, że organizacje mają jasno zdefiniowaną wizję sztucznej inteligencji, co ma kluczowe znaczenie dla płynnego wdrażania, funkcjonowania oraz finansowania rozwiązań. Opracowanie kompleksowej strategii wykorzystania AI w łańcuchu dostaw w przełomowy sposób, czyli taki, który umożliwia uzyskanie przewagi konkurencyjnej uwzględnia cztery kluczowe filary: wizję, wartość, ryzyko i wdrożenie. Dopiero ocena i możliwości implementacji tych czynników odsłania prawdziwy potencjał wykorzystania nowej technologii, nie tylko w operacjach łańcucha dostaw, ale także w innych obszarach.
A jeśli agenci AI nie są tak wszechstronni i inteligentni, jak deklarują ich twórcy?
Dane pokazują, że na młodej technologii, jaką są agenci AI, w pierwszej kolejności zyskują sektory, w których złożoność elementów i ich współzależność jest relatywnie niska. Według 3 412 przedstawicieli kadr zarządzających z różnych branż, których w zeszłym roku przebadał Gartner, największe pole do zastosowania agentów AI mają dziś przede wszystkim działy obsługi klienta (22%), daleko za nimi znajdują się działy marketingu (12%). Na kolejnych miejscach jest sprzedaż oraz aplikacje biznesowe (po 11%), a także operacje IT (10%). Dopiero na 9. pozycji znajdują są funkcje związane łańcuchami dostaw (5%), a jeszcze mniejsze prawdopodobieństwo oddania kompetencji inteligentnym agentom widzi się obecnie w dziale zakupów (3%) i prawnym (2%).
Panuje raczej konserwatywne podejście
Dalsze analizy wskazują również, że nie wszyscy managerowie zgodnie i szeroko otworzyli firmy i portfele, aby wdrażać rozwiązania agentów AI. Znaczące inwestycje w ten obszar deklaruje obecnie 19% badanych, a podejście konserwatywne 42% kadr kierowniczych. Aż 31% postawiło na strategię wstrzymania się i obserwacji, a 8% w ogóle nie podjęło inwestycji.
Przez rynek przelewa się już fala nieudanych wdrożeń, a Gartner ocenia, że ponad 40% projektów związanych z agentami AI zostanie odwołana do 2027 r., czego powodem będą galopujące koszty, niejasna wartość biznesowa oraz nieadekwatna kontrola ryzyka. Dodatkowo na rynku widać rosnącą dysproporcję podaży nad popytem AI, czyli tzw. lukę adaptacyjną AI. Rozwiązania i innowacje proponowane przez twórców rosną wyraźnie szybciej niż możliwości ich zastosowania po stronie klientów.
Zdaniem analityków, to tylko jeden z wielu czynników, który w krótkim terminie doprowadzi do upadłości wielu dostawców inteligentnych algorytmów, po czym nastąpi konsolidacja i korekta rynku. Stanie się to po tym, jak opadnie silnie eksploatowany szum medialny, a wśród potencjalnych odbiorców minie psychologiczny strach przed pominięciem nowej technologii (ang. FOMO – Fear Of Missing Out) i górę wezmą fundamentalne prawidła ekonomii.
W dłuższej perspektywie wykształcą się wyspecjalizowane produkty dotyczące agentów AI, które będą spełniały realne oczekiwania klientów i jest to normalny cykl życia każdego produktu i technologii. Nie jest jednak wykluczone, że zanim to nastąpi, agenci AI staną się kolejną bańką spekulacyjną, jeśli inwestycje oderwą się od potencjału technologii do generowania realnej i proporcjonalnej wartości ekonomicznej przekładającej się na konkretne rezultaty biznesowe.
Oszustwo metodą na agentyczne FOMO
Strach przed pominięciem i pośpiech wdrożeniowy doprowadził już do poważnych patologii, co w przyszłości może zniechęcać firmy do podejmowania prób implementacji. Na rynku widać zjawisko FOMO, ale również tzw. agentic washing, czyli mechanizm fałszowania, w którym dostawcy oprogramowania przedstawiają istniejące produkty jako agentów AI. Są to na przykład zamaskowani wirtualni asystenci, rozwinięte systemy RPA i chatboty. Gartner ocenia, że globalnie zaledwie 130 twórców z dosłownie tysięcy dostawców oprogramowania reklamowanego jako agenci AI jest prawdziwych. Większości aplikacji udających agentów brakuje wartości biznesowej albo ROI, ponieważ modele nie weszły jeszcze w fazę dojrzałości i etap prawdziwie autonomicznego realizowania złożonych celów biznesowych. Jednym słowem rynek został zalany przez podróbki.
Agentycza bańka ma swoje problemy, ale jeśli nie pęknie, to się nie zatrzyma
Zdaniem Gartnera w 2028 r., już po konsolidacji i osiągnięciu większej dojrzałości, co najmniej 15% codziennych decyzji biznesowych będzie podejmowanych przez autonomicznych agentów, co będzie znaczącym wzrostem względem 2024 r., kiedy udział ten wynosił 0%. Dodatkowo 33% aplikacji oprogramowania biznesowego będzie zawierało algorytmy agentów AI, co będzie skokiem z poniżej 1% w 2024 r. Póki co analitycy sektora technologicznego zalecają jednak, aby na tym etapie rozwoju wdrażanie sztucznej inteligencji opartej na agentach rozpoczynać tylko wtedy, gdy przynosi ona wyraźną wartość i zwrot z inwestycji. Należy także pamiętać, że sama integracja z istniejącymi systemami jest technicznie skomplikowana, kosztowna i często zakłóca pracę przedsiębiorstwa.
Okres dojrzewania agentów będzie bardzo dynamiczny, ale jednocześnie bardzo opłacalny. W najlepszym scenariuszu przewiduje się, że do 2035 r. oparta na nich sztuczna inteligencja będzie generowała około 30%, czyli ponad 450 mld dol., przychodów przedsiębiorstw produkujących aplikacje biznesowe. To znacznie więcej niż w 2025 r., kiedy udział ten wynosił 2%. Z każdym rokiem upowszechniać mają się również nowe funkcjonalności. W 2027 r. pojedynczy wyspecjalizowani agenci będą współpracować ze sobą, aby rozwiązywać skomplikowane zadania i będzie to jedna trzecia wdrożeń. Rok później będą tworzyć sieci ekosystemów i reagować dynamicznie w zmieniającym się środowisku. W 2029 r. wkroczymy w nowy wymiar współpracy pomiędzy agentami a ludźmi, a co najmniej 50% pracowników intelektualnych wykształci nowe umiejętności potrzebne do pracy, zarządzania, a nawet tworzenia agentów do rozwiązywania złożonych zadań.
Zanim ten futurystyczny scenariusz się zrealizuje, agent AI musi przestać zmyślać
Tak, agent AI zmyśla, a w zasadzie halucynuje, bo tak fachowo określa się wygenerowane rezultaty, które mają mało wspólnego z rzeczywistością. Halucynacje są jednym z poważniejszych czynników hamujących rozwój AI, mają charakter powszechny i póki co trudny do wyeliminowania. Google zwraca uwagę na przykład, że błędne wyniki może powodować niewystarczająca ilość danych szkoleniowych, ich tendencyjność, stronniczość lub nieprawidłowe założenia modelu AI. Może on po prostu nie rozumieć informacji o prawdziwym świecie, właściwości fizycznych czy pewnych faktów, a jeśli podczas szkolenia nauczy się nieprawidłowych wzorców, to doprowadzi to do halucynacji w postaci wyników, które są pozornie wiarygodne, ale w rzeczywistości nieprawdziwe lub pozbawione sensu. Open AI tłumaczy, że modele halucynują, gdyż standardowe procedury treningu i oceny premiują zgadywanie, zamiast przyznania się do niewiedzy. Z kolei IBM wyjaśnia, że halucynacje modeli są podobne do tego, w jaki sposób ludzie rozpoznają sylwetki lub kształty w chmurach, w pewien sposób dopowiadając sobie kontekst do tego co widzą.
Do tej pory nie udało się wyeliminować problemu halucynowania modeli AI, ale jego skala jest naprawdę poważna. Prowadzi to nie tylko do generowania fałszywych wyników, ale także podważa zaufanie do dostawców rozwiązań. Według szefów działów IT firm zatrudniających co najmniej 250 pracowników przebadanych w połowie 2025 r. przez Gartner, jest to jedna z głównych barier powstrzymujących przed wdrażaniem w pełni autonomicznych agentów. Zaledwie 19% respondentów wykazało wysokie lub całkowite zaufanie co do zdolności swojego dostawcy w zakresie zapewnienia ochrony przed halucynacjami. Znacznie więcej, bo 26% uznało jednak, że mimo wszystko agenci będą mieli transformacyjny wpływ na produktywność, a 53% uważała, że ich wpływ będzie co najmniej znaczący.