Skip to main content

Dlaczego większość AI w finansach zawodzi — i co ma z tym wspólnego model danych

AI w finansach nie dowozi nie przez złe narzędzia, lecz dlatego, że model danych zaprojektowano dla jednego odbiorcy — ludzi czytających dashboard. AI to drugi odbiorca, który potrzebuje zarządzanych definicji, pojedynczych ścieżek obliczeniowych i kontekstu semantycznego, którego model nigdy nie miał dostarczać.

Kluczowe wnioski

  • AI w finansach zawodzi nie przez złe narzędzia, lecz dlatego, że model danych zaprojektowano dla jednego odbiorcy (ludzi), a teraz ma obsługiwać dwóch (ludzi i maszyny).
  • Ludzie radzą sobie z niespójnością danych dzięki wiedzy instytucjonalnej i uzgodnieniom. AI tego nie potrafi — potrzebuje deterministycznych definicji wbudowanych w model.
  • Efekt to procesy równoległe — ręczna walidacja każdego wyniku AI — co niweczy sens inwestycji.
  • Zaledwie 15% decydentów AI zgłosiło wzrost EBITDA. Wzorzec jest spójny: AI nie dowozi, gdy fundamenty danych projektowano pod dashboard, nie pod konsumpcję maszynową.
  • Rozwiązaniem nie jest lepsze AI ani czystsze dane. To zarządzana warstwa semantyczna, która definiuje logikę biznesową raz i udostępnia ją identycznie wszystkim odbiorcom.

Controller pyta copilota AI: “Co spowodowało spadek marży brutto w Q2?”

AI odpowiada. Liczba nie zgadza się z dashboard. Nie zgadza się z analizą w Excelu sprzed tygodnia. Dwadzieścia minut uzgadniania. Controller bierze liczbę z Excela — tę, którą człowiek zbudował i sprawdził ręcznie.

AI nie zawiodło. Odpytało model danych i obliczyło wynik. Model nigdy nie był zaprojektowany do konsumpcji maszynowej. Zaprojektowano go dla ludzi czytających dashboard. Ludzie wypełniają luki, których maszyny wypełnić nie potrafią.

Większość AI w finansach nie dowozi z tego powodu. Nie złe narzędzia. Złe fundamenty.

Problem dwóch odbiorców

Do niedawna odbiorcami raportów byli wyłącznie ludzie. Dashboard, pakiety zarządcze, prezentacje dla zarządu — wszystko dla osób, które wnoszą kontekst i wiedzę instytucjonalną do każdej liczby.

Ludzie radzą sobie z niespójnymi danymi dobrze. ERP pokazuje przychody 10,2 mln EUR. Dashboard BI — 10,4 mln EUR. Controller wie dlaczego: jeden obejmuje zwroty, drugi nie. Korekta mentalna, przypis, dalej. Człowiek wykonuje pracę interpretacyjną, której żaden system nie rejestruje.

Agenty AI tego nie potrafią. Copilot AI zapytany “Jakie były przychody w Q1?” nie wie, którą definicję zastosować. Odpytuje tabele, jakie znajdzie. Raz 10,2 mln EUR. Raz 10,4 mln EUR. Czasem 9,8 mln EUR z zupełnie innej ścieżki. Technicznie poprawne. Operacyjnie bezużyteczne.

To jest problem dual-consumer data model . Większość modeli danych zaprojektowano dla jednego odbiorcy. Teraz obsługują dwóch. Model się nie zmienił. Zmieniła się liczba odbiorców.

Co się dzieje, gdy AI trafia na model jednego odbiorcy

Awaria nie wygląda jak crash. Wygląda jak erozja.

Za pierwszym razem: ktoś sprawdza i wyjaśnia rozbieżność. Za drugim: “powinniśmy to zweryfikować”. Za piątym: zespół po cichu zbudował proces równoległy — ręczną walidację obok AI — który niweczy całą inwestycję.

Liczby to potwierdzają. Forrester: zaledwie 15% decydentów AI zgłosiło wzrost EBITDA. Mniej niż jedna trzecia potrafiła powiązać wartość AI ze zmianami w P&L. Badania MIT (za pośrednictwem AtScale): około 95% pilotaży generatywnego AI nie wykazuje mierzalnego wpływu na P&L. Gartner i Deloitte: ponad 40% projektów agentycznego AI porzuconych do 2027.

Ten sam wzorzec wszędzie. Technologia działa. Infrastruktura jej nie wspiera.

Gdzie model się łamie: przykład z controllingu

Marża brutto w średniej firmie z dwoma ERP-ami i narzędziem BI. To nie prosta metryka — obejmuje alokację kosztów, zwroty, rabaty promocyjne, korekty wysyłki. Trzy wersje:

ERP oblicza ją przy kosztach standardowych. Spójne w ramach systemu. Nie odzwierciedla kosztów rzeczywistych w danym okresie.

Dashboard BI stosuje koszty rzeczywiste z ręcznymi korektami. Controller zbudował logikę, naniósł korekty za promocje, zwalidował ze sprawozdaniem zarządczym. Poprawne — dla kogoś, kto rozumie korekty.

Agent AI odpytuje tabele, do których ma dostęp. Nie wie o ręcznych korektach. Nie wie, którą alokację zastosować. Znajduje kolumny przychodu i kosztów, dzieli, zwraca liczbę. Obronne na podstawie danych. Bezużyteczne przy decyzji.

Trzy wersje. Controller je uzgadnia, bo wiedza siedzi w jego głowie. Agent AI nie ma dostępu do wiedzy, której nie ma w danych.

Ład zarządczy jako polityka a ład zarządczy jako infrastruktura

Większość organizacji ma polityki ładu zarządczego danych . Gdzieś na dysku leży dokument definiujący, co znaczą “przychody”, jak oblicza się “EBITDA”, które podmioty konsolidują się na jakim poziomie. AI tego dokumentu nie przeczyta. Nie otworzy PDF-a, nie zinterpretuje definicji, nie zastosuje formuły.

Ład zarządczy jako dokumentacja działa dla ludzi. AI potrzebuje ładu zarządczego jako infrastruktury: definicji metryk zakodowanych jako logika obliczeniowa, reguł hierarchii jako relacji modelu, metod alokacji jako kroków transformacji. Polityka — ludzie ją egzekwują. Infrastruktura — system ją egzekwuje.

KPMG: 62% organizacji wskazuje niedostateczny ład zarządczy jako główną barierę skalowania AI. Nie technologię. Nie budżet. Ład zarządczy. Budowanie lepszego AI na łądzie opartym na politykach to montowanie silnika w samochodzie bez kierownicy.

Luka warstwy semantycznej

Między surowymi danymi a odbiorcami stoi — lub nie stoi — warstwa semantyczna . Definiuje metryki biznesowe, hierarchie i relacje raz. “Przychody” znaczą jedno. “Marża brutto” stosuje jedną alokację kosztów. “Hierarchia centrum kosztowego ” sumuje się jednym sposobem. Dashboard, arkusz, agent AI — te same definicje, te same liczby.

Bez niej każdy odbiorca interpretuje surowe dane samodzielnie. Deweloper BI wbudowuje logikę w dashboard. Analityk odtwarza ją w Excelu. Agent AI zgaduje z nazw kolumn. Trzech odbiorców, trzy interpretacje, trzy liczby.

GoodData: “Tradycyjne platformy BI zamykają definicje biznesowe wewnątrz dashboard zaprojektowanych do konsumpcji ludzkiej, nie dla agentów AI.” Logika zamknięta w narzędziach, do których dostęp mają tylko ludzie.

Gartner nadał warstwom semantycznym status “infrastruktury krytycznej”. Specyfikacja Open Semantic Interchange (OSI) sfinalizowana w styczniu 2026. Już nie udogodnienie. Wymóg.

Czynnik potęgujący w średnich firmach

Duże firmy rzucają na to zespoły inżynierii danych. Średnie — od 5 do 60 mln EUR przychodu — nie mają takiej opcji.

Większość nie projektowała architektury danych. Odziedziczyła ją. Pierwszy ERP (np. enova365) wybrany przy 15 osobach. Drugi (np. Comarch ERP Optima) dodany po przejęciu. Trzeci (np. Subiekt GT) obsługuje magazyn. Plan kont w zasadzie się zgadza. Centra kosztowe wyglądają spójnie, dopóki nie trzeba ich zsumować po podmiotach.

Tu AI powinno pomagać najbardziej — i tu zawodzi najdotkliwiej. Niespójności, po których controller porusza się codziennie dzięki doświadczeniu i arkuszom, stanowią niewidoczne mury dla AI. Nie wie, że podmiot A stosuje inną numerację centrów kosztowych niż podmiot B. Nie wie, że przychody za Q4 w polskiej spółce zależnej są prowizoryczne. Oblicza odpowiedzi z danych, jakie znajdzie, i prezentuje je z fałszywą pewnością.

Ten sam problem dwóch odbiorców co duże firmy. Mniej zasobów na rozwiązanie.

Co tego nie naprawi

Lepsze narzędzie AI. Inteligentniejszy model na tych samych wadliwych fundamentach — bardziej pewne siebie błędne odpowiedzi.

Warstwa jakości danych na wierzchu. Walidacja wyłapuje brudne rekordy. Nie naprawi trzech różnych obliczeń marży brutto w trzech narzędziach. Brakujące definicje semantyczne, nie brudne dane.

Podłączenie AI do tych samych dashboard. Pomaga — dopóki AI nie odpyta danych inaczej niż gotowy model dashboard. Definicje siedzą w narzędziu BI, nie w warstwie, którą AI potrafi odczytać.

Oczyszczenie danych, potem AI. Konieczne, ale niewystarczające. Czyste dane z niespójnymi definicjami nadal dają niespójne odpowiedzi. Problem to jakość semantyczna, nie jakość danych.

Co to naprawia

Zarządzana warstwa semantyczna między surowymi danymi a wszystkimi odbiorcami. Definiuje logikę biznesową raz.

Jedna ścieżka obliczeniowa na metrykę. Jedna reguła sumowania na hierarchię. Jeden KPI zakodowany jako logika modelu, nie udokumentowany w PDF-ie. Dashboard to odczytuje. AI to odczytuje. Arkusz to odczytuje. Te same liczby. Za każdym razem.

Test gotowości na AI jest prosty: czy organizacja potrafi generować spójne odpowiedzi bez heroicznego kontekstu ludzkiego? Jeśli controller musi uzgodnić, zwalidować lub zinterpretować, zanim ktoś zaufa liczbie — fundamenty nie są gotowe.

Roland Berger: 74% CFO planuje inwestować w AI do controllingu. To samo badanie: 25% skrócenie czasu zamknięcia miesiąca dzięki AI — ale tylko tam, gdzie fundamenty danych natywnie wspierały konsumpcję maszynową. Intencja jasna. Infrastruktura w większości nieobecna.

Droga naprzód

Jeśli odpowiedzi AI wymagają ręcznej walidacji, model danych obsługuje jednego odbiorcę i zmusza się go do obsługi dwóch.

Rozwiązaniem jest osadzenie logiki biznesowej w warstwie modelu danych — nie w dashboard, arkuszach ani dokumentach ładu zarządczego — i udostępnienie jej każdemu odbiorcy identycznie.

Nie problem technologiczny. Problem projektowy. Artykuł towarzyszący — Jak zaprojektować model danych, który działa zarówno dla ludzi, jak i dla AI — opisuje sześć zasad, których model danych potrzebuje, aby obsługiwał oba typy odbiorców.


Źródła: Forrester Predictions 2026 , KPMG — Rebuilding Data Governance in the Age of AI , Roland Berger — Mastering AI in the Finance Function , Deloitte — CFO Guide to Tech Trends 2026 , AtScale — Why AI Redefined the Semantic Layer , GoodData — How to Modernize Your BI for the AI Era

Powiązane kompetencje

Ład danych finansowych — definicje, kontrole, odpowiedzialność

Zobacz, jak ta koncepcja wpisuje się w nasze podejście.

Poznaj

Zaczynamy!

Zmień swój controlling finansowy

Od fundamentów raportowania po kompleksowe usługi zarządzania — pomagamy zespołom finansowym widzieć wyraźnie, decydować pewnie i działać zdecydowanie.

Umów bezpłatną konsultację