Controller pyta copilota AI: “Co spowodowało spadek marży brutto w Q2?”
AI odpowiada. Liczba nie zgadza się z dashboard. Nie zgadza się z analizą w Excelu sprzed tygodnia. Dwadzieścia minut uzgadniania. Controller bierze liczbę z Excela — tę, którą człowiek zbudował i sprawdził ręcznie.
AI nie zawiodło. Odpytało model danych i obliczyło wynik. Model nigdy nie był zaprojektowany do konsumpcji maszynowej. Zaprojektowano go dla ludzi czytających dashboard. Ludzie wypełniają luki, których maszyny wypełnić nie potrafią.
Większość AI w finansach nie dowozi z tego powodu. Nie złe narzędzia. Złe fundamenty.
Problem dwóch odbiorców
Do niedawna odbiorcami raportów byli wyłącznie ludzie. Dashboard, pakiety zarządcze, prezentacje dla zarządu — wszystko dla osób, które wnoszą kontekst i wiedzę instytucjonalną do każdej liczby.
Ludzie radzą sobie z niespójnymi danymi dobrze. ERP pokazuje przychody 10,2 mln EUR. Dashboard BI — 10,4 mln EUR. Controller wie dlaczego: jeden obejmuje zwroty, drugi nie. Korekta mentalna, przypis, dalej. Człowiek wykonuje pracę interpretacyjną, której żaden system nie rejestruje.
Agenty AI tego nie potrafią. Copilot AI zapytany “Jakie były przychody w Q1?” nie wie, którą definicję zastosować. Odpytuje tabele, jakie znajdzie. Raz 10,2 mln EUR. Raz 10,4 mln EUR. Czasem 9,8 mln EUR z zupełnie innej ścieżki. Technicznie poprawne. Operacyjnie bezużyteczne.
To jest problem dual-consumer data model . Większość modeli danych zaprojektowano dla jednego odbiorcy. Teraz obsługują dwóch. Model się nie zmienił. Zmieniła się liczba odbiorców.
Co się dzieje, gdy AI trafia na model jednego odbiorcy
Awaria nie wygląda jak crash. Wygląda jak erozja.
Za pierwszym razem: ktoś sprawdza i wyjaśnia rozbieżność. Za drugim: “powinniśmy to zweryfikować”. Za piątym: zespół po cichu zbudował proces równoległy — ręczną walidację obok AI — który niweczy całą inwestycję.
Liczby to potwierdzają. Forrester: zaledwie 15% decydentów AI zgłosiło wzrost EBITDA. Mniej niż jedna trzecia potrafiła powiązać wartość AI ze zmianami w P&L. Badania MIT (za pośrednictwem AtScale): około 95% pilotaży generatywnego AI nie wykazuje mierzalnego wpływu na P&L. Gartner i Deloitte: ponad 40% projektów agentycznego AI porzuconych do 2027.
Ten sam wzorzec wszędzie. Technologia działa. Infrastruktura jej nie wspiera.
Gdzie model się łamie: przykład z controllingu
Marża brutto w średniej firmie z dwoma ERP-ami i narzędziem BI. To nie prosta metryka — obejmuje alokację kosztów, zwroty, rabaty promocyjne, korekty wysyłki. Trzy wersje:
ERP oblicza ją przy kosztach standardowych. Spójne w ramach systemu. Nie odzwierciedla kosztów rzeczywistych w danym okresie.
Dashboard BI stosuje koszty rzeczywiste z ręcznymi korektami. Controller zbudował logikę, naniósł korekty za promocje, zwalidował ze sprawozdaniem zarządczym. Poprawne — dla kogoś, kto rozumie korekty.
Agent AI odpytuje tabele, do których ma dostęp. Nie wie o ręcznych korektach. Nie wie, którą alokację zastosować. Znajduje kolumny przychodu i kosztów, dzieli, zwraca liczbę. Obronne na podstawie danych. Bezużyteczne przy decyzji.
Trzy wersje. Controller je uzgadnia, bo wiedza siedzi w jego głowie. Agent AI nie ma dostępu do wiedzy, której nie ma w danych.
Ład zarządczy jako polityka a ład zarządczy jako infrastruktura
Większość organizacji ma polityki ładu zarządczego danych . Gdzieś na dysku leży dokument definiujący, co znaczą “przychody”, jak oblicza się “EBITDA”, które podmioty konsolidują się na jakim poziomie. AI tego dokumentu nie przeczyta. Nie otworzy PDF-a, nie zinterpretuje definicji, nie zastosuje formuły.
Ład zarządczy jako dokumentacja działa dla ludzi. AI potrzebuje ładu zarządczego jako infrastruktury: definicji metryk zakodowanych jako logika obliczeniowa, reguł hierarchii jako relacji modelu, metod alokacji jako kroków transformacji. Polityka — ludzie ją egzekwują. Infrastruktura — system ją egzekwuje.
KPMG: 62% organizacji wskazuje niedostateczny ład zarządczy jako główną barierę skalowania AI. Nie technologię. Nie budżet. Ład zarządczy. Budowanie lepszego AI na łądzie opartym na politykach to montowanie silnika w samochodzie bez kierownicy.
Luka warstwy semantycznej
Między surowymi danymi a odbiorcami stoi — lub nie stoi — warstwa semantyczna . Definiuje metryki biznesowe, hierarchie i relacje raz. “Przychody” znaczą jedno. “Marża brutto” stosuje jedną alokację kosztów. “Hierarchia centrum kosztowego ” sumuje się jednym sposobem. Dashboard, arkusz, agent AI — te same definicje, te same liczby.
Bez niej każdy odbiorca interpretuje surowe dane samodzielnie. Deweloper BI wbudowuje logikę w dashboard. Analityk odtwarza ją w Excelu. Agent AI zgaduje z nazw kolumn. Trzech odbiorców, trzy interpretacje, trzy liczby.
GoodData: “Tradycyjne platformy BI zamykają definicje biznesowe wewnątrz dashboard zaprojektowanych do konsumpcji ludzkiej, nie dla agentów AI.” Logika zamknięta w narzędziach, do których dostęp mają tylko ludzie.
Gartner nadał warstwom semantycznym status “infrastruktury krytycznej”. Specyfikacja Open Semantic Interchange (OSI) sfinalizowana w styczniu 2026. Już nie udogodnienie. Wymóg.
Czynnik potęgujący w średnich firmach
Duże firmy rzucają na to zespoły inżynierii danych. Średnie — od 5 do 60 mln EUR przychodu — nie mają takiej opcji.
Większość nie projektowała architektury danych. Odziedziczyła ją. Pierwszy ERP (np. enova365) wybrany przy 15 osobach. Drugi (np. Comarch ERP Optima) dodany po przejęciu. Trzeci (np. Subiekt GT) obsługuje magazyn. Plan kont w zasadzie się zgadza. Centra kosztowe wyglądają spójnie, dopóki nie trzeba ich zsumować po podmiotach.
Tu AI powinno pomagać najbardziej — i tu zawodzi najdotkliwiej. Niespójności, po których controller porusza się codziennie dzięki doświadczeniu i arkuszom, stanowią niewidoczne mury dla AI. Nie wie, że podmiot A stosuje inną numerację centrów kosztowych niż podmiot B. Nie wie, że przychody za Q4 w polskiej spółce zależnej są prowizoryczne. Oblicza odpowiedzi z danych, jakie znajdzie, i prezentuje je z fałszywą pewnością.
Ten sam problem dwóch odbiorców co duże firmy. Mniej zasobów na rozwiązanie.
Co tego nie naprawi
Lepsze narzędzie AI. Inteligentniejszy model na tych samych wadliwych fundamentach — bardziej pewne siebie błędne odpowiedzi.
Warstwa jakości danych na wierzchu. Walidacja wyłapuje brudne rekordy. Nie naprawi trzech różnych obliczeń marży brutto w trzech narzędziach. Brakujące definicje semantyczne, nie brudne dane.
Podłączenie AI do tych samych dashboard. Pomaga — dopóki AI nie odpyta danych inaczej niż gotowy model dashboard. Definicje siedzą w narzędziu BI, nie w warstwie, którą AI potrafi odczytać.
Oczyszczenie danych, potem AI. Konieczne, ale niewystarczające. Czyste dane z niespójnymi definicjami nadal dają niespójne odpowiedzi. Problem to jakość semantyczna, nie jakość danych.
Co to naprawia
Zarządzana warstwa semantyczna między surowymi danymi a wszystkimi odbiorcami. Definiuje logikę biznesową raz.
Jedna ścieżka obliczeniowa na metrykę. Jedna reguła sumowania na hierarchię. Jeden KPI zakodowany jako logika modelu, nie udokumentowany w PDF-ie. Dashboard to odczytuje. AI to odczytuje. Arkusz to odczytuje. Te same liczby. Za każdym razem.
Test gotowości na AI jest prosty: czy organizacja potrafi generować spójne odpowiedzi bez heroicznego kontekstu ludzkiego? Jeśli controller musi uzgodnić, zwalidować lub zinterpretować, zanim ktoś zaufa liczbie — fundamenty nie są gotowe.
Roland Berger: 74% CFO planuje inwestować w AI do controllingu. To samo badanie: 25% skrócenie czasu zamknięcia miesiąca dzięki AI — ale tylko tam, gdzie fundamenty danych natywnie wspierały konsumpcję maszynową. Intencja jasna. Infrastruktura w większości nieobecna.
Droga naprzód
Jeśli odpowiedzi AI wymagają ręcznej walidacji, model danych obsługuje jednego odbiorcę i zmusza się go do obsługi dwóch.
Rozwiązaniem jest osadzenie logiki biznesowej w warstwie modelu danych — nie w dashboard, arkuszach ani dokumentach ładu zarządczego — i udostępnienie jej każdemu odbiorcy identycznie.
Nie problem technologiczny. Problem projektowy. Artykuł towarzyszący — Jak zaprojektować model danych, który działa zarówno dla ludzi, jak i dla AI — opisuje sześć zasad, których model danych potrzebuje, aby obsługiwał oba typy odbiorców.
Źródła: Forrester Predictions 2026 , KPMG — Rebuilding Data Governance in the Age of AI , Roland Berger — Mastering AI in the Finance Function , Deloitte — CFO Guide to Tech Trends 2026 , AtScale — Why AI Redefined the Semantic Layer , GoodData — How to Modernize Your BI for the AI Era
- Glosariusz: Dual-Consumer Data Model | Warstwa semantyczna | Ład zarządczy danych | Spójność danych
- Ład zarządczy danych i gotowość na AI | Ramy ładu zarządczego danych finansowych | Architektura planu kont
- Jak zaprojektować model danych, który działa zarówno dla ludzi, jak i dla AI — artykuł towarzyszący z sześcioma zasadami projektowymi