5 redenen waarom generatieve AI niet werkt voor finance
Veel financials temperen na verloop van tijd hun enthousiasme voor generieke AI. De output oogt in eerste instantie solide, maar blijkt toch niet juist genoeg om op te bouwen. Dat concludeert Nextens, een specialist in fiscale software. Het bedrijf geeft vijf argumenten voor het falen van GenAI in de financiële praktijk.
1. Overuigend fout zitten
Generieke AI kan een cijfer of oorzaak overtuigend formuleren, zonder dat duidelijk is of het antwoord echt uit de bron komt of door het model is ingevuld. De fout is niet altijd spectaculair, maar kan fout zijn met de marge van een paar tienden. Juist daar zit het gevaar, waarschuwt Nextens, want grote fouten vallen sneller op dan kleine fouten. Nextens: “Juist in finance zijn het die kleine afwijkingen die later grote vragen oproepen en gevolgen kunnen hebben. Een model dat af en toe hallucineert, vormt daarom een extra risicolaag.”
2. Niet stabiel voor besluitvorming
Een financeteam wil niet telkens een nieuw antwoord op dezelfde vraag. Generieke AI-modellen zijn daar niet vanzelfsprekend op ingericht, zo waarschuwt Nextens. “Generieke AI-modellen reageren op context, promptformulering, modelupdates en systeemwijzigingen. Het advies is dan ook om nadrukkelijk versienummers, hotfixes en andere veranderingen te volgen, juist omdat zulke wijzigingen invloed kunnen hebben op de output. Voor finance is dat een wezenlijk probleem. De tool die snelheid belooft, voegt vooral onzekerheid toe.”
3. Zonder bronverwijzing geen audit trail
Finance werkt vooral met bewijs en kijkt naar herkomst, definities en bronregels. Zonder controleerbare herkomst is er feitelijk een onbruikbare uitkomst, aldus Nextens. Generatieve AI biedt weliswaar keurige managementsamenvatting, maar geen audit trail die een controller, accountant of toezichthouder. “Dan blijft de essentie van het werk alsnog handmatig. Het antwoord moet terug naar Excel, naar het grootboek, naar de rapportage of naar de brondefinitie. En precies daarmee verdwijnt een groot deel van de beloofde efficiency.”
4. Data governance als operationeel risico
Zodra financeprofessionals gevoelige informatie in een publiek of generiek model plakken, raakt de discussie aan governance, vertrouwelijkheid en operationele weerbaarheid, vervolgt Nextens. De ECB waarschuwt dat breed gebruik van nieuwe AI-tools ook risico’s rond concentratie en operationele afhankelijkheid kan vergroten. De European Bank Authority (EBA) signaleert daarnaast dat generatieve AI hallucinaties kan versterken en tegelijk ICT-risico’s kan vergroten.
5. Generieke AI kan niets met de actuele werkelijkheid
Bestuurders willen niet alleen vaste rapportagemomenten, maar steeds vaker ook tussentijdse duiding, scenario’s en snelle impactanalyses. Generieke AI kan daar alleen iets mee bij eerst een handmatige dataselectie die wordt gekopieerd en geplakt. Dat is volgens Nextens per definitie een momentopname. Maar GenAI vraagt juist om sterke governance, informatie- en metadatastandaarden. “Zonder die basis blijft de output losstaan van de actuele werkelijkheid waarop finance juist moet sturen.”
De Europese Centrale Bank ECB stelt dat de waarde van AI in de financiële sector afhankelijk is van beheersing van data, modelontwikkeling en deployment. De Bank of England wijst erop dat data governance, model risk management en operationeel risicobeheer essentieel is voor AI in financiële diensten. Zodra een uitkomst niet uitlegbaar is, verandert tijdwinst in extra controlewerk.