Rapportageproces versnellen? Datakwaliteit verhogen!

Door de crisis van de afgelopen jaren zien financiële instellingen de rapportagedruk toenemen.
Niet alleen willen de externe stakeholders (bv aandeelhouders, beursanalisten en regulators) sneller meer en betere informatie hebben, maar ook intern is deze behoefte toegenomen. Dit dwingt financiële instellingen om de processen rondom interne en externe rapportage verder te verbeteren. 
De eerste slag die kan worden gemaakt is om te zorgen dat de datakwaliteit wordt verhoogd. Op dit moment ligt de nadruk nog steeds op het opleveren van de (verplichte) rapportages en minder op de kwaliteit van de data waarop de rapportages zijn gebaseerd. De regulators stellen eisen aan de data, die moet namelijk accuraat, geschikt, tijdig en compleet zijn. Deze termen zouden als volgt kunnen worden geïnterpreteerd:
• “Accuraat” is een maat voor de betrouwbaarheid van de data. 
• “Geschikt” houdt in dat de data relevant is voor de benodigde oordeels- en besluitvorming. 
• “Tijdig” betekent dat de besluitvorming die op basis van de data en informatie plaatsvindt niet gehinderd wordt. 
• “Compleet” betekent dat de data voldoende beeld geeft van de werkelijke situatie om daarop oordeels- of besluitvorming te kunnen laten plaatsvinden. 
De kern van rapportages en informatievoorziening is goede en betrouwbare data. Degenen die de rapportages ontvangen moeten er vanuit kunnen gaan dat de data waarop de rapportages zijn gebaseerd een volledig en juist beeld geeft. Dit geldt zowel voor de data waarop de rapportage is gebaseerd, als wel het vertrouwen in de data waarop  de conclusies en beleidsmaatregelen zijn gebaseerd. De externe rapportages naar de toezichthouders moeten een goed beeld te geven van de risico’s die de financiële instellingen lopen. DNB schrijft voor dat “juiste en tijdige informatie cruciaal zijn voor het goed kunnen uitvoeren van de toezichttaak ”. Deze eisen zijn voor banken alleen maar relevanter geworden nu DNB de Principles of Effective Risk Data Aggregation and Risk Reporting (PERDARR), laat invoeren door de aangewezen grootbanken.
__________________________________________________________________________________________________________________
Wilt u tijd en kosten besparen? Bent u op zoek naar een efficiëntere inrichting van uw afsluitings- en rapportage proces? Steekt u nu te veel tijd in het produceren en beoordelen van rapportages, terwijl u liever focust op vooruitkijken en het strategisch adviseren van uw organisatie? Dan is deze eendaagse training voor u onmisbaar. 
____________________________________________________________________________________________________________________ 
 
De eerste stap om het rapportageproces te verbeteren is zorgen dat binnen de financiële instelling dezelfde datadefinities worden gebruikt. Het belang van datakwaliteit wordt veelal onderschat. Bedrijven zijn vaak niet goed op de hoogte van de kwaliteit van hun data. Echter, gezien de enorme toename in informatievoorziening en –gebruik, verdienen de data die hiervan aan de basis staan de nodige aandacht. Niet alleen de financiële instellingen, maar ook de toezichthouders geven meer en meer aandacht aan datakwaliteit. Dit heeft geleidt tot eisen aan (processen die van invloed kunnen zijn op) de datakwaliteit. Het bepalen van de datakwaliteit en het opsporen en verhelpen van issues vergt daarom een aanpak die niet alleen de data zelf betreft, maar ook het bewustzijn in de organisatie. 
Datakwaliteit behelst niet enkel de “enen en nullen” in de systemen, het gaat verder. Hierbij moet men denken aan de processen waarmee de data verzameld wordt. Als het gaat om gegevensinvoer leiden de beperkingen (en vooral vrijheden) van front-office systemen veelal tot incorrecte data. 
Het verbeteren van de datakwaliteit gaat dan ook niet alleen over het herstellen van de bestaande data (downstream) maar ook door ervoor te zorgen dat nieuwe data die het systeem binnenkomt van goede kwaliteit is (upstream).
Het helpt dus niet om te blijven dweilen terwijl de kraan nog open staat (zo zegt ook de toezichthouder) en dat is logisch. Verbetering van datakwaliteit is geen technisch werkje waarbij alle onvolkomenheden worden gerepareerd. De oorsprong van de vervuiling dient te worden opgespoord en aangepakt. Dit kan of een fout in een (menselijk) proces zijn, of een technische fout in de lange weg die de gegevens afleggen voordat ze in een rapport verschijnen.
Wat levert het verbeteren van datakwaliteit op?
Het is interessant om een businesscase te maken met “schone” data als uitgangspunt. Wat levert het op? Wat besparen we? Hoe meten we de opbrengsten? Het is goed om in dit geval buiten de gebaande paden te denken in de zin van resultaten, aangezien deze simpelweg niet direct meetbaar zullen zijn.
Als we echter niet direct naar de (financiële) benefits kijken is het belangrijkste toch wel dat een bank of verzekeraar Basel II/III of Solvency II compliant is. Deze richtlijnen sturen aan op het hebben van accurate interne risicomodellen, wat resulteert in het aan hoeven houden van minder solvabiliteitskapitaal, wat ruimte biedt voor extra investeringen. 
Daarnaast heeft (een verbeterde) datakwaliteit invloed op de volgende aspecten:
1. Managementinformatie kan sneller en flexibeler worden aangeboden als de data schoon is, omdat er geen tussenlagen of processen meer nodig zijn om de data à la minute in de juiste vorm te gieten en/of op te schonen. Het achteraf aanpassen van de data kost veel meer tijd dan het aan het begin in één keer goed in te voeren. Door minder handmatige controles en aanpassingen kan de doorlooptijd van het rapportageproces worden verkort. 
2. Een tweede logische stap is om na te gaan welke externe rapportages ook als basis kunnen dienen voor interne managementinformatie. Tevens moet er kritisch worden gekeken of alle interne rapporten noodzakelijk zijn om het bedrijf te besturen. Het blijven produceren van rapporten omdat we die al jaren opleveren is geen goed argument als ze geen waarden toevoegen.
3. Ook worden rapportages betrouwbaarder als de datakwaliteit omhoog gaat. Dientengevolge kunnen bedrijfsprocessen worden geoptimaliseerd als gevolg van het verkregen inzicht op basis van uitgebreidere informatievoorziening.
Een en ander geeft een belangrijk voordeel  weer van new entrants in de financiële sector: zij hebben geen last van een legacy aan systemen, definities en processen maar kunnen met een schone lei beginnen en optimaal profiteren van bovenstaande voordelen. De ‘oude garde’ van banken, verzekeraars en anderszins lopen juist aan tegen hun eigen historisch gegroeide systemen en dataprocessen en voelen zo ‘de wet van de remmende voorsprong’ elke dag aan den lijve. 
Over de auteur
Jeroen Kriele werkzaam als Principal Consultant bij Solid Professionals | Advisory en een ervaren project manager op het gebied van Risk Management en Business Intelligence. Hij was betrokken bij verschillende projecten bij onder andere Rabobank, ABN AMRO, Nationale Nederlanden, Achmea, Capgemini en Delta Lloyd. 
Gerelateerde artikelen