Predictive Analytics: future of forecasting?

De informatietechnologie ontwikkelt zich in exponentieel tempo. Er komt een moment dat kunstmatige intelligentie het van de mensheid zal winnen.

Dat is de visie van AI-experts als Ray Kurzwell, auteur, uitvinder en ondernemer. Het duurt nog even voordat dit zover is, maar de toekomst biedt kansen voor wie zich bewust is van de mogelijkheden. We moeten deze kansen met beide handen aangrijpen om een voordeel te verkrijgen. Want in hoeverre kan een organisatie zich nog veroorloven om besluiten enkel op het onderbuikgevoel te nemen? Het adopteren van een data-driven approach kan soelaas bieden. Niet om het onderbuikgevoel te vervangen, maar om deze te onderbouwen.

Door Giancarlo Gallant, Project Consultant bij TriFinance, met een voorliefde voor Business & IT.

The art of Predictive Analytics

Eén van de kansen is Predictive Analytics. In mijn eigen woorden, de ‘kunst’ om data ‘slim’ te verzamelen. Door bijvoorbeeld gebruik te maken van process mining of bestaande historische datasets om data te combineren met statistische (computer-) modellen zodat de toekomst beter ingeschat kan worden.

Het inzetten van Predictive Analytics (PA) kan direct een gunstig effect hebben op de ‘Profit & Loss’. De drempel hiervoor is lager dan je zou verwachten want verrassend genoeg is PA, tot een zekere hoogte, in veel organisaties al aanwezig. Het is de kunst om bestaande initiatieven of processen te herkennen en inspanningen te verrichten om deze uit te bouwen of te transformeren.

Meester en gezel

Ik herinner het me als de dag van gisteren, hoewel het ruim tien jaar geleden is. De projectadministrateur (want toen werd nog niet iedereen Controller genoemd) stapte de kamer uit waar de project besprekingen werden gehouden en vroeg aan mij: “Vind je het leuk om mee te kijken vandaag?”. Zonder te aarzelen stemde ik in. Ik voelde aan dat het een indrukwekkende sessie zou worden, maar dat ik jaren later nog steeds naar dit moment zou verwijzen had ik nooit verwacht…

De S-Curve als startpunt

Het is 2010, we zitten aan tafel en op de eerste grote widescreen computerschermen wordt een zwaar Excel model opgestart. Een sheet wordt geopend waarbij een gigantische grafiek centraal staat en meerdere gekleurde lijnen het beeld vullen. Mijn verbazing en verwarring zijn zichtbaar als een frons op mijn voorhoofd, die hij beantwoordt met de volgende stelling;

“Als een monteur al enige tijd op hetzelfde project werkt dan zal hij/zij naar verloop van tijd sneller kunnen werken. Dat effect kun je inschatten en modelleren, met als gevolg dat de kosten zullen dalen per tijdseenheid. Dat noemen we het leereffect”.

“We kunnen dus tot een bepaalde hoogte binnen deze groepen generaliseren. Vervolgens aggregeren we deze aannames om kritieke momenten die ontstaan tijdens het project te identificeren. Denk aan een moment waarbij de kosten exponentieel toenemen, terwijl in de vorige periode de kostenontwikkeling vrij vlak was.” Hij veegt met zijn vinger over de bolling van de grafiek. “Deze ontwikkeling volgt een zogenaamde ‘S-Curve’”.

Een projectcontroller ver voor zijn tijd uit

“Wat we proberen te doen”, vertelt hij, “is de P&L zo goed mogelijk beheersen door risico’s te managen. Wat je hier op het scherm ziet is niet enkel een forecast, nee, benadrukte hij. Deze forecast heeft veel meer invloed. Let op!” (Ik zit op het puntje van mijn stoel inmiddels). “Wat we nu gaan proberen te doen is ons facturatieschema zo inrichten dat we eerst betaald krijgen, voordat we tegen een kritiek moment aanlopen. Zo beschermen wij de liquiditeit en voorkomen wij dat we moeten ‘voorfinancieren’”. Ik strek mijn rug en vraag: “Wat doe je als een bepaalde variabele verandert?” Hij glimlacht, fronst zijn wenkbrauwen en klikt op een ‘vervolgkeuzelijst’. “Dan pas ik het onderliggende statistische model van de formule aan, waardoor het kostenverloop meer getrouw wordt ten aanzien van de toekomst”. Hij sluit af met een zin die mij altijd is bijgebleven. “Weet je Giancarlo, ik wil geen verkapte boekhouder zijn”. Hij legde het niet uit maar ik verstond; “Ik schat liever de toekomst in, zodat we vooruit kunnen in plaats van dat we constant achteromkijken”.

De projectadministrateur in de anekdote was een absoluut genie, hij werd geroemd voor zijn vaardigheden om met zoveel variabelen rekening te kunnen houden. Geen methode is perfect, hij zal ook fouten hebben gemaakt maar het valt niet te ontkennen dat hij zijn tijd ver vooruit was.

Ceteris paribus

We zouden nu een discussie kunnen voeren over de effecten van informatie asymmetrie of moral hazard op deze statistische modellen, of andere variabelen die de effectiviteit en efficiëntie van het proces kunnen beïnvloeden. Laten we daarom uitgaan van ‘ceteris paribus’.

“De kern van het verhaal is namelijk dat door gebruik te maken van een ((niet-)statisch) statistisch model een inschatting gemaakt kan worden van de nabije toekomst. Dat is in mijn beleving de kern van Predictive Analytics. Ik zou het op een verjaardag omschrijven als de ‘Perfecte Forecast’. “

Denk hierbij aan een model dat zich aanpast aan alle veranderingen die de uitkomst beïnvloeden. Aan de hand van de historische data, het model en de variabelen kan dan een verklaring worden gegeven over de ontwikkeling van een bepaald gegeven. Dit kan de verkoop van retail producten zijn of, zoals in de anekdotes, het verloop van bouwprojecten. Deze informatie kan vervolgens gebruikt worden voor proactieve besluitvorming. ‘Gisteren’ zouden we hiervoor extreem lange en ingewikkelde ‘als’ formules bouwen in Excel. Vandaag de dag hebben we meerdere mainstream mogelijkheden zoals Python & R om informatie te extraheren uit de data.

Big data & Algoritmes

De term ‘Big Data’ heeft sinds haar ‘mainstream introductie’ een plek verworven in het vocabulaire van menig financial. De databases zijn gegroeid en tegenwoordig ‘humongous’ te noemen. Een knipoog naar MongoDB; een database techniek die enorme sets van data kan opslaan op een manier die afwijkt van de traditionele relationele-database en daarom NoSQL wordt genoemd.

Algoritmes worden steeds vaker ingezet om ‘insights’ te verkrijgen uit deze moderne vorm van olie. Neem het Facebook algoritme. Aan de hand van jouw gedrag en dat van een groot aantal mensen wordt voorspelt wat jouw interesses zijn. Hier maken adverteerders gretig gebruik van om producten aan jou te vermarkten. Een ander bekend voorbeeld is Netflix, die op basis van de series die jij kijkt een voorstel doet voor een andere serie. Zij zijn zelfs in staat om procentueel in te schatten in hoeverre dit een match zal zijn.

Predictive Analytics & Me

Er zijn een aantal verschillen met tien jaar geleden. We beschikken nu over grotere datasets, projecten zijn complexer en door cultuurverandering na de crisis wil men nog beter weten aan welke risico’s het bedrijf blootgesteld wordt. Het is tegenwoordig niet ongewoon dat partijen weglopen bij aanbestedingen omdat de risico’s onacceptabel zijn. Het gebruik van Predictive Analytics kan hierbij helpen.

“Een organisatie die besluit gebruik te maken van Predictive Analytics zal op de langere termijn baat hebben van slimme analyses, een verbeterde concurrentiepositie, beter management van risico’s en de mogelijkheid om proactief te plannen en handelen. Je verkrijgt inzichten in waardevolle patronen en de mogelijkheid om te anticiperen op trends.”

How to start?

Het verbaast me niet als ik met collega’s in gesprek ga en zij de indruk hebben dat Predictive Analytics een ‘ver-van-mijn-bed-show’ is. Het tegendeel is echter waar. Denk bijvoorbeeld aan lineaire extrapolaties om een inschatting te maken van de kosten.

  • In elke organisatie is laag-hangend-fruit. Start met een reflectie en stel jezelf de vraag; “Wat willen we weten, wat is het doel?”. Een betere sales voorspelling? Een financieel model voor het inschatten van de kosten?
  • Een tweede stap is, en dat is iedereen aan te bevelen, om in gesprek te gaan met mensen in de organisatie om te zien welke stakeholders betrokken zijn bij het vastleggen van de data. Breng in kaart welke data wordt vastgelegd. Dit is belangrijk om een ‘fit-gap’ analyse te maken ten behoeve van de optimalisatie van de informatievoorziening.
  • Vervolgens zou men moeten controleren of de gegevens die vastgelegd zijn voldoen aan de eisen; betrouwbaarheid, volledigheid, tijdigheid, vergelijkbaarheid en relevantie.
  • De volgende stap is het aanpassen van de processen zodat het bovenstaande een voldongen feit is. De stappen na het leggen van een goede basis zijn vaak contextafhankelijk. Om te starten met PA verschaft het bovenstaande echter voorlopig al voldoende werk.

En over 10 jaar?

Algoritmes zullen een nog grotere rol spelen in de toekomst. De ontwikkelingen op het gebied van ‘Robotics’ zullen elkaar versterken. Een computermodel wat aan de hand van ‘Machine-’ of ‘Deep Learning’ een eigen statistisch model creëert is een van de uitkomsten die de toekomst mogelijk in petto heeft. Dat duurt naar verwachting nog wel even.
Gelukkig kunnen wij mensen tot die tijd nog veel werk verzetten om de organisatie te verbeteren. Geef me gerust een belletje als jouw organisatie bereid is om de eerste stappen naar de toekomst te nemen.

Deze serie over creditmanagement: