AI-robot groot risico voor financials vanwege foute bronnen

Pas op voor antwoorden van AI-zoekmachines, want die zijn vaak fout, overdreven of verouderd. Daarover klinken steeds meer waarschuwingen.
Is dit niet al bekend?
Ja, dat zou je zeggen. Toch klinkt de waarschuwing opnieuw en met recht. Steeds meer kennisberoepen maken gebruik van zoekmachines van AI. De afhankelikjheid van de informatie van dit soort programma’s neemt toe en dat geldt ook voor de risico’s.
Geldt dit voor alle AI-zoekmachines?
Met je gezonde verstand zou je zeggen van wel, maar de recente waarschuwing betreft Google AI. De Consumentenbond testte Google AI met honderd complexe vragen. In zeventig gevallen verscheen een AI-overzicht. Twintig daarvan waren volgens de Consumentenbond te commercieel, te stellig, ongenuanceerd of achterhaald.
Trappen financials in foute antwoorden van AI?
In hoeverre de financial alert is, is onbekend. Professioneel gebruik voor waarheidsvinding is echter een groot risico, omdat een financial de waarheid niet altijd herkent en informatie niet altijd op waarde kan schatten. Soms hebben financials ook niet paraat hoe foute informatie te herkennen. Maar onbekend is in hoeverre dit ook werkelijk tot fouten leidt.
Hoe riskant is dit?
Behoorlijk zou je zeggen. Fiscaliteit vraagt om precisie, actualiteit en context. Een te stellig of verouderd AI-antwoord kan direct leiden tot verkeerde keuzes, risico’s in de aangiftepraktijk of onnodige discussie met cliënten. Daarom is de herkomst van informatie cruciaal.. Nextens, een specialist in fiscale software, zegt dat financials onnodig risico lopen als ze vertrouwen op willekeurige webbronnen of generieke AI-modellen.
Wat zegt AI hier zelf over?
We hebben de vraag af AI-zoekmachines foute antwoorden geven voorgelegd aan Chat GPT. Die zegt: “Ja, dat klopt.” Ongevraagd brengt ChatGPT ook de risico’s van AI-zoekmachines in kaart voor financials en de bedrijven waar ze werken:
- Onjuiste informatie → verkeerde beslissingen (bv. verkeerde belastingbehandeling, foute waardering)
- Compliance-risico’s → bijvoorbeeld in strijd met regelgeving zoals MiFID II, Wft, IFRS, Basel
- Reputatieschade → verlies van vertrouwen bij klanten of toezichthouders
- Fiduciaire plicht → als adviseur ben je wettelijk/verantwoordelijk verplicht het belang van de cliënt voorop te zetten
Zegt Chat GPT hoe financials moeten omgaan met AI-informatie
Ja, die geeft een uitvoerig antwoord. Verifieer altijd je informatie bij officiële bronnen, zoals DNB, AFM, ECB, Belastingdienst of Kamer van Koophandel. Of put uit erkende databases, zoals van Reuters, Bloomberg, S&P Capital IQ, Graydon etc. Raadpleeg compliance officers of juridische teams binnen de organisatie. Zet AI-informatie uitsluitend in bij data-analyse of tekstsamenvatting of gebruik AI als sparringpartner voor ideeën of uitleg van concepten.
Vindt AI zichzelf ook een leugenaar?
Dat vindt ChatGPT zichzelf inderdaad. Het antwoord van ChatGPT: “Het kán gebeuren dat ik onbetrouwbare informatie geef, ook al is dat nooit de bedoeling.” Hij geeft de schuld aan de bronnen waarop hij zich baseert en die soms onbetrouwbaar zijn. Ook de financial krijgt een veeg uit de pan: “Als ik te weinig informatie krijg of de vraag dubbelzinnig is, moet ik “raden” wat je bedoelt. In vakgebieden zoals recht of financiën kan dat snel tot misleiding leiden — ook al is dat onbedoeld.”