Pega lanceert Ethical Bias Check voor AIs

Nieuwe functie helpt organisaties om AI op verantwoorde manier toe te passen.

Cloudsoftwareleverancier Pegasystems lanceert een nieuwe functionaliteit: Ethical Bias Check. Hiermee kunnen organisaties eventuele vooroordelen en discriminatie (bias) in AI-gestuurde customer engagement activiteiten eruit filteren. De tool wijst op alle kanalen op mogelijk discriminerende aanbiedingen en berichten gegenereerd door AI, voordat ze klant bereiken.

Mits op de juiste wijze toegepast, helpt AI organisaties meer waarde aan iedere klantinteractie toe te voegen. Klanten blijven zo loyaal aan een merk en dat leidt uiteindelijk tot hogere winstgevendheid. Toch kunnen AI-modellen onbewust vooroordelen aanleren op basis van bijvoorbeeld leeftijd, etniciteit of geslacht. Wordt dit niet opgemerkt, dan kan het leiden tot pijnlijke, discriminerende praktijken zoals het verstrekken van minder leningen, verzekeringspolissen of productkortingen. In de huidige onvoorspelbare economie, kunnen bedrijven het niet riskeren om het vertrouwen van hun klanten te verliezen omdat ze door de pandemie al kwetsbaarder zijn.

“AI wordt inmiddels in bijna elk aspect van klantbetrokkenheid ingezet. Verschillende spraakmakende incidenten hebben organisaties bewuster gemaakt van het risico op onbedoelde discriminatie en het pijnlijke effect ervan op klanten,” aldus Dr. Rob Walker, vice president decisioning & analytics, Pegasystems. “Met de Ethical Bias Check geven we organisaties meer mogelijkheden om de kans op bias in AI-strategieën te verminderen voor betere interactie tussen bedrijven en klanten en hogere customer lifetime value.”

(bron: Pegasystems)