Ethische AI in het bedrijfsleven

Transparantie van het algoritme moet in de toolkit van ieder bedrijf zitten die voorop wil lopen met de toepassing van kunstmatige intelligentie. Bedrijven moeten toepassingen ontwikkelen die een geschikte toelichting geven op de beslissingen gemaakt door het algoritme. Duidelijkheid en controle zijn tenslotte belangrijke aspecten voor een betrouwbare gebruikerservaring. Dat betoogt Bernardo F. Nunes, Head of Science bij Growth Tribe.

Wanneer een machine beter in staat is in het uitvoeren van een voorspellende taak, spreken we over het bereiken van een vorm van kunstmatige intelligentie. ‘Beter’ betekent hier accurater, sneller en goedkoper dan waar een mens toe in staat is. Vanwege de toenemende betaalbare combinatie van krachtige computersystemen, beschikbaarheid van data, en algoritmisch vermogen, kom je dit fenomeen steeds vaker tegen in het bedrijfsleven. De toename van het aantal AI-toepassingen biedt kansen én uitdagingen.

Right to explanation

De enorme toename van AI de afgelopen drie jaar heeft niet alleen de interesse van het bedrijfsleven gewekt, ook overheden zitten niet stil. Zo heeft de Europese Commissie recent haar ethische richtlijnen voor kunstmatige intelligentie gepresenteerd. Om te zorgen dat de ethische richtlijnen effectief geïmplementeerd kunnen worden, is een pilot-fase gelanceerd. ‘’Deze strategie is gericht op het opschalen van publieke en private investeringen tot ten minste 20 miljard euro per jaar over de komende 10 jaar, het beschikbaar maken van een grotere hoeveelheid data, het bevorderen van talent en het verzekeren van vertrouwen.’’

”De enorme toename van AI de afgelopen drie jaar heeft niet alleen de interesse van het bedrijfsleven gewekt, ook overheden zitten niet stil.”

Een ander voorbeeld van het groeiende bewustzijn van de overheid met betrekking tot kunstmatige intelligentie valt op de maken uit het European Data Privacy Regulation, de zogenoemde GDPR. Deze omschrijft dat bedrijven consumenten moeten inlichten over hoe hun data gebruikt wordt, waaronder verstaan wordt ‘’het bestaan van geautomatiseerde keuze selectie en belangrijke informatie over de betreffende logica’’. Deze clausule is benoemd als ‘right to explanation’ in de GDPR-regelgeving welke in Europa afgelopen jaar is afgedwongen.

Black Boxes

Wanneer een bank middels een risicomodel geen krediet aan een klant verstrekt en tot dit besluit komt zonder tussenkomst van een persoon, moet de bank aan de klant kunnen verklaren hoe het betreffende algoritme tot deze beslissing is gekomen. Dit levert echter problemen op gezien het feit dat sommigen van de best presterende voorspellende modellen in kunstmatige intelligentie werken als ‘black boxes’.

Neem bijvoorbeeld een neuro-netwerk algoritme. Deze legt geen expliciete associatie tussen de uitkomst van het ‘krediet goedkeuring proces’ (het wel of niet goedkeuren van de aanvraag van krediet) en gegevens over de aanvrager zoals; inkomen, socio-demografische gegevens en krediethistorie. De kracht van het neuro-netwerk zit in de verschillende lagen die meerdere activerende functies bevatten (neuronen). In elke laag, ontdekt het netwerk een nieuwe weergave van de input. Begrijpen hoe deze activerende functies werken is lastig gezien het feit dat deze abstracte eenheden moeilijk samengevat kunnen worden op een manier zo dat mensen het makkelijk kunnen begrijpen.

Is het noodzakelijk om algoritmes begrijpelijk te maken voor burgers die er gebruik van maken en van wie de levens worden beïnvloed door de algoritmes? Allereerst wordt de meeste kunstmatige intelligentie die vandaag de dag gebruikt wordt getraind door het gebruik van historische data die door gebruikers wordt gegenereerd. Deze data wordt voornamelijk opgebouwd door digitale sporen die achter worden gelaten in de vorm van online aankopen, foto’s en social media gebruik.

“Doordat deze algoritmes ontwikkeld zijn om menselijke voorkeuren te spiegelen, propageren ze vooroordelen bij mensen in het maken van beslissingen”

Hieruit volgt de volgende vraag: in hoeverre moeten gebruikers worden geïnformeerd over hoe algoritmes werken? De moderne maatschappij heeft al eerder een dergelijke technologische revolutie meegemaakt. Toen voertuigen als auto’s en motoren net werden verkocht op grotere schaal, ontstond er ook een discussie of consumenten dienden te begrijpen hoe een motor functioneert. Op het moment dat er complexere financiële activa als derivaten en beleggingsfondsen aangeboden werden aan het grote publiek, begonnen regelgevende instanties zich af te vragen of mensen eerst zouden moeten kunnen aantonen dat ze financieel onderlegd waren voordat ze dergelijke contracten aangingen.

Vandaag de dag hebben we overal online tools die aanbevelingen aan gebruikers doen. Om er een paar te noemen: Netflix, Facebook, Linkedin, Spotify en Youtube. Deze gebruiken een soort ‘gemeenschappelijk filtering’ model welke gevoed wordt door gebruikersdata om persoonlijke content aan te kunnen bevelen en het verloop van klanten te voorkomen. Deze aanbevelingen zouden tegelijkertijd huidige overtuigingen en meningen kunnen versterken, waardoor mensen in een persoonlijke bubbel geraken. Doordat deze algoritmes ontwikkeld zijn om menselijke voorkeuren te spiegelen, propageren ze vooroordelen bij mensen in het maken van beslissingen. Zo zagen we ook bij de controverse rondom Amazons op AI-gebaseerde HR-tool die bevooroordeeld bleek richting vrouwelijke kandidaten.

Eerlijke data-analyse en automatisering

Het definiëren van eerlijke data-analyse en automatisering is niet eenvoudig. Neem bijvoorbeeld Google’s PAIR (People and AI Research), deze heeft recent zijn What-If-diagnostiek gelanceerd – een codevrije tool voor automatisch analyserende modellen. De tool sorteert data op een andere eerlijke wijze, gebaseerd op berekende maten zoals gelijke kansen, demografische gelijkheid, en bijvoorbeeld gelijke nauwkeurigheid. Toch ben je er hier als bedrijf nog niet mee.

Bestuurders en eindverantwoordelijken moeten definiëren welk soort eerlijkheid ze willen toepassen. Ze doen dit op basis van het beleid van het bedrijf in kwestie. Als logisch gevolg hiervan hebben consultancybureaus (zoals Accenture, McKinsey en PwC) recent richtlijnen opgesteld om zich te kunnen oriënteren op klanten. Ze willen klanten laten zien hoe te profiteren van de kansen die zich voordoen bij het gebruik van kunstmatige intelligentie en automatie, daarbij de ethische implicaties niet uit het oog verliezend. Dit noemen we verantwoordelijke kunstmatige intelligentie. De reputatie van het merk, maar ook van de medewerkers, kan negatief beïnvloed worden door wanbeleid. Zelfs als dit niet de opzet is.

” Steeds meer recruiters en advocaten mengen zich in deze discussie op een zeer geïnformeerde manier, en dat is goed nieuws.”

Toolkit voor ieder bedrijf

Gelukkig, er is steeds meer aandacht voor de eerlijkheid en interpreteerbaarheid van kunstmatige intelligentie. Steeds meer recruiters en advocaten mengen zich in deze discussie op een zeer geïnformeerde manier, en dat is goed nieuws. Maar, we zijn er nog niet. Transparantie van het algoritme moet in de toolkit van ieder bedrijf zitten die voorop wil lopen met de toepassing van kunstmatige intelligentie. Waar te beginnen? Bewustzijn is een goed begin en daarom deel ik graag de top vijf ethische problemen die wij bij Growth Tribe tegenkomen. Weet wat de meest voorkomende ethische problemen zijn als het gaat om AI en zakelijke applicaties en bereid je daar als organisatie op voor.


Bernardo Nunes is Head of Data Science bij Growth Tribe, ‘Europe’s First Growth Hacking Academy’. Met een team van datawetenschappers trainde Growth Tribe al meer dan 8500 professionals voor klanten waaronder ING, Transavia, Catawiki, TomTom, Booking.com en IBM. Op 19 & 20 september 2019 begeleidt Bernando de masterclass AI voor Managers.

Bekijk het programma