AI op de CEO agenda (III): Verantwoord gebruik

Wil je als organisatie succesvol blijven? Wil je de AI-technologie effectief omarmen en er zelf mee aan de slag? Dit is hét moment om na te denken over de gevolgen van AI en de processen verantwoord op te zetten. Dit derde deel van het drieluik ‘AI op de CEO agenda’ beschouwt hoe we er met elkaar voor kunnen zorgen dat we AI verantwoord inzetten.

Het is tijd dat leiders de AI-technologie begrijpen en er actief sturing aan geven. Het heeft een enorm (waarde)potentieel, het vereist investering, en er kleven risico’s aan: AI is een onderwerp voor de CEO. In het eerste artikel van het drieluik bekeken we al de kracht van AI, de waarde die het creëert en de beperkingen die er in AI schuilen. Het tweede artikel geeft drie tips hoe leiders het onderwerp momentum geven. In dit slot van een drieluik kijken we hoe je er als organisatie er écht zelf mee aan de slag? En, hoe doe je dat op een verantwoorde manier?

De risico’s zijn echt

In de afgelopen maanden hebben we gezien wat er fout kan gaan. Er waren schandalen rondom sociale manipulatie (Cambridge Analytica), security (Facebook), systematische discriminatie (Amazon’s gezichtsherkenningstechnologie Rekognition), verkeerde behandelingsvoorschriften bij kankerpatiënten (IBM Watson), het potentiële gebruik van AI in wapensystemen (Google) en zelfs dodelijke ongevallen (Tesla en Uber). We moeten manieren vinden om de risico’s in te perken en AI ethisch in te zetten.

“We hebben gezien wat er fout kan gaan. We moeten manieren vinden om de risico’s in te perken en AI ethisch in te zetten.”

We hebben geen universele ethiek, maar verwachten het wel van AI

De historicus Herodotus (500 v. C.) was waarschijnlijk de eerste die de gedachte van een universele moraliteit ter discussie stelde met zijn uitspraak: “De Heer, dat zijn de Gewoonten.” MIT’s ‘Moral Machine’ gebruikt het bekende trolley-probleem om wereldwijd de regels te crowdsourcen voor zelfrijdende auto’s. Het laat zien hoe onze ethische normen verschillen tussen culturen en generaties. In zestig jaar hebben we voor dit probleem nog geen oplossing gevonden die voor iedereen werkt. Velen van ons beschouwen het zelfs als een deugd dat we open staan voor andere perspectieven, in een wereld waar meerdere paradigma’s over goed en kwaad naast elkaar bestaan.

Dit geldt niet voor AI. Het is de eerste keer in onze geschiedenis dat we op grote schaal een technologie beslissingen laten nemen over ons leven. Algoritmes bepalen of we een lening krijgen, of we een opleiding mogen volgen of zelfs wat te doen in levensbedreigende situaties. En we verwachten dat de AI dat doet op een rationale manier, eerlijk en consistent in verschillende situaties, regio’s en culturen. We verwachten van AI iets wat wij als mens niet kunnen.

“Het is de eerste keer in onze geschiedenis dat we op grote schaal een technologie beslissingen laten nemen over ons leven.”

Leiders zijn verantwoordelijk, niet de algoritmes

We geloven dat het voeren van het ethische debat belangrijk is, maar het zal ons niet snel antwoorden opleveren. En tegelijkertijd is het potentieel van AI zodanig groot dat we steeds sneller doorgaan met het ontwikkelen en inzetten van de technologie. Onze suggestie is dat leiders van organisaties verantwoordelijkheid nemen, en niet wachten tot de filosofen het met elkaar eens zijn. Leiders kunnen initiatief nemen om een proces in gang te zetten waarin we gezamenlijk verhelderen wat we acceptabel vinden. Vervolgens kunnen zij bouwen aan organisaties die ethisch en transparant zijn over waarom en hoe ze AI inzetten. Op deze manier kunnen leiders de reputatie van hun organisatie beschermen, werken naar lange termijn succes en meebouwen aan een maatschappij waarin iedereen wil leven. In de afgelopen maanden hebben we een aantal zichtbare voorbeelden gezien van stappen die leiders zetten om AI verantwoord in te zetten.

  • Werk samen om regels vast te stellen. Microsoft, Apple en Google hebben de overheid gevraagd regels te tellen omtrent het gebruik van AI. In Europa heeft de invoering van GDPR geleid tot verbetering van de bescherming van onze individuele rechten.  Twee correspondenten van de New York Times, (één werkend in New York en één in Londen), vonden in een experiment uit dat het een significant verschil maakt.  Maar vaak zijn meer domein-specifieke regels nodig. De Duitse Ethik Kommission für Automatisiertes Fahren is een goed voorbeeld van hoe de industrie, regelgevers, juristen, ethici en wetenschappers samen de regels voor autonoom rijden hebben vastgesteld.
  • Creëer een bedrijfscultuur van ‘Ethische AI’. Google heeft een ‘AI code of ethics’ gepubliceerd in antwoord op de werknemers-protesten over de samenwerking met de Amerikaanse geheime diensten en het leger, en er is een (interne) ‘Commissie Verantwoorde Innovatie’. Het initiatief om een externe ‘Ethics Council’ op te zetten werd, twee weken na aankondiging, weer teruggedraaid. Het zijn slechts eerste stappen en meer is nodig. Leiderschap vergt dat de beslissingen van het leiderschap consistent zijn met de ‘code of ethics’ en dat het lange termijn, gemeenschappelijk belang daadwerkelijk zwaarder weegt dan het korte termijn eigenbelang. Verder is het essentieel dat AI teams zo divers mogelijk zijn in hun samenstelling – en die diversiteit ook echt omarmen. We zullen technische en niet-technische mensen moeten opleiden hoe samen om te gaan met ethische dilemma’s. En ook beloning en beoordeling van werknemers zal consistent moeten zijn.
  • Voel algoritmes aan de tand. Leiders hebben een praktisch begrip van de technologie nodig. Het loont om na te kunnen gaan hoe de ‘bias’ wordt verwijderd uit de trainingsdata, hoe de impact van de algoritmes wordt getest en gemonitord, en welke veiligheidsmaatregelen genomen worden om gebruikers te beschermen tegen ongewenste consequenties.

“De Franse overheid deelt alle algoritmes met het publiek zodat de maatschappij ze kan controleren. Nederland is terughoudender, terwijl het een basisrecht is.”

  • Wees transparant. De Franse overheid heeft aangekondigd dat al haar algoritmes open zullen zijn voor het publiek, opdat de maatschappij kan controleren of ze naar behoren functioneren. De Nederlandse overheid heeft een iets terughoudender standpunt, omdat algemene openheid op praktische bezwaren stuit. Maar het is een basisrecht dat gebruikers snappen wat de AI’s beslissen of doen. En het is een essentieel element van effectief toezicht dat algoritmes door neutrale derde partijen gecontroleerd worden op hun werking en impact. Gemeente Amsterdam kondigde recent aan KPMG hiervoor aan te stellen.
  • Neem verantwoordelijkheid voor de (on)bedoelde consequenties. Als gezichtsherkenning systematisch discrimineert, is de technologie nog niet goed genoeg om door overheden te worden ingezet voor toezicht en wetshandhaving. En dan moeten we het daar dus niet gebruiken. De aandeelhouders van Amazon hebben aan de leiding van het bedrijf gevraagd om ‘Rekognition’ niet meer aan te bieden aan de overheid, tot nu toe met beperkt resultaat. Maar het bedrijf heeft wel de sollicitatie-assistent uitgezet, nadat het hen niet was gelukt om de systematische discriminatie van vrouwen uit het algoritme te verwijderen.

Ieder haar rol

Het is duidelijk dat overheid, aandeelhouders, activisten, journalisten en soms zelfs de medewerkers allemaal hun rol zullen moeten spelen om ervoor te zorgen dat we AI inzetten op een manier die mensheid dient. En het is van belang, en bemoedigend om te zien, dat leiders van grote (tech)organisaties steeds meer hun rol nemen in dit proces – met oog voor het collectieve, lange termijn belang en een win-win mindset.

Volg de driedaagse innovatie bootcamp bij THNK


Over Patrick Leenheers en Mark Vernooij
Patrick is Director bij THNK School of Creative Leadership, verantwoordelijk voor innovatie programma’s voor corporate cliënten. Hij werkt wereldwijd in uiteenlopende sectoren (e-commerce, logistiek, energie, retail, pharma, finance) aan (digitale) innovatie projecten, met focus op Analytics en AI Hij werkt daarin samen met Thought Leaders van Berkeley University of California, Stanford en Oxford. Voordat hij zich aansloot bij THNK leidde hij innovatie programma’s bij Vodafone en Telstra (Sydney). Hij heeft een achtergrond als strategy-consultant bij AT Kearney en studeerde Management van Technologische Innovatie in Groningen.

Mark richt zich als Partner bij THNK op op maat gemaakte programma’s voor organisaties op het gebied van innovatie, digitale transformatie en opkomende technologieën. Ook is hij verantwoordelijk voor de uitbreidingsinspanningen in het Midden-Oosten. Mark is docent geweest op verschillende scholen – waaronder Berkeley, Columbia, Stanford en Wharton – en is regelmatig spreker en facilitator op evenementen en conferenties, zoals het World Economic Forum waar hij ook lid is van het netwerk van deskundigen op het gebied van innovatie.


Workshop THNK: Innovatie Bootcamp
Tijdens de driedaagse Innovatie Bootcamp leer je van de topdocenten van THNK School of Creative Leadership een scala aan methoden om innovatie binnen jouw organisatie vorm te geven. Tegelijkertijd werk je aan jouw rol als creatief leider. Wat voor type leider ben je? Waar ligt jouw kracht? Hoe krijg je mensen mee? Het Creative Leadership Assessment voorafgaand aan de bootcamp geeft unieke inzichten en vormt het startpunt van het programma.

 

Bekijk het gehele programma van de innovatie bootcamp