Outvie zomeractie: Kies uit een Winkelcheque of een Bol.com cadeaubon t.w.v. €50,-* Bekijk de actie.

Ethiek verankeren in de organisatie voor een verantwoorde inzet van Artificial Intelligence

Responsible AI gaat veel verder dan een checklist of impact assessment: het vereist een structurele inbedding van ethische beginselen in de organisatie, vertelt Joris Krijger, AI & Ethics specialist bij de Volksbank.

 

Optimaliseren en versnellen

Organisaties zijn zich in toenemende mate bewust van de mogelijkheden om de bedrijfsvoering te verbeteren met behulp van Artificial Intelligence (AI). Zo heeft kunstmatige intelligentie de potentie om bijvoorbeeld organisatieprocessen te optimaliseren en de interne besluitvorming te versnellen. Tegelijkertijd is de verantwoorde inzet van algoritmes steeds meer in beeld in maatschappelijke en politieke discussies en is het een onderwerp van gesprek binnen organisaties. Een ethische omgang met kunstmatige intelligentie belooft daardoor een voorwaarde te worden voor een effectieve en succesvolle toepassing van AI.

 

“Er staat Europese wetgeving op stapel die tussen nu en drie jaar van kracht wordt en strikte eisen stelt aan risicovolle toepassingen van AI”, vertelt Joris Krijger, specialist in kunstmatige intelligentie en ethiek bij de Volksbank en gastdocent van de praktijktraining Responsible AI. “Organisaties moeten straks aan strengere regels voldoen naarmate de risico’s van de toepassingen groter zijn. Daar komt bij dat er steeds meer nieuwe oplossingen op de markt zijn die gebruik maken van big data en algoritmes. De toepassing van AI is daarom ook niet iets van één afdeling, maar behoort tot de kern van de business en de organisatiestrategie.”

 

Inbedden en verankeren

“Als we het hebben over data-ethiek en de ethische omgang met nieuwe technologie dan gaat het vaak om de technologie en het gebruik van data. Maar de organisatorische inbedding en de structurele verankering van ethische checks en waarborgen zijn minstens zo belangrijk”, zegt Krijger over de uitdagingen voor responsible AI. “Je voert bijvoorbeeld het interne gesprek over proportionaliteit, maar er is ook een structurele integratie in het ontwerpproces nodig. Je wilt niet alleen maar achteraf toetsen, maar ethische uitgangspunten in elke stap van het innovatieproces inregelen. Door daarvoor processen op te zetten en manieren van evalueren vast te leggen, kan je ethische principes verankeren in de organisatie en duidelijk maken wie daarbij welke verantwoordelijkheid heeft.”

 

Praktijktraining Responsible AI

Krijger werkt aan de Erasmus Universiteit Rotterdam aan een proefschrift over de implementatie en operationalisatie van ethische richtlijnen voor de ontwikkeling van kunstmatige intelligentie. Daarnaast is hij actief als onder andere lid van de adviesraad van het Frankfurt Big Data Lab en van het bestuur van The Foundation for Best Practices in Machine Learning. Eerder stond hij aan de basis van de tech start-up Condi Food. Krijger is nu een van de docenten van de driedaagse praktijktraining Responsible AI. In de training komen actuele onderwerpen aan bod zoals het belang van transparantie bij algoritmes, de omgang met ethische dilemma’s en de mogelijkheden om de kracht van algoritmes te gebruiken om de bedrijfsvoering slimmer, effectiever en productiever te maken. Er is ook aandacht voor de toekomstige Europese richtlijnen voor verantwoorde AI, een thema dat ook wordt behandeld in de Outvie-Actualiteitenreeks Next Step Privacy Compliance.

 

“Het wetsvoorstel over richtlijnen voor AI van de Europese Commissie gaat uit van een risk based approach, en maakt een onderscheid tussen verschillende soorten risico’s van verschillende toepassingen van kunstmatige intelligentie”, vertelt Krijger. “Het is heel belangrijk dat organisaties zich bewust zijn van de risico’s én van de gevolgen voor de governance. Ethiek gaat om veel meer dan een abstracte discussie over principes, normen en waarden: je moet de beginselen ook implementeren en de interne processen daarop toetsen. Dat vereist een doordachte governance structuur en een uitgebreide toets van innovaties. En dat betekent ook dat je verschillende teams en expertises samenbrengt om de aandacht voor ethiek te borgen.”

 

Succesvolle AI-projecten

De Volksbank heeft de aandacht voor verantwoorde AI ondergebracht bij de afdeling Risk. Krijger: “De thematiek sluit net niet genoeg aan op compliance en modelvalidatie. Daarom zijn we een nieuw team gestart dat zich specifiek richt op de ethische aspecten van data science: het ethics office. Ik werk direct samen met onze developers om in alle fasen van het innovatieproces de risico’s vroegtijdig zichtbaar te maken. Dat scheelt ontwikkelaars tijd voor assessments, en maakt het mogelijk om een ontwerp zo nodig terug te verwijzen naar de tekentafel. In overleg met het ethisch comité stellen we uiteindelijk de mitigerende maatregelen vast zodat de werkwijze wordt geformaliseerd – zonder dat daarmee een rem wordt gezet op de mogelijkheden voor de business.”

 

Een succesvol AI-project heeft in de visie van Krijger alle relevante ethische checks doorlopen. “Voldoet het technische model aan de ethische en juridische standaards én aan de vragen van business? En hebben we de afwegingen die daarbij zijn gemaakt zorgvuldig gedocumenteerd, zodat we een goed antwoord hebben op eventuele vragen over de gekozen oplossingen?”, vat Krijger de opgave samen.

Campagnebeeld RAI - Responsible AI

Voorbij assessments en checklists

Ethics by design legt een sterke basis voor een verantwoord ontwikkelproces, waarbij ook de vervolgstappen doorlopend het nodige denkwerk vereisen, benadrukt Krijger. “Bijvoorbeeld: we willen dat kredietacceptatiemodellen eerlijk zijn, dat wil zeggen dat alle groepen op dezelfde manier worden behandeld. Wanneer je modellen hierop gaat aanpassen dan wordt de voorspelling minder goed, waardoor je risico’s aangaat die je bij andere modellen zou uitsluiten. Ook nauwkeurigheid en uitlegbaarheid kunnen op gespannen voet staan. Kan je de werking van een goed presterend model nog uitleggen? De waaromvraag is dan heel belangrijk, en dat vereist een open discussie over de dilemma’s, afwegingen en keuzes – en een consistente lijn die helder wordt toegelicht.”

 

Impact assessments voor AI

Impact assessments voor verantwoorde AI zijn een logisch startpunt voor organisaties die toewerken naar ethische richtlijnen. “Responsible AI kan je niet regelen door ontwikkelaars even een checklist te laten invullen”, benadrukt Krijger. “Het vraagt iets van de hele organisatie. De inbedding en integratie van ethiek in de structuren en processen van de organisatie is een lange weg. Je hebt daarvoor een team met kennis van ethiek, risk management én AI nodig.”

 

“Veel assessments zijn sterk gefocust op techniek en zijn niet voor elke toepassing relevant”, voegt Krijger toe. “Stel dat je algoritmes wilt gaan inzetten om automatisch te bepalen of klanten een brief of een e-mail ontvangen. Een vraag uit een assessment kan dan zijn: hoe zijn waarborgen voor human rights meegenomen? Een beter startpunt is om de vraag te stellen: wat moet je in organisatie aanpassen en inrichten om ethiek een goede plek te geven, om grip te houden over dataprocessen en om de relevante expertises aan te haken? Als je te veel kijkt naar technologieën en toepassingen dan sla je deze fundamentele vragen ten onrechte over.”

 

Werk maken van de succesvolle en verantwoorde toepassing van AI? Volg de driedaagse praktijktraining Responsible AI en ga naar huis met een direct toepasbaar actieplan voor een AI-project.

Download de brochure Responsible AI

Share

Outvie logo