Outvie winteractie: Kies uit Diner Cadeau bon of een VVV-cadeaukaart t.w.v. €50,-* Bekijk de actie.

Impact assessments van algoritmes: het waarom, wat en hoe?

Marianne Schoenmakers, senior consultant responsible tech | Considerati

Marianne Schoenmakers, senior consultant responsible tech | Considerati

 Marianne Schoenmakers van Considerati vertelt over de meerwaarde, mogelijkheden en uitdagingen van impact assessments die zich richten op een verantwoorde inzet van algoritmes. Er is steeds meer aandacht voor de risico’s en ethische issues rond kunstmatige intelligentie.

 

“Er is een Europese verordening voor artificiële intelligentie (AI) op komst, waarmee de Europese Commissie een wereldwijde standaard wil neerzetten voor innovatieve toepassingen die tegelijkertijd de grondrechten van burgers waarborgen. De wetgeving versterkt de aandacht voor de risico’s van het gebruik van algoritmes: niet alleen in Brussel, maar ook in Nederland is er veel politieke en maatschappelijke discussie over het tegengaan van negatieve effecten van kunstmatige intelligentie”, signaleert Marianne Schoenmakers, senior consultant responsible tech bij Considerati en een van de sprekers tijdens het Dataprotectie & Privacy Congres van Outvie. Schoenmakers is expert in vraagstukken op het snijvlak van technologie, innovatie en maatschappij, en ze heeft ervaring met digitale ethiek, onderzoek en strategisch advies. Ze studeerde politicologie en Interaction Design en werkte onder meer in diverse functies bij Rabobank voordat ze de overstap maakte naar adviesbureau Considerati.

 

“Vanwege de juridische en publieke druk om risico’s te adresseren staat een groeiend aantal organisaties voor de opgave om na te denken over de mogelijke impact van algoritmes”, zegt Schoenmakers. “Er is nú al voorbereiding nodig om de verantwoorde inzet van algoritmes in te bedden in de organisatie. Het issue is niet meer simpelweg: mag het juridisch? Minstens zo belangrijk is de vraag: is het wenselijk, vanuit wat we als organisatie en samenleving willen?”

 

Het Impact Assessment Mensenrechten en Algoritmes als verplichting

De Universiteit Utrecht heeft in opdracht van het ministerie van Binnenlandse Zaken en Koninkrijksrelaties het Impact Assessment voor Mensenrechten bij de inzet van Algoritmes (IAMA) ontwikkeld. Met het instrument kan een organisatie een genuanceerde discussie entameren over de afwegingen om een algoritmische toepassing te gaan ontwikkelen, of juist niet. Het IAMA ondersteunt organisaties vervolgens ook om op een verantwoorde manier aan de slag te gaan met de gekozen ontwikkeling en de implementatie ervan.

 

“De Tweede Kamer heeft in juni 2022 een motie aangenomen om het IAMA verplicht te stellen voor overheden. Maar het assessment is ook bruikbaar voor bedrijven”, vertelt Schoenmakers. “De toekomstige verplichting betekent dat er steeds meer druk komt op organisaties om een impact assessment uit te voeren voordat algoritmes worden toegepast om beslissingen te nemen over mensen.”

 

Naast het IAMA zijn er ook andere methodieken voor impact assessments van algoritmes. Considerati ontwikkelde in samenwerking met ECP Platform voor de InformatieSamenleving het AI Impact Assessment, dat publieke en private organisaties kunnen gebruiken om na te denken over verschillende risico’s. “Zo lang het IAMA nog niet verplicht is, kunnen organisaties zelf kiezen welke tools ze gebruiken. Het gaat erom dat je ethische afwegingen praktisch toepasbaar maakt voor jouw specifieke organisatie en de synergie zoekt met instrumenten zoals data protection impact assessments (DPIA’s).” Een impact assessment van algoritmes heeft weliswaar raakvlakken met een DPIA, maar kijkt verder dan de verwerking van persoonsgegevens en de regels van de Algemene verordening gegevensbescherming (AVG).

 

Twee cruciale stappen in impact assessments van algoritmes

Schoenmakers ziet bestuurlijke bewustwording als de essentiële eerste stap om effectief gebruik te maken van impact assessments van algoritmes. “De organisatie moet het belang inzien van de verantwoorde inzet van algoritmes en AI. De toekomstige wet- en regelgeving is daarbij een drijvende kracht. Maar er zijn ook andere manieren om het vraagstuk te agenderen. Denk aan de imagoschade die een bedrijf ondervindt als media verslag doen van een incident.”

 

De vervolgstap is volgens Schoenmakers om impact assessments een structurele plek te geven in de werkprocessen van de organisatie. “In welke fase van de productontwikkeling voer je een assessment uit? In de eerste ontwerpfase, of vlak voor livegang? Welke collega’s en teams zijn betrokken bij de uitvoering van het assessment? Hoe zorg je dat verschillende expertises zijn aangehaakt, zodat alle relevante juridische, beleidsmatige en technische aspecten worden meegewogen? Op welke manier is er integratie mogelijk met processen die al zijn ingericht voor de AVG?”

 

Succesfactoren voor impact assessments

Wat zijn de succesfactoren voor professionals die te maken krijgen met impact assessments van algoritmes? Schoenmakers benadrukt dat er meer voor nodig is dan een juridische blik. “Het lijkt misschien logisch dat een impact assessment op het bord van een jurist of data protection officer terechtkomt. Maar een goede uitvoering start met een dialoog tussen álle professionals die zijn betrokken bij de ontwikkeling en toepassing van algoritmes. Vervolgens is er ook afstemming nodig met andere tooling, zoals DPIA’s. Tot slot moet de werkwijze worden geïntegreerd in de werkprocessen. Voor veel organisaties is dat echt een zoektocht, waarbij je wilt voorkomen dat de compliancedruk zo groot wordt dat teams afhaken.”

 

De bedoeling van het IAMA is om alle relevante aandachtspunten bij de inzet van algoritmes tijdig aan bod te laten komen. De juiste timing is daarbij cruciaal, zegt Schoenmakers. “Aan de ene kant wil je een assessment zo vroeg mogelijk aanhaken op het ontwikkelproces. Maar je moet wel eerst weten wat de beoogde toepassing is voordat een assessment zinvol is. Aan de andere kant wil je niet vlak voor een lancering pas gaan toetsen, en dan op het laatste moment – of zelfs achteraf – met showstoppers komen. Daarom is het ook zo belangrijk om de dialoog te voeren met verschillende disciplines – van technologie en productontwikkeling tot aan beleid en management. Zo kan je samen verkennen wat de mogelijke effecten van een algoritme voor de praktijk betekenen, en je goed voorbereiden om risico’s te verminderen.”

 

Meer weten over het verantwoorde gebruik van algoritmes en kunstmatige intelligentie? Tijdens het Dataprotectie & Privacy Congres op 6 en 7 oktober in Amsterdam geven Marianne Schoenmakers en andere experts antwoord op uw vragen. Zo vertelt Bart Schermer van Considerati over de Europese richtlijn voor Artificial Intelligence. Kijk voor meer informatie en het volledige programma op de website van Outvie.

Download de brochure

Share

Outvie logo