Outvie zomeractie: Kies uit een Winkelcheque of een Bol.com cadeaubon t.w.v. €50,-* Bekijk de actie.

AI-verordening: de impact nu en de ontwikkelingen straks

Picture of Bart Schermer, partner | Considerati

Bart Schermer, partner | Considerati

Vriend en vijand zijn het erover eens dat Artificial Intelligence (AI) een scala aan nieuwe kansen én risico’s creëert. Bart Schermer van Considerati vertelt over de actuele vraagstukken voor organisaties die AI effectief en verantwoord willen inzetten. 

 

De toepassing van AI, algoritmes en machine learning heeft recent een enorme vlucht genomen. De doorbraak van zogenoemde “generatieve AI” betekent dat kunstmatige intelligentie in steeds meer alledaagse producten is verwerkt en dat we als consumenten direct communiceren en werken met AI-systemen. 

 

“De grote vraag is wat er precies in onze samenleving verandert als gevolg van de opmars van generatieve AI. Hoe herkennen we deepfakes? Hoe kunnen we vaststellen of een tekst is gemaakt door ChatGPT of een foto door Lensa?”, zegt Bart Schermer. Hij is partner van Considerati en hoogleraar aan de Universiteit Leiden en verzorgt een keynote tijdens de conferentie Artificial Intelligence: Impact & Update. “Er zijn al zorgen over de gevolgen van filterbubbels, het verschijnsel dat een website of zoekmachine content laat zien die is afgestemd op eerder online gedrag. Als de ene persoon iets anders op een website ziet dan de andere, dan verandert het gesprek dat we met elkaar kunnen voeren.” 

 

De functies van de AI-verordening 

De toekomstige AI-verordening van de Europese Unie zal slechts een deel van de problematiek oplossen, verwacht Schermer. De verordening stelt eisen aan het bouwen én het gebruiken van AI-systemen. De concept Act onderscheidt verboden toepassingen en systemen met een hoog en een laag risico voor mens en maatschappij. Voor de ontwikkeling en toepassing van AI-systemen gelden straks strenge eisen, bijvoorbeeld als het gaat om het voorkomen van discriminatie en om de documentatie over het technische design. “De transparantieverplichtingen uit de AI Act betekenen bijvoorbeeld dat er bij deepfakes wordt vermeld dat de beelden zijn gemaakt door technologische manipulatie. Maar het is onwaarschijnlijk dat iemand met kwade bedoelingen zich aan deze verplichtingen houdt.” 

 

Schermer wijst ook op een meer fundamenteel manco van de AI Act. “De verordening heeft een tweeledige functie. De eerste is normatief. Er worden een aantal toepassingen verboden (in artikel 5) en aangemerkt als risicovol (in artikel 6). Daarnaast heeft de wetgeving een marktordenende functie. Ontwikkelaars moeten voldoen aan een aantal veiligheidseisen voordat het product op de markt wordt gebracht. Maar de thema’s waarover nu veel zorgen zijn, gaan niet zozeer over de veiligheid en betrouwbaarheid van het systeem. Het probleem zit vooral in de praktische toepassing. Stel dat je ChatGPT een opruiende tekst laat maken. De AI Act geeft geen antwoord op dergelijke consequenties.” 

 

Maatschappelijke impact van AI 

Er is volgens Schermer een open discussie nodig over de maatschappelijke impact van AI. “Het toezicht krijgt steeds meer vorm: de Nederlandse Algoritme Autoriteit wordt ondergebracht bij de Autoriteit Persoonsgegevens. Maar we zouden al aan de voorkant de discussie moeten voeren over de gewenste regulering van het gebruik van AI. Laten we de markt vrij, of vinden we dat AI-systemen alleen op bepaalde manieren mogen worden gebruikt? Zien we het maken van teksten met ChatGPT als een vorm van vrijheid van meningsuiting, of willen we excessen verbieden? De politieke discussie over dit soort vraagstukken begint nu pas, terwijl de technische ontwikkelingen rond synthetische media en deepfakes al ver zijn gevorderd.”  

 

Schermer geeft het voorbeeld van de zogenoemde DAN-mode van ChatGPT. “De ontwikkelaars van ChatGPT, OpenAI, hebben een zekere mate van politieke correctheid ingebouwd. Je kunt de tool bijvoorbeeld geen lofzang op Donald Trump laten schrijven. Maar fans van de app hebben een manier gevonden om de ingebouwde restricties te omzeilen. In de Do Anything Now-modus kan je de chatbot allerlei schadelijke content laten maken, zoals verregaande complottheorieën en malware. Daarmee is ChatGPT een krachtig instrument geworden om de samenleving te ontwrichten.” 

 

Nadenken over de consequenties van AI 

Wat staat organisaties te doen nu er zoveel kansrijke én risicovolle AI-toepassingen mogelijk zijn? “Als je een algoritme ontwikkelt of een model maakt, dan moet je goed nadenken over de mogelijke consequenties”, aldus Schermer. “De Impact Assessment voor Mensenrechten bij de inzet van Algoritmes (IAMA) geeft handvatten om al vroegtijdig stil te staan bij de gevolgen van AI op klanten, burgers en de samenleving. De IAMA is primair ontwikkeld voor de overheid. Maar het instrument is ook bruikbaar voor andere organisaties die gestructureerd willen nadenken over de rechten die door algoritmes geraakt kunnen worden. Bijvoorbeeld als het gaat om autonomie, privacy en de onschuldpresumptie.” 

 

Schermer wijst ook op de verantwoordelijkheden voor organisaties, zoals universiteiten, die te maken krijgen met de gevolgen van AI-toepassingen. “Ik kan mijn studenten geen essayvragen als tentamen meegeven, omdat dan de kans bestaat dat ChatGPT dan de antwoorden schrijft. Ik heb het zelf gecheckt met oude tentamenvragen: ChatGPT haalt geen negen of tien, maar zeker een voldoende. Als universiteit moeten we ons dus verhouden tot AI. Hoe gaan we straks tentamens afnemen, zonder dat we studenten uitvoerig en intensief monitoren? Wat kunnen we doen om content te herkennen die door chatbots is gemaakt?” Opvallend genoeg is ZeroGPT, een app waarmee je checkt of een tekst door ChatGPT is gemaakt, ontstaan aan een universiteit: de uitvinder is de 22-jarige Edward Tian, die aan Princeton computer science studeert. 

 

“De hosannastemming over AI overheerst nog steeds: er zijn hoge verwachtingen over de mogelijkheden om bijvoorbeeld efficiency te verbeteren en fraude te verminderen. Maar het is belangrijk dat organisaties zich rekenschap geven van de mogelijke negatieve effecten”, benadrukt Schermer. “Hoe ga je om met false positives? Hoe handhaaf je de menselijke maat? De concept-AI Act laat zien dat er hoogrisicosystemen zijn, maar zegt niets over de langetermijngevolgen voor bijvoorbeeld medewerkers en klanten.” 

 

Het meest concrete dat organisaties nu kunnen doen, is volgens Schermer: een IAMA uitvoeren. “Je wilt tijdig nadenken over de risico’s die gepaard gaan met AI, en vervolgens passende waarborgen inbouwen. Ga niet wachten totdat het misgaat en de Algoritme Autoriteit op de stoep staat, of klanten je massaal de rug toe keren.” 

 

De toekomst van AI 

Schermer verwacht niet dat AI-systemen op korte termijn volledig zelfstandig gaan opereren. “AI zal mensen ondersteunen en vooral eenvoudige werkzaamheden overnemen. Een AI-app kan nu al een redelijk goede offerte, overeenkomst en factuur maken. Straks gaan we meer in co-creatie werken. ChatGPT kan bijvoorbeeld een eerste outline maken voor een artikel of boek, en een expert gaat vervolgens de diepte in met de details. Of je laat AI de codes schrijven voor een responsive website, en je maakt zelf de teksten. De positieve trend is dan dat simpel en saai werk verdwijnt, en productiviteit vergroot. De keerzijde is dat mensen die nu al niet zo goed meekomen in de digitale samenleving het nog moeilijker krijgen.”  

 

Schermer verwacht ook dat er meer schandalen ontstaan, vergelijkbaar met de toeslagenaffaire. “Er is momenteel een soort goldrush: allerlei marktpartijen zijn met apps bezig, en de mogelijkheden voor imaging, stemherkenning en beeldmanipulatie lijken eindeloos. Maar er is geen reden voor een blind vertrouwen in de betrouwbaarheid en veiligheid van AI-toepassingen.” 

 

Artificial Intelligence inplementeren

“Denk niet dat AI een hype is die voorbij gaat, want elke organisatie gaat er vroeg of laat mee in aanraking komen. Maar wees ook kritisch op de beloften van fabrikanten dat AI de volledige bedrijfsvoering transformeert”, adviseert Schermer. “Kijk hoe je AI binnen je organisatie zorgvuldig kunt toepassen. Vraag jezelf af: wat betekent een manier van werken die wordt ondersteund door algoritmes voor medewerkers, klanten en burgers?” 

 

Schermer pleit ook voor meer discussie over de maatschappelijke impact van chatbots, deepfakes en andere veelbesproken AI-toepassingen. “Je hoeft helemaal geen activist te worden, maar het is belangrijk dat mensen die direct zijn betrokken bij AI van zich laten horen. Wat betekenen de ontwikkelingen in AI voor basisbeginselen van onze samenleving, zoals onderling vertrouwen? Wie heeft de macht en de middelen om algoritmen te trainen? Wie wordt dan de arbiter van waarheid? Laten we daar met elkaar over spreken.” 

 

 

Het AI Congres op 16 juni 2023 zet de schijnwerpers op de impact van kunstmatige intelligentie op organisaties. Kijk voor meer informatie over het programma en tickets op de website van Outvie.   

Download de brochure

Share

Outvie logo