Outvie winteractie: Kies uit Diner Cadeau bon of een VVV-cadeaukaart t.w.v. €50,-* Bekijk de actie.

AI innovatie en techniek: de opmars van Artificial Intelligence

Picture of Outvie Redactie

Outvie Redactie

AI innovatie en techniek: Moeten alle experimenten met AI per direct gestopt worden omdat de risico’s voor de mensheid te groot zijn? Ademt de open brief die pleit voor een AI-pauze de sfeer van een AI-reclamestunt from hell? Er is een hevige discussie gaande over het pauzeren van AI ontwikkelen, over toezicht en ethische reflectie op AI toepassingen en de snelle opmars van ChatGPT, chatbots en generatieve AI. Wij vroegen een aantal sprekers op ons AI-congres op 16 juni naar een reactie.

 

Bent u verbaasd over de snelle opmars en ontwikkeling van ChatGPT, geavanceerde chatbots en generatieve AI?

 

Kees van den Tempel, Data Science project manager, Developer, Speaker, AI Labs BV
Ja, ik ben verbaasd over de ontwikkelsnelheid. Met name de ontwikkeling van generatieve AI is in een ongekende stroomversnelling geraakt. Een belangrijke oorzaak is dat grote bedrijven (Google, Apple, Meta) worden bedreigd in hun business-model door relatieve nieuwkomers zoals OpenAI. Maar ook is er een geopolitieke machtsstrijd gaande tussen China, India, Europa en Amerika. Een voorsprong op het gebied van AI betekent ook een bijdrage aan het worden c.q. blijven van een wereldmacht.

 

Stefan Leijnen, op persoonlijke titel, Lector, Universiteit Utrecht, Advisor, NL AI Coalitie
Nee, die ontwikkelingen passen in het grotere plaatje van hoe AI zich pakweg de afgelopen tien jaar heeft ontwikkeld. Namelijk als een expontieel groeiende systeemtechnologie die impact heeft in tal van sectoren. De onderliggende technieken zoals transformer modellen en reinforcement learning zijn niet nieuw en de groei van data, parameters en computerkracht is exponentieel maar voorspelbaar, zoals de wet van Moore.

 

Wat ik wél verrassend vond, is de kracht van het effect van RLHF (Reinforcement Learning with Human Feedback) dat OpenAI heeft toegepast: door de training van het model toe te spitsen op interacties met mensen noemt de bruikbaarheid en het (ogenschijnlijke) begrip dat het model heeft fors toe.

 

Siri Beerends, socioloog SETUP, promovenda kunstmatige intelligentie, Universiteit Twente
Het grootste gevaar van AI is niet dat het te slim wordt, maar dat wij het te veel macht en kwaliteiten toedichten. Geen intelligentie-explosie dus, maar wel: toenemende machtsconcentratie van techbedrijven, toenemend energieverbruik, vooringenomenheid, het projecteren van menselijke eigenschappen op AI en andersom het projecteren van AI-eigenschappen op mensen, negatieve feedbackloops en schade aan ons informatie-ecosysteem

 

Is de brief van ca 1000 mensen, waaronder een aantal experts over hun zorgen in de ontwikkeling van AI, uiten gegrond?

 

Kees van den Tempel, Data Science project manager, Developer, Speaker, AI Labs BV
Ik denk dat deze gegrond is, maar ik denk dat een adempauze inlassen geen effect heeft. Eerder zullen we met elkaar moeten bedenken hoe we met AI omgaan zoals Europa al probeert met de AI-Act. En we zullen ook moeten nadenken over hoe we omgaan met AI die uit landen komt die het niet zo nauw nemen met ethische normen en waarden.

 

Stefan Leijnen, op persoonlijke titel, Lector, Universiteit Utrecht, Advisor, NL AI Coalitie
We moeten zeker aandacht besteden aan de onderliggende zorgen, maar flink wat beweringen in de brief zijn gebaseerd op vergezochte aannames. Zo beweren de auteurs dat er sprake is van existentiële bedreiging van de mensheid door AGI, dat we het risico lopen de controle over de beschaving te verliezen en dat het meten van het aantal parameters van AI modellen daar goede maatstaf voor is.

 

Ik zou in plaats van een stop op AI onderzoek liever zien dat we investeren in onderzoek en innovatie naar betere, mensgerichte AI-technologie dan wat we nu voorhanden hebben: AI die we kunnen vertrouwen en die ons gaat helpen bij bijvoorbeeld het opsporen van ziekten, het vinden van nieuwe mobiliteitsoplossingen en het mede-vormgeven van de klimaattransitie.

 

Siri Beerends, socioloog SETUP, promovenda kunstmatige intelligentie Universiteit Twente
De beleidssuggesties in de brief zijn goed. Maar het scifi-narratief over intelligentie explosies is misleidende stemmingmakerij, die vooral de commerciële belangen van AI-bedrijven dient. De focus op een zogenaamde ‘’AI intelligentie explosie” heeft geen enkele wetenschappelijke basis en leidt af van de daadwerkelijke gevaren van AI. Dat AI steeds krachtiger wordt heeft niet te maken met toename in computerintelligentie, maar toename in toepassingen die op de markt komen en het enthousiasme waarmee wij die omarmen.

 

GPT-4 scoort hoog op verschillende tests. Niet doordat het intelligent is, maar doordat het getraind wordt op gegevens die aansluiten bij de inhoud van de tests. Ook zonder intelligent te zijn kan AI ons de baas worden op een manier waar we als samenleving geen baat bij hebben. Denk aan de Amsterdamse top-400 lijst en het fraude-algoritme in Rotterdam, dat minderheden ten onrechte aanmerkt als fraudeur. AI is een verlengstuk van de heersende macht, het reproduceert maatschappelijke ongelijkheid.

 

Moet de ontwikkeling van systemen slimmer dan GPT4 (uitgebreidere versie van ChatGPT) gepauzeerd worden, doorgaan of anders?

 

Kees van den Tempel, Data Science project manager, Developer, Speaker, AI Labs BV
Doorgaan en zorgen dat je een voorsprong hebt en behoudt. Met tijdelijk stoppen speel je concurrenten in de kaart.

 

Stefan Leijnen, op persoonlijke titel, Lector, Universiteit Utrecht, Advisor, NL AI Coalitie
Een pauze van 6 maanden zal, nog los van allerlei praktische vragen over de uitvoerbaarheid van een pauzeknop, geen verschil maken qua regulering en toezicht. Er moet goed worden nagedacht over de gevolgen van krachtige AI en de exponentiële groei waarmee die kracht toeneemt. Maar het markeren van ChatGPT als bovengrens van het aantal parameters dat een large-language model mag bevatten – zo wordt intelligentie opgevat in de brief – is nogal willekeurig en zegt weinig over de werking van de AI en mogelijke risico’s.

 

Siri Beerends, socioloog SETUP, promovenda kunstmatige intelligentie Universiteit Twente
Het meest recente AI-model GPT4 is gemaakt door OpenAI. Zij beschrijven hun eigen product als zodanig ‘’slim’’ dat volgende versies van GPT gevaarlijk intelligent zouden kunnen worden.
Oftewel: we moeten GPT4 omarmen en ons daarna overgeven aan bedrijven die ons zullen beschermen tegen de superkrachten van hun eigen product. Een betere PR-stunt voor je eigen product bestaat niet.

 

Ik hoop dat we de ironie daarvan inzien. De bron waar de open brief schrijvers hun ‘’AI intelligentie explosie” waarschuwing op baseren (het ‘’sparks of AGI” paper), is een paper wat niet gepeer-reviewed is, en in de wetenschappelijke wereld niet serieus wordt genomen. Het is zorgelijk dat de media dit blind hebben overgenomen, zonder de claims die in die brief worden gedaan na te trekken of voor te leggen aan wetenschappers.

 

Hoe zou het toezicht op deze ontwikkelingen eruit moeten zien en is deze praktisch uitvoerbaar?

 

Kees van den Tempel, Data Science project manager, Developer, Speaker, AI Labs BV
Ik denk dat het goed zou zijn om AI-toepassingen te beschouwen als complexe machines, net zoals we nu doen met auto’s. Ik zou eenzelfde toezicht organiseren als bij auto’s: dus normen en meetwaarden bepalen en AI-systemen daarop testen. Daarna mogen ze “pas de weg op”. En dat geldt dus ook voor buitenlandse AI-producten. Ik zie minder heil in algoritmeregisters die overal opgezet worden. De beschrijving van zulke complexe systemen is niet uitvoerbaar en onrealistisch.

 

Stefan Leijnen, op persoonlijke titel, Lector, Universiteit Utrecht, Advisor, NL AI Coalitie
Het toezicht zou zich ten eerste moeten toespitsen op toepassingen en niet of in mindere mate op onderzoek. Dat maakt toezicht op innovatie direct een complexe zaak. Ten tweede zou toezicht zoveel mogelijk sectoraal kunnen worden georganiseerd en geintegreerd met bestaande toezichthouders omdat daar zich de domeinkennis bevind en er reeële risico-inschattingen zijn te maken. Ten derde is het van belang te onderkennen dat er meer nodig is dan toezicht alleen: er is net zo zeer behoefte aan nieuwe technologieën voor machine learning en data delen binnen ethische en juridische kaders, goed opgeleide vakmensen en experts, transparante normen en discussie over de rol de technologie zou moeten spelen in onze maatschappij.

 

Siri Beerends, socioloog SETUP, promovenda kunstmatige intelligentie Universiteit Twente
Momenteel wordt in de EU onderhandeld over AI-regulering. De auteurs van de brief zouden beter kunnen zeggen: we steunen de regels van de EU AI-wet. Wat betreft praktische uitvoerbaarheid: uiteindelijk krijgen we de samenleving die we verdienen. Daadwerkelijke verandering komt van onderop, en kan niet van bovenaf worden afgedwongen. Net als social media destijds, zijn we nu massaal de AI-beeld- en tekstgeneratoren aan het omarmen. Het wordt door veel mensen gezien als ‘’vooruitgang’’, ChatGPT, Midjourney en Dall-E zouden ons creatiever maken en de belofte is dat we meer tijd zullen overhouden voor belangrijke taken.

 

Uiteraard komt deze belofte nooit uit; werk wordt onder invloed van AI alleen maar repetitiever, meer mensen leiden aan burn-out en mensen zijn juist meer, in plaats van minder gaan werken. Pas als we de verlangens van waaruit wij AI ontwikkelen en gebruiken veranderen, zal er daadwerkelijke verandering komen. En dat zie ik niet zo snel gebeuren. Mensen zijn nihilisten, en lijken het fijn te vinden om alles wat met mens-zijn te maken heeft uit te besteden aan machines.

 

Gaat de ontwikkeling van AI en toepassingen ons vele banen kosten of komen er betere banen voor terug?

 

Kees van den Tempel, Data Science project manager, Developer, Speaker, AI Labs BV
Ik denk dat de arbeidsmarkt fors zal veranderen. Maar ik denk ook dat de meeste banen wel zullen blijven bestaan waarbij iedereen fors geholpen wordt door een AI-tool. Artsen worden geholpen met het beoordelen van rontgen-foto’s, Advocaten worden geholpen met het formuleren van een brief (incl precedenten), Programmeurs worden geholpen met snel en foutloos programmeren, etc.

 

Stefan Leijnen, op persoonlijke titel, Lector, Universiteit Utrecht, Advisor, NL AI Coalitie
AI zal een enorme impuls geven aan de opbrengsten van werk: dankzij AI kunnen we meer bereiken en slimmer werken in minder tijd. Hoe we vervolgens ons werk inrichten is een economische of politieke keuze. We kunnen er voor kiezen meer produceren of minder te gaan werken, dat is aan ons. Wel zullen veel mensen in hun baan te maken krijgen met AI en zal het nodig zijn hiermee te leren omgaan, bijvoorbeeld door bijscholing of opleiding.

 

Siri Beerends, socioloog SETUP, promovenda kunstmatige intelligentie Universiteit Twente
Wat ik momenteel zie gebeuren is dat de complexiteit van ogenschijnlijk simpele taken wordt uitgehold, zodat we makkelijker kunnen stellen dat AI het kan vervangen. In de praktijk blijkt automatisering vaak duurder, tijdrovender en complexer te zijn dan wordt voorgehouden. Zo is er gigantisch veel toezicht en menselijke arbeid nodig om AI-systemen te (her)trainen en draaiende te houden. En als er een milieuheffing zou komen op het energieverbruik van AI-systemen, heeft dat een grote invloed op de uiteindelijke kosten en baten.

 

Uit de geschiedenis weten we dat voorspellende studies over banenverlies de plank structureel misslaan met veel te zware overschattingen over wat we allemaal door machines kunnen laten vervangen. Als je de betekenis van menselijke taken maar genoeg verschraalt, kunnen we uiteindelijk alles aan AI uitbesteden. Maar we moeten ons afvragen wie daar precies allemaal beter van worden en hoe AI onze definitie van wat beter dan precies betekent, beïnvloed.

 

Is de onstuimige opmars van ChatGPT, chatbots, generatieve AI uberhaupt te beheersen voor bv AI wetgeving of toezichthouders?

 

Kees van den Tempel, Data Science project manager, Developer, Speaker, AI Labs BV
Ik denk dat we het alleen op die manier kunnen reguleren.

 

Stefan Leijnen, op persoonlijke titel, Lector, Universiteit Utrecht, Advisor, NL AI Coalitie
Er wordt momenteel gewerkt aan AI wetgeving die de ontwikkeling van AI systemen zal gaan reguleren. Het is van belang dat wetgevers en experts die zich met AI wetgeving en normering bezig zijn goed op de hoogte zijn en de snelheid en kracht van ontwikkelingen niet onderschatten. We hebben de neiging te reguleren wat er al is, maar we zien nu dat van belang is om nu te reguleren wat er gaat komen.

 

Dat is niet eenvoudig. Ik ben het met de briefschrijvers eens dat technologie te belangrijk is om over te laten aan ongekozen leiders – het is een politieke aangelegenheid geworden die een visie op de toekomst vereist. Daarom is het van belang dat we technologie nog serieuzer gaan nemen dan we nu doen – niet alleen de risico’s, maar ook als randvoorwaarde voor een welvarende toekomst en soevereiniteit.

 

Siri Beerends, socioloog SETUP, promovenda kunstmatige intelligentie Universiteit Twente
Ik denk dat als we ergens aan ten onder gaan, dat niet de intelligentie van computers zal zijn, maar eerder onze eigen kortzichtigheid, stupiditeit en nihilisme.

Het AI Congres op 16 juni 2023 zet de schijnwerpers op de impact van Artificial Intelligence, ChatGPT, hoog risico AI systemen en generatieve AI op organisaties. Kijk voor meer informatie over het programma en tickets op de website.

Download de brochure

Share

Outvie logo