Demystificatie
Een belangrijke eerste zet bij het herkennen van de mogelijkheden van AI is de demystificatie ervan. Bij de term AI krijgen veel mensen allemaal grote ideeën, het is echter ‘gewoon’ een instrument dat onder bepaalde voorwaarden helpt om meerwaarde te creëren, “Je hoort allerlei verhalen over AI”, vertelt Barbara Visser van de werkgroep Publieke Diensten. “Het is de oplossing voor alles, of het is een gigantische dreiging.” Maar de werkelijkheid is genuanceerder.
Oprichter van Aigency Jim Stolze is gedreven bezig dit realistische perspectief te verspreiden. Hij bespreekt kort de Nationale AI-cursus, waarin mensen leren wat AI allemaal inhoudt – en wat het juist niet is. “Wat mensen AI noemen zijn eigenlijk verschillende dingen”, legt Jim uit. “Bij kennisgedreven AI voeren mensen de regels in, die dan door de computer worden uitgevoerd. Maar je hebt ook machine learning. Daarbij bouwen we algoritmes die binnen een dataset zelf op zoek gaan naar regels. Dit is dus eigenlijk meer statistiek dan programmeren.”
Aanvullende intelligentie
Paul Iske, Chief Failure Officer van het Instituut voor Briljante Mislukkingen, heeft het dan ook over AI als aanvullende intelligentie. Uiteindelijk hebben wij de touwtjes in handen, benadrukt Jim: “Er zijn altijd mensen verantwoordelijk die de code hebben geschreven en het zijn mensen die de resultaten interpreteren. Uiteindelijk neemt een mens van vlees en bloed de beslissingen en wordt daarbij geassisteerd door een algoritme.”
Door AI te demystificeren blijkt hoe krachtig het kan zijn, en welke uitdagingen de publieke sector kent bij het gebruik ervan. Devin Diran van TNO bespreekt de spagaat waarin publieke instanties kunnen belanden als ze AI willen gebruiken voor de energietransitie. Hierbij wordt van AI verwacht dat het als nieuwe technologie kan zorgen voor een snelle, eerlijke en inclusieve energietransitie. AI heeft echter nog veel kennishiaten en vergt de ruimte om te experimenteren. Hierover leert TNO uit projecten van Rotterdam tot Zoetermeer, waarbij vragen spelen als: hoe vertaal je via AI gegenereerde informele lokale kennis naar formele kennis? Hoe creëer je vertrouwen voor AI in de besluitvorming? Hoe garandeer je dat AI bijdraagt aan empowered burgers en stakeholders? Hoe toets je de betrouwbaarheid van AI? Als instantie die AI gaat gebruiken is de ruimte om te experimenteren noodzakelijk om deze vragen te kunnen beantwoorden.
Multidisciplinair team
Dit benadrukt ook Guido Hobeijn, oprichter van het Computer Vision Team (CVT) van de gemeente Amsterdam. Vaak pakt een proof of concept mooi uit, maar dat is nog wat anders dan een oplossing daadwerkelijk in de praktijk brengen. Daarom is het CVT in het leven geroepen, waarin experts op verschillende gebieden samenwerken om projecten succesvol te implementeren. Bij een project dat beelden uit de publieke ruimte gebruikt, moet je bijvoorbeeld rekening houden met privacywetgeving, publiek draagvlak, terwijl je tegelijkertijd wil dat de juiste overheidsinstanties toegang hebben tot de juiste data.
Randvoorwaarden
De belangrijkste uitdagingen zijn meestal niet technisch van aard, maar betreffen juist de ethische, juridische en sociale randvoorwaarden voor inbedding en opschaling van AI in het publieke proces. De sociale omgeving waarbinnen een project wordt opgezet, is vaak onderbelicht. Burgerparticipatie is cruciaal voor bijvoorbeeld een eerlijke en inclusieve energietransitie, geeft Devin aan, maar de beste manier om ook de burger vanaf het begin te betrekken is nog onduidelijk: met informatieavonden bereik je alleen bepaalde mensen, en keukentafelgesprekken zijn erg intensief. Juist hier zouden datadriven oplossingen kunnen helpen, en omdat het dan gauw over bewonersdata gaat, zijn ook hier de ethische, juridische en sociale randvoorwaarden essentieel. Zoals Barbara later ook aanvult: het is essentieel om op een of andere wijze ook de burger vanaf het begin te betrekken bij de vraag of en zo ja onder welke voorwaarden een AI-toepassing meerwaarde kan creëren. In Nederland en binnen Europa staan wij immers voor AI waarin de mens te allen tijde centraal staat.
Ook zijn de juridische en ethische kaders waar een project zich in bevindt vaak onderbelicht.
Overheidsinstanties betreden al gauw een juridische jungle, waarbinnen wetten elkaar vaak tegenspreken. Het werken in multidisciplinaire teams is daarom belangrijk, zegt Jim. “AI is te belangrijk om over te laten aan de technologen. Zoals Guido al zei: het is oké om een jurist in je team te hebben.”
Koudwatervrees
“Voordat je begint met een oplossing in de praktijk te brengen moet je kijken welke waarden er in het gedrang kunnen komen,” zegt Bert Kroese, gastspreker en plaatsvervangend directeur-generaal van CBS. “Je moet van begin af de ethische discussie voeren en kijken hoe je die waarden in het design kunt vertegenwoordigen. We zien dat AI heel belangrijk kan zijn bij grote uitdagingen, en we willen dat het verantwoord gebeurt.” Het blijkt lastig maar noodzakelijk om alle betrokken partijen, inclusief burgers, juist te informeren en een stem te geven. Voor veel instanties voelt het risicovol om niet te slagen in een ambitieus project, terwijl daar juist voor anderen veel van te leren valt. “Ik zie bij veel overheden koudwatervrees”, zegt Jim. “Voor je het weet word je afgestraft als het niet in een keer goed gaat. Terwijl we juist van elkaar het meest kunnen leren.”
Ethische AI
Mensen zien altijd liever dat een project wel slaagt dan niet. Zeker als het met gemeenschapsgeld gefinancierd is. Wat dat betreft is het publieke draagvlak voor oplossingen op basis van AI een andere grote uitdaging. “Iedereen gelooft wel dat een AI objectief is”, zegt Jim, “Maar niemand wil een robotrechter.” Ook in dit proces speelt de demystificatie van AI een belangrijke rol. “Het begint met transparantie”, zegt Bert. “Maak eerst maar duidelijk wat je doet, spreek je ambities uit, en wissel je ervaringen uit.”
Op het gebied van ethisch gebruik van AI valt er nog genoeg van elkaar te leren. Wat zijn effectieve communicatiestrategieën? En hoe zit het als algoritmes betere diagnoses kunnen stellen dan dokters? Barbara merkt hierbij op dat het ook onethisch kan zijn om de mogelijkheid van AI niet te gebruiken. Ethisch omgaan met AI is immers niet alleen de burger beschermen tegen privacy-risico’s, maar ook de burger ten volle laten profiteren van wat AI kan betekenen. “We moeten echt de kansen benutten,” benadrukt Bert, “maar we moeten dat verantwoord doen. Met elkaar in gesprek, zoals tijdens dit symposium kan bijdragen aan het vinden van de balans tussen te ver gaan en genoeg doen.”
Succesvol falen en zo van elkaar leren
Om samen die balans te vinden, is het belangrijk dat ook de mislukte projecten met elkaar gedeeld worden, betoogt Paul. Uiteindelijk is het gebruik van AI iets waarvan we nog moeten ontdekken wat het allemaal precies behelst, dus is het ook raar om aan te nemen dat het allemaal in een keer goed gaat. “Je gaat toch tegen mislukkingen aanlopen, en dan ben je geld, tijd en moeite kwijt. Dat zijn je faalkosten,” vertelt Paul. “Maar als je niet bespreekt wat er is gebeurd, dan verlies je ook nog eens je potentiële opbrengsten: nieuwe kennis, nieuwe ervaring, en een beter uitgangspunt voor toekomstige projecten. Paul doet daarom een oproep om ook de potentie van de leeropbrengst te zien en aandacht te hebben voor de ‘faalopbrengst’.
Daarom is het zo belangrijk te beseffen dat business cases eigenlijk nooit volledig gerealiseerd worden. De waarde van een project zit niet alleen in het succes ervan, maar ook in de moeite die erin wordt gestopt. Vaak is een project een goed idee, heeft iedereen zich goed voorbereid, maar gaat het toch anders. Een belangrijke volgende stap is dus het uitwisselen van ervaringen – zowel succesvolle projecten als briljante mislukkingen.
Een realistisch perspectief
“AI is al lang geen droombeeld meer”, vertelt Bert in zijn treffende afsluiting van het symposium. “Om een realistisch perspectief te krijgen is het belangrijk om te laten zien dat een techniek als machine learning niet heel anders is dan gewone statistiek. Op basis van data worden patronen geschat en die patronen kunnen worden gebruikt om voorspellingen te doen. Dat is heel krachtig maar kent ook serieuze beperkingen. De grootste uitdagingen zitten niet in de techniek, maar in de randvoorwaarden: hoe zorg je voor de goede data, hoe ga je om met ethische vraagstukken, en hoe zorg je voor publieke acceptatie? Er spelen risico’s bij het gebruik van AI, maar het biedt ook veel mogelijkheden. Om die te benutten zijn we allemaal nog aan het experimenteren. Daarom moeten we samen onze ervaringen delen. Succesverhalen, maar juist ook mislukkingen – zelfs als ze niet briljant zijn.”
Publieke AI Award voor briljante mislukkingen
In het kader daarvan zijn we dan ook trots om in samenwerking met het Instituut voor Briljante mislukkingen de award voor de briljantste mislukking op het gebied van AI in de publieke sector aan te kondigen. Kanshebbers kunnen hun briljant mislukte projecten tot en met 1 maart 2022 aanmelden, om zo in een veilige context ervaringen te delen met de rest van de publieke sector. Houd de website en sociale media van de Nederlandse AI Coalitie in de gaten voor meer informatie.
Interesse?
Het minisymposium in de Fokker Terminal vond niet alleen live plaats, maar is ook gestreamd. Zowel het live publiek als de kijkers op afstand stelden vragen aan de sprekers. De hele middag is binnenkort terug te zien. Meer informatie over de werkgroep Publieke diensten vindt u hier.