Tijdens het online evenement voor deelnemers van de Nederlandse AI Coalitie op 24 november zijn tijdens de sessie ‘Verantwoord data delen voor AI’ de resultaten gedeeld van twee use cases. Aangetoond wordt dat een AI-toepassing met data uit verschillende bronnen op een verantwoorde wijze kan worden geïmplementeerd.
Data is samen met algoritmes de bouwsteen voor AI-applicaties. Deze databronnen worden vaak op veel plekken opgeslagen met allerlei restricties voor toegang. Dat betekent dat er oplossingen nodig zijn voor toegang tot die databronnen. Aan de hand van twee use cases, te weten het analyseren van foto’s en labuitslagen gericht op COVID-19, is aangetoond welke oplossingen er mogelijk zijn voor verantwoord data delen in deze situaties.
In het in maart 2020 verschenen rapport ‘Verantwoord data delen’ is de behoefte aan een datadeelinfrastructuur omschreven. Hierin is een voorzet gemaakt hoe deze infrastructuur eruit zou kunnen zien om AI in Nederland te stimuleren. Samen met de toepassingsgebieden Gezondheid en Zorg, Publieke Diensten, en Energie en Duurzaamheid is er een aantal technische ‘Proof of concepts’ (PoCs) uitgevoerd waarbij zogenaamde ‘ecosystems of trust’ in de praktijk zijn opgezet.
Conclusie: AI heeft een generieke datadeelinstractuur nodig
Uit de resultaten blijkt dat het mogelijk is om een infrastructuur voor datadeling op te zetten, die gebaseerd is op internationale standaarden (FAIR, IDS). Er is aangetoond dat data niet fysiek naar andere organisaties hoeft te worden gestuurd om AI succesvol toe te passen (federatieve data-architectuur). Deze wijze van data delen is in de gezondheidszorg bekend als de Personal Health Train. Indien wel data wordt gedeeld, dan is het mogelijk dat de eigenaar van de data via afspraken en software oplossingen controle houdt over het gebruik van zijn data.
Voordelen
Deze aanpak van een generieke infrastructuur voor datadeling kent diverse voordelen:
- Identificatie, Authenticatie en Autorisatie standaarden zijn goed toepasbaar (via secure & trusted handshakes).
- Semantieke modellen conform FAIR-principes zijn een goede basis.
- Meerdere typen AI-algoritmen kunnen worden ondersteund waarbij de eisen op het gebied van privacy in acht worden genomen.
Opschaling tot grootschalige testomgeving
De Proof of Concepts zijn beperkt in scope en schaal. De komende periode zal de groep van belanghebbenden worden uitgebreid om grootschalige testomgevingen te realiseren richting uiteindelijk operationele oplossingen. Zo kan ervaring worden opgedaan in en tussen toepassingsgebieden om de kennisbasis te verbreden en om naar implementatie in de praktijk toe te werken. Hiermee worden meer en betere AI-implementaties mogelijk. Door met standaarden te werken wordt implementatie eenvoudiger en wordt vendor lock-in voorkomen.
Geïnteresseerd?
Bent u geïnteresseerd in meer informatie over de specifieke use case en de achterliggende uitwerking? Bezoek dan deze pagina voor meer informatie. Om de ontwikkeling van AI-innovaties te stimuleren, stelt de Nederlandse AI Coalitie de proof of concept software vrij beschikbaar via GitLab.