Statement aangaande het Witboek AI van de Europese Commissie

20-02-2020

De Europese Commissie heeft op 19 februari haar witboek over kunstmatige intelligentie (AI) gepresenteerd. We steunen de Europese Commissie in haar verkenning van het wetgevend kader rondom AI. Het is belangrijk dat er één Europees regelgevend kader komt voor kunstmatige intelligentie met geharmoniseerde regels om grensoverschrijdende innovatie en samenwerking te bevorderen.

 

Voor Europa is de cruciale vraag hoe de opname van kunstmatige intelligentie, met het vertrouwen van de burger, kan worden versneld om aan de voorhoede van de technologische transformatie te staan. Gezien het potentiële voordeel dat AI ons biedt, in bijvoorbeeld de gezondheidszorg of mobiliteit, zijn wij van mening dat het vooraf opleggen van beperkingen, duidelijk gerechtvaardigd zou moeten zijn. Het is een gemis als innovatieve en wenselijke hulpmiddelen, om bijvoorbeeld mensenlevens te redden, worden vertraagd door overregulering.

 

Door het gekozen narratief van de Commissie, waarin ze regulering ondersteunend poogt te laten zijn aan de kansen die de technologie oplevert, lijkt de Commissie de bevorderende en juiste richting te kiezen. Een deel van de voorgestelde plannen heeft echter een belemmerende werking als het gaat om het creëren van de broodnodige, innovatievriendelijke omgeving in Europa.

 

De Commissie stelt aanvullende criteria voor algoritmische systemen met een "hoog risico" die worden toegepast in een aantal "hoog risico"-sectoren. Die omvatten regels voor gegevenskwaliteit en traceerbaarheid, transparantie en moeten vooraf via een zogenaamd conformity assessment getest worden. Indien een applicatie non-compliant blijkt, dient het opnieuw getraind te worden met Europese goedgekeurde datasets.

 

Wij staan voor de 'lerende benadering' voor regulering, hetgeen inhoudt dat er voldoende experimenteerruimte moet zijn en dat op basis daarvan risicogebaseerde, doeltreffende en praktisch uitvoerbare regulering wordt ingevoerd.

Wij zijn van mening dat de Commissie geen brede definitie van AI-toepassingen met een hoog risico moet opstellen. Het is niet helder welke sectoren hieronder zullen vallen en het bestempelen van sectoren als risicovol zal de inzet van AI in deze sectoren ernstig beperken.

 

Naar verwachting zal een dergelijk stelsel van toetsen - voordat de toepassingen de markt op kunnen - zeer nadelig werken, kostbaar zijn en innovatie in Europa vertragen. Het is vooralsnog onduidelijk hoe dit zal werken, wat de criteria zullen zijn en wie het uitvoert. Wel is duidelijk dat de gevolgen voor internationaal opererende bedrijven met vestigingen in Europa ingrijpend zullen zijn, waarbij de burger uiteindelijk het onderspit delft. Met een dergelijk vertragend stelsel verlies je zeker de strijd met China en de VS. We pleiten daarom voor heldere criteria, en ex-postcontrole, waarbij bedrijven zelf de verantwoordelijkheid krijgen om te zorgen dat hun systemen aan de regels voldoen.

 

Ook vinden we het voorstel dat alleen bepaalde, door de EU goedgekeurde datasets, mogen worden gebruikt voor het trainen van AI-systemen niet bevorderend.

 

Gegeven het feit dat applicaties beter worden als deze getraind worden met meerdere datasets (waaronder dus ook datasets die buiten de EU liggen), moet er ruimte zijn voor het gebruik van diverse datasets, waarbij uiteraard wel aan de Europese waarden en normen en principes wordt voldaan (diversiteit, voorkomen van bias, e.d.). Bovendien is voor vele AI-toepassingen de herkomst van data niet relevant, het is immers voor het diagnosticeren van diverse ziektes niet relevant of iemand uit de VS of Europa komt.

 

De hoop is daarom dat de Commissie in de consultatieperiode ruimschoots in gesprek gaat met de praktijk om in kaart te brengen wat de impact van de voorstellen is op het verder ontwikkelen van kunstmatige intelligentie teneinde de beoogde ambitie te behalen: Europa een voorloper laten worden op het gebied van kunstmatige intelligentie.