Zeger van Ingen
AI-normalisatie – De eerste stappen op het gebied van kwaliteitscontrole
Bijgewerkt op: 24 sep. 2019
In eerdere blogs ben ik al kort ingegaan op de mogelijkheid van een onafhankelijke kwaliteitscontrole voor AI-systemen. Naast grote maatschappelijke gevolgen van AI bestaat een gegronde vrees voor bevooroordeelde en slecht werkende algoritmes. Zonder controle kunnen die systemen nu op vitale publieke domeinen worden ingezet. Na oproepen vanuit de industrie lijken verschillende gouvernementele organisaties wakker te zijn geworden en dit gevaar te onderkennen. In Nederland lanceerde het ministerie van Binnenlandse Zaken op 12 september 2019 het magazine Maatschappelijke Dialoog over de eigenschappen en mogelijkheden van artificiële intelligentie en wat de impact daarvan is op grondrechten en publieke waarden als privacy en autonomie. In februari van dit jaar verscheen het RVS-advies Waarde(n)volle zorgtechnologie, Een verkennend advies over de kansen en risico's van kunstmatige intelligentie in de zorg. Naast de noodzaak van een internationale samenwerking op het gebied van ethische richtsnoeren voor artificiële intelligentie, werd in het rapport ook kwaliteitscontrole aangestipt: Het stellen en afdwingen van kwaliteitseisen werden genoemd als kortetermijndoelen.
Ook de nationale en internationale normalisatie-instituten zijn bezig met de eerste initiatieven op dit gebied. Op internationaal niveau is het ISO bezig met de ontwikkeling van normen voor artificiële intelligentie. Naast onderzoek naar de implicaties van overheidsgebruik van artificiële intelligentie en ethische en maatschappelijke zorgen, lopen er projecten op het gebied van risicomanagement, bevooroordeeldheid en betrouwbaarheid van AI-systemen. In Nederland heeft het Koninklijke Nederlandse Normalisatie-instituut NEN op 7 februari 2019 de normcommissie artificial intelligence & big data opgericht om input te kunnen leveren op de normen die wereldwijd bij ISO worden ontwikkeld. Die normcommissie ontwikkelt standaarden voor artificiële intelligentie. Ook in Nederland ligt de focus niet alleen op de juridische en ethische aspecten van artificiële intelligentie. Ook het beoordelen van (het gebruik van) AI-systemen speelt een rol en wordt in normen verwerkt, aldus het NEN.
Hoewel verschillende grote bedrijven overheden hebben opgeroepen tot het maken van regulering voor gebruik en ontwikkeling van artificiële intelligentie, is er ook wel wat weerstand op dit soort initiatieven te verwachten. Een op de website WIRED gepubliceerd artikel van Olaf J. Roth, Mark J. Nitzberg en Stuart J. Russel dat de noodzaak van een FDA-achtige constructie voor AI-toepassingen benadrukte, kreeg wisselende reacties. De bekende AI-ontwikkelaar en onderzoeker Ben Goertzel wees de constructie van de hand.
Log, conservatief en gecentraliseerd toezicht is volgens hem niet de juiste benadering voor AI-regulering.
Een FDA-constructie behelst een langdurig proces van klinische tests, de schrijvers van het artikel verwijzen ook bewust naar een parallel met de medische wereld: AI-systemen hebben maatschappelijke bijwerkingen die niet altijd op het eerste gezicht duidelijk zijn. Een dergelijk systeem zou de ontwikkeling en verspreiding van artificiële intelligentie behoorlijk belemmeren. Ben Goertzels reactie is dus wel enigszins begrijpelijk. Het hanteren van door onafhankelijke instituten ontworpen normen voor productie en gebruik van artificiële intelligentie is een mildere vorm van regulering. ISO- en NEN-projecten vormen een waardevolle bron van informatie voor toekomstige juridische normstelling voor artificiële intelligentie. Ik denk dat de overheid erbij gebaat is die normen als uitgangspunt te nemen.
#NEN #ISO #normalisatie #artificiële intelligentie #AI