Hoe controleert u of uw werknemers zich aan de coronaregels houden en hoe monitort u of een station of openbare ruimte niet te druk wordt? Het gebruik van AI-systemen kan uw organisatie daarbij helpen.
De Belgische spoorbeheerder Infrabel ontwikkelde een AI-systeem dat met behulp van sensoren en camera’s monitort of werknemers niet te dicht bij elkaar staan, of zij een mondkapje (correct) dragen en of zij zich aan het eenrichtingsverkeer in de gangen houden. Daarnaast signaleert het AI-systeem wanneer er te veel werknemers in een ruimte zijn. Bij overtreding van coronaregels zorgt het AI-systeem dat er een alarmsignaal afgaat.
Het Engelse IT-bedrijf Veovo ontwikkelde een AI-systeem waarmee spoorwegexploitanten de passagiersstroom kunnen volgen en drukte kan worden voorspeld. Het AI-systeem stelt de spoorwegexploitant in staat anticiperend passende maatregelen te treffen.
Het gebruik van dergelijke AI-systemen kan nuttig zijn, omdat deze een bijdrage leveren aan de lastige opgaaf om bijvoorbeeld werknemers en passagiers de coronamaatregelen te laten naleven. Deze blog besteedt aandacht aan enkele punten waar organisaties die aan de slag willen met dergelijke AI-systemen rekening mee moeten houden.
Hoewel specifieke wetgeving op het gebied van AI vooralsnog ontbreekt, bestaan er inmiddels wel meerdere soft law initiatieven. Enkele voorbeelden hiervan zijn de door de Organisatie voor Economische Samenwerking en Ontwikkeling (OESO) opgestelde beginselen, de door de High-Level Expert Group on Artificial Intelligence (AI HLEG) geformuleerde richtsnoeren en de door de Europese Commissie (EC) uitgewerkte white paper.
Deze documenten bevatten richtsnoeren en aanbevelingen die (nog) niet juridisch bindend zijn en moeten daarom worden gezien als tool voor partijen die op een verantwoorde wijze aan de slag willen gaan met AI-systemen. Daarbij moet niet worden vergeten dat de documenten verwijzen naar reeds geldende en juridisch bindende wetgeving waar een AI-systeem aan moet voldoen, zoals mensenrechtenverdragen en de Algemene Verordening Gegevensbescherming (AVG).
De OESO heeft vijf cumulatieve beginselen geformuleerd die volgens de OESO van belang zijn voor een verantwoord beheer van betrouwbare AI:
In de richtsnoeren zijn zeven essentiële vereisten opgesteld waar de ontwikkeling, de installatie en het gebruik van AI-systemen aan moet voldoen om te kunnen spreken van ‘betrouwbare en ethische AI’. De vereisten zijn onder te verdelen in zeven pijlers:
De AI HLEG heeft een checklist opgesteld waarmee een AI-systeem op hoofdlijnen kan worden getoetst op de vereisten. Naar verwachting zal deze maand een geüpdatete checklist worden gepubliceerd.
In het white paper schetst de EC een kader voor betrouwbare AI dat rust op twee pijlers: (i) een ecosysteem van excellentie en (ii) een ecosysteem van vertrouwen. Het systeem van excellentie ziet daarbij op het afstemmen van inspanningen op het gebied van AI op Europees, nationaal en regionaal niveau.
Het ecosysteem van vertrouwen ziet op het naleven van Europese normen en waarden. De EC ziet hierbij een noodzaak om in de toekomst een Europees regelgevingskader te introduceren dat juist wel juridisch bindend is. Dat nieuwe regelgevingskader moet van toepassing worden op producten en diensten die gebaseerd zijn op AI en moet ook rekening houden met de aard van verschillende AI-toepassingen. Voor risicovolle AI-toepassingen moet het bijvoorbeeld mogelijk zijn om de AI-systemen te testen, controleren en te certificeren. Voor de minder risicovolle AI-toepassingen overweegt de EC vrijwillige keurmerken voor opererende bedrijven om aan te tonen dat zij voldoen aan de vereiste standaarden.
Wilt u meer weten over de inzet van AI-systemen binnen uw organisatie. U kunt u kosteloos aanmelden voor het webinar Artificiële Intelligentie (AI) dat op 18 juni 2020 door Rens Goudsmit zal worden verzorgd.