AI-systemen gebruiken tijdens corona

Social distancing brengt verschillende praktische, maar ook juridische vragen met zich mee. 15 juni 2020

Hoe controleert u of uw werknemers zich aan de coronaregels houden en hoe monitort u of een station of openbare ruimte niet te druk wordt? Het gebruik van AI-systemen kan uw organisatie daarbij helpen.

Inzet AI-systeem tijdens corona

De Belgische spoorbeheerder Infrabel ontwikkelde een AI-systeem dat met behulp van sensoren en camera’s monitort of werknemers niet te dicht bij elkaar staan, of zij een mondkapje (correct) dragen en of zij zich aan het eenrichtingsverkeer in de gangen houden. Daarnaast signaleert het AI-systeem wanneer er te veel werknemers in een ruimte zijn. Bij overtreding van coronaregels zorgt het AI-systeem dat er een alarmsignaal afgaat.

Het Engelse IT-bedrijf Veovo ontwikkelde een AI-systeem waarmee spoorwegexploitanten de passagiersstroom kunnen volgen en drukte kan worden voorspeld. Het AI-systeem stelt de spoorwegexploitant in staat anticiperend passende maatregelen te treffen.

Het gebruik van dergelijke AI-systemen kan nuttig zijn, omdat deze een bijdrage leveren aan de lastige opgaaf om bijvoorbeeld werknemers en passagiers de coronamaatregelen te laten naleven. Deze blog besteedt aandacht aan enkele punten waar organisaties die aan de slag willen met dergelijke AI-systemen rekening mee moeten houden.

Juridisch kader: soft law en bestaande wetgeving

Hoewel specifieke wetgeving op het gebied van AI vooralsnog ontbreekt, bestaan er inmiddels wel meerdere soft law initiatieven. Enkele voorbeelden hiervan zijn de door de Organisatie voor Economische Samenwerking en Ontwikkeling (OESO) opgestelde beginselen, de door de High-Level Expert Group on Artificial Intelligence (AI HLEG) geformuleerde richtsnoeren en de door de Europese Commissie (EC) uitgewerkte white paper.

Deze documenten bevatten richtsnoeren en aanbevelingen die (nog) niet juridisch bindend zijn en moeten daarom worden gezien als tool voor partijen die op een verantwoorde wijze aan de slag willen gaan met AI-systemen. Daarbij moet niet worden vergeten dat de documenten verwijzen naar reeds geldende en juridisch bindende wetgeving waar een AI-systeem aan moet voldoen, zoals mensenrechtenverdragen en de Algemene Verordening Gegevensbescherming (AVG).

Beginselen OESO

De OESO heeft vijf cumulatieve beginselen geformuleerd die volgens de OESO van belang zijn voor een verantwoord beheer van betrouwbare AI:

  • AI moet alle mensen en de planeet ten goede komen door het stimuleren van inclusieve groei, duurzame ontwikkeling en welzijn;
  • AI-systemen moeten zodanig worden ontworpen dat de rechtsstaat, de mensenrechten, de democratische waarden en de diversiteit worden geëerbiedigd, en zij moeten adequate waarborgen bevatten – bijvoorbeeld door menselijk ingrijpen mogelijk te maken – om een eerlijke en rechtvaardige samenleving te waarborgen;
  • Er moet transparantie zijn en de verantwoorde openbaarmaking rond AI-systemen moet ervoor zorgen dat mensen de op AI-gebaseerde resultaten begrijpen en deze kunnen aanvechten;
  • AI-systemen moeten gedurende hun hele levenscyclus op een robuuste, beveiligde en veilige manier functioneren en potentiële risico’s moeten voortdurend worden geëvalueerd en beheerd;
  • Organisaties en personen die AI-systemen ontwikkelen of gebruiken, moeten aansprakelijk worden gesteld voor de goede werking ervan in overeenstemming met de bovenstaande beginselen.

Richtsnoeren AI HLEG

In de richtsnoeren zijn zeven essentiële vereisten opgesteld waar de ontwikkeling, de installatie en het gebruik van AI-systemen aan moet voldoen om te kunnen spreken van ‘betrouwbare en ethische AI’. De vereisten zijn onder te verdelen in zeven pijlers:

  1. Menselijke controle en menselijk toezicht;
  2. Technische robuustheid en veiligheid;
  3. Privacy en data-governance;
  4. Transparantie;
  5. Diversiteit, non-discriminatie en rechtvaardigheid;
  6. Milieu- en maatschappelijk welzijn;
  7. Verantwoordingsplicht.

De AI HLEG heeft een checklist opgesteld waarmee een AI-systeem op hoofdlijnen kan worden getoetst op de vereisten. Naar verwachting zal deze maand een geüpdatete checklist worden gepubliceerd.

White paper EC

In het white paper schetst de EC een kader voor betrouwbare AI dat rust op twee pijlers: (i) een ecosysteem van excellentie en (ii) een ecosysteem van vertrouwen. Het systeem van excellentie ziet daarbij op het afstemmen van inspanningen op het gebied van AI op Europees, nationaal en regionaal niveau.

Het ecosysteem van vertrouwen ziet op het naleven van Europese normen en waarden. De EC ziet hierbij een noodzaak om in de toekomst een Europees regelgevingskader te introduceren dat juist wel juridisch bindend is. Dat nieuwe regelgevingskader moet van toepassing worden op producten en diensten die gebaseerd zijn op AI en moet ook rekening houden met de aard van verschillende AI-toepassingen. Voor risicovolle AI-toepassingen moet het bijvoorbeeld mogelijk zijn om de AI-systemen te testen, controleren en te certificeren. Voor de minder risicovolle AI-toepassingen overweegt de EC vrijwillige keurmerken voor opererende bedrijven om aan te tonen dat zij voldoen aan de vereiste standaarden.

Aanvullende webinar AI

Wilt u meer weten over de inzet van AI-systemen binnen uw organisatie. U kunt u kosteloos aanmelden voor het webinar Artificiële Intelligentie (AI) dat op 18 juni 2020 door Rens Goudsmit zal worden verzorgd.