AI-Act een feit
Met een grote meerderheid stemde het Europees Parlement twee weken geleden in met de Artificial Intelligence Act. Daarmee is het wetgevingsproces van de AI Act zo goed als voltooid en is de AI Act bijna een feit. Met de AI Act beoogt de Europese wetgever de grondrechten en vrijheden van de Europese burgers te beschermen tegen de risico’s van de snel ontwikkelende kunstmatige intelligentie.
Wat reguleert de AI Act?
De AI Act legt regels vast voor de ontwikkeling, het op de markt brengen en het gebruik van AI-applicaties. ‘Kunstmatige intelligentie’ wordt ruim gedefinieerd in de AI Act, waardoor de wet naar waarschijnlijkheid goed zal blijven aansluiten op toekomstige technische ontwikkelingen. De verordening maakt onderscheid tussen verschillende soorten AI, en schrijft regels voor die variëren afhankelijk van het risiconiveau van de AI. De volgende AI-applicaties worden van elkaar onderscheiden: (1) AI-applicaties met een te hoog risico; (2) AI-applicaties met een hoog risico, en; (3) AI-applicaties met een laag risico.
AI-applicaties met een te hoog risico zijn verboden
De eerste categorie AI-applicaties vormt een te hoog risico op de fundamentele rechten en vrijheden van Europese burgers. Het ontwikkelen, het op de markt brengen en het gebruik van dit soort AI-applicaties is daarom verboden. Wat voor AI-applicaties hebben we het dan over? Je kunt denken aan sociale kredietscoresystemen en AI-systemen die kwetsbaarheden van mensen, zoals de leeftijd of handicap, inzetten voor gedragsmanipulatie. Ook is het gebruik van systemen die emoties kunnen herkennen op de werkplek en in het onderwijs verboden, en geldt een verbod op het ongericht ‘scrapen’ van gezichtsafbeeldingen voor het voeden van systemen voor gezichtsherkenning. Het gebruik van real-time biometrische identificatie in publieke ruimtes voor handhavingsdoeleinden is in beginsel ook verboden.
AI-applicaties met een hoog risico
De tweede categorie AI-applicaties vormt een hoog risico voor de gezondheid, veiligheid en de fundamentele rechten van Europese burgers. Dit zijn bijvoorbeeld AI -applicaties die worden ingezet in de zorg of voor handhavingsdoeleinden. Dit soort AI-applicaties zijn niet per definitie verboden maar bedrijven die dit soort applicaties willen ontwikkelen, op de markt willen brengen, of daarvan gebruiken willen maken, moeten voldoen aan strenge regels.
Zo moeten de risico’s van het gebruik van de applicatie worden beoordeeld, moeten er logboeken worden bijgehouden bij gebruik daarvan, moet worden voldaan aan het beginsel van transparantie en nauwkeurigheid en moet er menselijk toezicht op dergelijke systemen worden gegarandeerd. Ook moet het recht om klachten in te dienen over dit soort AI-applicaties en het recht op informatie over beslissingen die zijn gebaseerd op basis van dit soort AI-applicaties worden gewaarborgd.
Als AI-applicaties met een hoog risico worden ingezet door overheidsinstanties, moeten deze, mits gebruikt voor handhaving- of migratiedoeleinden, bovendien worden geregistreerd in een openbare database.
AI-applicaties met een laag risico
Overige AI-applicaties vormen in beginsel een laag risico.
De AI-Act kent een aantal algemene verplichtingen, die gelden voor applicaties ongeacht het risiconiveau. Een van die verplichtingen is dat aanbieders van AI-applicaties die rechtstreeks met mensen communiceren, zoals chatboxen, er voor moeten zorgen dat het voldoende duidelijk is dat er wordt gecommuniceerd met AI. Ook moeten kunstmatig gecreëerde of gemanipuleerde teksten, afbeeldingen en audio- of videomateriaal (zogenoemde ‘deepfakes’), duidelijk worden gelabeld.
Verder moeten alle AI-applicaties voldoen aan andere Europese wetgeving, zoals wetgeving voor auteursrecht.