AI Act

De AI Act beschermt Europese burgers tegen nadelige gevolgen van AI. Op basis van de mate van risico die ze vormen:

Onacceptabel risico:

is een directe bedreiging voor burgers en daarom volgens de AI Act verboden. Een voorbeeld van deze categorie is social scoring op basis van de persoonlijke financiĆ«le situatie van burgers.

Hoog risico: 

bestaat uit AI die de rechten, gezondheid of veiligheid kan schaden. De AI Act staat gebruik van deze AI alleen onder strenge voorwaarden toe. De belangrijkste voorwaarde is dat mensen erop toezien dat deze AI geen burgers schaadt. AI die de achtergrond van sollicitanten screent, is een voorbeeld van de hoog risico-categorie.

Beperkt risico: 

AI die burgers kan misleiden. Bijvoorbeeld door zich als een mens voor te doen. De AI Act staat deze categorie toe onder voorwaarde dat voor de gebruikers altijd duidelijk is dat ze met AI te maken hebben en op welke gegevens de AI zich baseert. Chatbots zijn een voorbeeld van AI met een beperkt risico.

Minimaal risico: 

de AI Act staat deze categorie zonder beperkingen toe. Een spamfilter in een e-mailprogramma is een voorbeeld van AI met een minimaal risico.


De uitvoering 

Bij het toepassen van de AI Act gaat de EU een database met AI met een hoog risico aanleggen die (potentiĆ«le) gebruikers kunnen raadplegen. De handhaving zal via audits gaan. En werkt met een boetestelsel voor als je je niet aan de bepalingen houdt. Afhankelijk van de categorie die je overtreedt en de grootte van je organisatie, kan de boete per overtreding oplopen tot 35 miljoen euro of 7 procent van je jaaromzet.



Bron: Tieme Woldman/tw-tech writer + Frankwatching