Week 12 Flashcards
(14 cards)
Waar staat de definitie van AI in de AI-act?
in art 3 lid 1
Valt een AI-model voor algemene doeleinden ook onder de definitie van AI-systeem?
Ja zie art 3 lid 63 AI-act
Welke niveaus van risico gaat de AI act vanuit:
Onaanvaardbare risico’s
hoge risico’s
lage risico’s
minimaal tot 0 risico
Wordt de AI-act gezien als een productveiligheidsinsturment of als een fundamenteel veiligheidsinstrument?
Het wordt gezien als een productveiligheidsinstrument. dit betekent dat de AI-act eisen stelt aan de veiligheid van het AI product ondanks het feit dat AI ook de grondrechten van de gebruiker ernstig kan schaden.
waar in de AI-act staan de onaanvaardbare risico’s?
Artikel 5 lid 1 sub a, b, c, d
Wat zijn onaanvaardbare risico’s?
- manipulatie
- social scoring
- verbod op biometrische systemen
Waar in de AI-act staan de systemen met een hoog risico?
artikel 6 AI-Act
Wat zijn AI-systemen met een hoog risico?
- Als het AI-systeem dat deel uitmaakt van producten die al onder specifieke EU-wetgeving inzake productveiligheid vallen+ onderworpen zijn aan een conformiteitsbeoordeling.
- Standalone AI-system: als het AI-systeem valt onder bijlage 3 van de AI-act. deze bijlage geeft 8 gebieden. bijvoorbeeld gebied onderwijs en beroepsopleiding.
Stel je hebt een AI-systeem die niet in bijlage 3 staat. Kan deze bijlage dan worden aangevuld?
Ja er moet dan een nieuwe risicobeoordeling gedaan worden op basis van art 7 lid 2.
Kunnen er ook hoog risico systemen worden geschrapt door de Europese Commissie van bijlage 3?
Ja, dit kan. art 7 lid 3 is dan van toepassing: Er moet dan aan de volgende vereisten zijn voldaan:
1. het AI-systeem vormt geen significant risico op basis van de risico factoren in art 7 lid 2.
2. De schrapping mag niet leiden tot een later algeheel beschermingsniveau ivm gezondheid, veiligheid en grondrechten.
Zijn er uitzonderingen op hoog risico AI-systemen? en wat is het nadeel hiervan
Ja art 6 lid 3. wanneer het geen significant risico op schade voor de gezondheid, veiligheid of de grondrechten van natuurlijke personen
inhoudt, onder meer doordat het de uitkomst van de besluitvorming niet wezenlijk beïnvloedt.
Het nadeel is dat de aan bieder van de AI zelf kan bepalen op zijn product onder de uitzondering valt. art 6 lid 4
Wat zijn de plichten voor de AI ontwikkelaar met een hoog risico AI-systeem en waar staan deze?
in art 26 AI-act
- lid 7: zegt dat voordat je een AI-systeem met een hoog risico mag gebruiken op de werkplek moeten alle betrokken werknemers vooraf geinformeerd worden
- lid 8: zegt dat als je als overheid een AI-systeem met hoog risico wil gebruiken, moet je dit vooraf registreren in een databank
- De grondrechteneffecten beoordeling: -> FRIA = een algemene plicht voor alle aanbieders. je moet voordat je een hoog risico AI-systeem gaat inzetten een risicobeoordleing maken met wat de mogelijk nadelige gevolgen zijn voor de grondrechten, veiligheid en gezondheid van het individu. Waar nodig moet je deze gaan beperken.
Wat zijn de plichten van een individu?
art 85: klacht indienen bij een toezichthouder
art 86: je hebt recht op toelichting/uitleg van de ontwikkelaar van een hoog risicosysteem bij de individuele besluitvorming indien je getroffen bent door de besluitvorming dat rechtsgevolgens heeft.
Waar in de AI-act staan AI-systemen met beperkte risico’s?
art 50 AI-act