In de meest recente parlementaire stemming stemde een duidelijke meerderheid voor de eerste Europese AI-wet. Een stap die volgens veel experts en critici van kunstmatige intelligentie onnodig was.
Ondanks alle voordelen van de nieuwe technologie, zijn er risico's die alleen kunnen worden beheerst op basis van gestandaardiseerde wetgeving. We hebben nader bekeken wat de AI-wet inhoudt en welke veranderingen er in de toekomst zullen zijn.
Hoe ver kan AI-surveillance gaan?
In principe hebben monitoringsystemen op basis van kunstmatige intelligentie een toegevoegde waarde voor de maatschappij. Dit blijkt uit een ontwikkeling uit Denemarken. Mindway AI, een bedrijf dat is opgericht door de Universiteit van Aarhus, heeft een GameScanner ontwikkeld die wordt gebruikt in de goksector.
Het analyseert het gedrag van gokkers om patronen te identificeren op basis van algoritmes die wijzen op problematisch gokgedrag. Deze aanpak kan in de toekomst steeds belangrijker worden met het groeiende aantal legale gokaanbiedingen zoals
Online casinos met 5 euro storting, maar hoe ver kan AI-monitoring gaan onder de nieuwe EU-wet?
Er waren veel meningsverschillen die voor de stemming moesten worden opgehelderd. De EU-Raad, bestaande uit de lidstaten, wilde een groot aantal opties voor toezicht vastleggen in de wet.
Kunstmatige intelligentie moest bijvoorbeeld een rol spelen bij preventief politiewerk, maar het Parlement was het daar duidelijk niet mee eens.
Uiteindelijk werd een compromis bereikt dat de voorkeur geeft aan een verbod, maar uitzonderingen toestaat. Realtime gezichtsherkenning om burgers te controleren werd uitgesloten, net als categorisering op basis van biometrische kenmerken. Discriminerende categorisatie (op basis van religie of seksualiteit) is ook niet meer mogelijk onder de nieuwe wet.
De situatie is anders als het gaat om de identificatie van criminelen met terugwerkende kracht of preventief gebruik in geval van ernstige misdrijven of de dreiging van terrorisme. Een belangrijk punt in de toekomst zijn beslissingen over individuele gevallen. Algemeen toezicht op individuen is bij wet uitgesloten, maar de mogelijkheden zijn niet volledig verdwenen.
Kunstmatige intelligentie en indeling in risicoklassen
Op 13 maart 2024 gaf het EU-parlement na een stemming het groene licht voor Europa's eerste AI-wet. Centraal staat de indeling van kunstmatige intelligentie in risicoklassen. Alle software die is ingedeeld in de hoogste risicoklasse wordt zonder uitzondering verboden. In
Europa mag bijvoorbeeld geen emotieherkenning worden gebruikt op universiteiten, scholen of werkplekken, iets wat in China al wordt geïmplementeerd. Dergelijke systemen moeten binnen de komende twee jaar volledig worden uitgeschakeld.
Als een AI-systeem in de risicoklasse "hoog" valt, wordt het niet volledig verboden, maar moet het aan bepaalde eisen voldoen. Systemen die een groot risico vormen voor de menselijke veiligheid, grondrechten en gezondheid worden bijvoorbeeld in deze klasse ingedeeld. Het gezins- en privéleven en de grondrechten van het individu mogen op geen enkel moment in gevaar worden gebracht.
Om systemen met een hoog risico te mogen gebruiken, moeten ontwikkelaars hun bronnen bekendmaken en voldoen aan de kwaliteitseisen. CE-markering is bedoeld om systemen die voldoen aan de nieuwe AI-wet zichtbaar te maken. Hieronder staan enkele voorbeelden van soorten kunstmatige intelligentie die als "hoog" risico worden gecategoriseerd:
- Veiligheid van AI bij het gebruik van robotchirurgie
- Gebruik van AI in transport en kritieke infrastructuren
- AI-sorteersystemen voor sollicitatieprocedures
- Beoordeling van kredietwaardigheid of gebruik van AI in overheidsdiensten
- AI-systemen die van invloed zijn op fundamentele mensenrechten
- Toepassing van kunstmatige intelligentie in het rechtssysteem
- Automatisering van software voor grenscontroles, asiel- en migratiebeheer
Dergelijke oplossingen mogen alleen op de markt worden gebracht als ze voldoen aan de strenge eisen van de AI-wet en zijn geëtiketteerd.
Minimaal risico vereist slechts enkele vereisten voor gebruik
Als AI-systemen worden gecategoriseerd als "minimaal" risicovol, zijn de eisen aanzienlijk minder streng. In principe is veiligheid een eerste vereiste voordat een overeenkomstig systeem kan worden gebruikt. Het staat ontwikkelaars vrij om de eisen voor AI met een hoog risico vrijwillig te implementeren. De AI-wet legt ook de nadruk op transparantie om gebruikers te helpen informatie te beoordelen. Als een bedrijf chatbots gebruikt voor ondersteuning, moeten gebruikers hierover worden geïnformeerd. Het moet te allen tijde duidelijk herkenbaar zijn of iemand in interactie is met een andere persoon of met kunstmatige intelligentie.
De vereisten voor AI-gegenereerde teksten, die vooral de laatste maanden het internet overspoelen, zijn vergelijkbaar. Zodra een dergelijke tekst de intentie heeft om een breed publiek te informeren, moet deze worden gedeclareerd als "kunstmatig gegenereerd". Hetzelfde geldt voor videocontent en audiobestanden (inclusief muziek) die met AI zijn gemaakt. Deepfakes moeten alleen al op basis van de verklaring duidelijk als zodanig herkenbaar zijn.
In de videogamesector en bij "intelligente" spamfilters wordt uitgegaan van een minimaal of onbestaand risico. Hoewel dergelijke systemen zijn gebaseerd op kunstmatige intelligentie, vormen ze geen indirect risico voor de gebruiker. Op voorwaarde dat andere wetten (GDPR) worden nageleefd, zijn er geen speciale regelgevende maatregelen van toepassing.
Conclusie: AI moet worden gereguleerd en verstandig worden gebruikt
AI kan de wereld waarin we leven aanzienlijk veranderen en op veel gebieden verbeteren. Toezicht is zinvol om de negatieve invloeden van zelflerende systemen te beteugelen. De veiligheid van de bevolking heeft duidelijk voorrang op economische en staatsbelangen. Het
Europese AI-bureau, dat in februari 2024 werd opgericht, is verantwoordelijk voor het toezicht op de implementatie van de wet. De eerste stap zal nu zijn om systemen die niet langer zijn toegestaan uit de roulatie te nemen.