Nieuwe regels inzake kunstmatige intelligentie - Vragen en antwoorden

Met dank overgenomen van Europese Commissie (EC) i, gepubliceerd op woensdag 21 april 2021.

Index:

Waarom moeten we het gebruik van AI-technologie reguleren?

De potentiële voordelen van AI voor onze samenleving variëren van betere gezondheidszorg tot beter onderwijs. In het licht van de snelle technologische ontwikkeling van AI moet de EU nu stappen zetten om die kansen te benutten. Hoewel de meeste AI-systemen weinig tot geen risico opleveren, moeten de risico's van sommige AI-systemen worden aangepakt om ongewenste resultaten te voorkomen. Zo kan de ondoorzichtigheid van veel algoritmen tot onzekerheid leiden en een obstakel vormen voor de effectieve handhaving van de bestaande wetgeving inzake veiligheid en grondrechten. Om die uitdagingen aan te pakken is wetgeving nodig, die de goede werking van de AI-markt waarborgt middels een adequate aanpak van zowel de baten als de risico's. Het gaat om toepassingen zoals biometrische identificatiesystemen of beslissingen door AI over belangrijke persoonlijke belangen op het gebied van bijvoorbeeld aanwerving, onderwijs, gezondheidszorg of rechtshandhaving. Het voorstel van de Commissie voor een regelgevingskader inzake AI heeft tot doel de grondrechten en de veiligheid van de gebruiker te beschermen en vertrouwen in de ontwikkeling en het gebruik van AI tot stand te brengen.

Welke risico's worden met de nieuwe AI-regels aangepakt?

De invoering van AI-systemen bezit het potentieel om aanzienlijke maatschappelijke voordelen en economische groei te genereren en de innovatie en het mondiale concurrentievermogen van de EU te versterken. In bepaalde gevallen kunnen de specifieke kenmerken van bepaalde AI-systemen echter nieuwe risico's met zich meebrengen in verband met de veiligheid en de grondrechten van de gebruiker. Dit leidt tot rechtsonzekerheid voor bedrijven en kan, als gevolg van het gebrek aan vertrouwen, de invoering van AI-technologieën door bedrijven en burgers vertragen. Uiteenlopende reacties van de nationale autoriteiten op regelgevingsgebied kunnen tot versnippering van de interne markt leiden.

Op wie is het voorstel van toepassing?

Het rechtskader zal van toepassing zijn op zowel publieke als private actoren binnen en buiten de EU die in de Unie een AI-systeem in de handel brengen of die een AI-systeem gebruiken dat een impact heeft op mensen in de Unie. Het kan zowel betrekking hebben op aanbieders (bv. een ontwikkelaar van een tool om cv's te screenen) als op gebruikers van risicovolle AI-systemen (bv. een bank die een dergelijke screeningtool koopt). Het is niet van toepassing op particuliere, niet-professionele gebruikers.

Welke zijn de risicocategorieën?

De Commissie stelt een risicogebaseerde aanpak voor met vier risiconiveaus:

Onaanvaardbaar risico: Een zeer beperkt aantal bijzonder schadelijke toepassingen van KI die in strijd zijn met de EU-waarden omdat ze de grondrechten schenden (bv. sociale scoring door overheden, uitbuiting van kwetsbaarheden van kinderen, gebruik van subliminale technieken en - gekoppeld aan strikte beperkingen - systemen voor biometrische identificatie op afstand in openbaar toegankelijke ruimten die voor rechtshandhavingsdoeleinden worden gebruikt) zullen worden verboden.

Hoog risico: Een beperkt aantal AI-systemen die in het voorstel worden gedefinieerd en die de veiligheid van mensen of hun grondrechten schaden (zoals beschermd door het Handvest van de grondrechten van de EU), worden als risicovol beschouwd. Het voorstel gaat vergezeld van een lijst van risicovolle AI-systemen, die kan worden herzien op basis van de ontwikkeling van AI-toepassingen in de praktijk (toekomstbestendig).

Het gaat ook om veiligheidscomponenten van producten die onder sectorale wetgeving van de Unie vallen. Zij vormen per definitie een hoog risico als zij in het kader van de sectorale wetgeving aan een conformiteitsbeoordeling door derden moeten worden onderworpen.

Om vertrouwen en een consistente en strikte bescherming van de veiligheid en de grondrechten te waarborgen, worden voor alle risicovolle AI-systemen bindende eisen voorgesteld. Die eisen hebben betrekking op de kwaliteit van de gebruikte datasets; documentatie en gegevensregistratie; transparantie en informatieverstrekking aan gebruikers; menselijk toezicht; en robuustheid, nauwkeurigheid en cyberbeveiliging. In geval van een inbreuk kunnen de nationale autoriteiten op grond van die eisen toegang krijgen tot de informatie die zij nodig hebben om te onderzoeken of het gebruik van het AI-systeem in overeenstemming was met de wet.

Het voorgestelde kader is in overeenstemming met het Handvest van de grondrechten van de EU en met de internationale handelsverplichtingen van de Unie.

Beperkt risico: Voor specifieke AI-systemen worden een aantal transparantieverplichtingen opgelegd, bijvoorbeeld wanneer er een duidelijk risico op manipulatie bestaat (bv. door het gebruik van chatbots). Gebruikers moeten zich ervan bewust zijn dat zij met een machine interageren.

Minimaal risico: Alle andere AI-systemen kunnen zonder bijkomende wettelijke verplichtingen conform de bestaande wetgeving worden ontwikkeld en gebruikt. De grote meerderheid van de AI-systemen die op dit moment in de EU worden gebruikt, behoren tot deze categorie. Aanbieders van die systemen kunnen ervoor kiezen de vereisten voor betrouwbare AI toe te passen en niet-bindende gedragscodes na te leven.

Hoe is de lijst van autonome risicovolle AI-systemen samengesteld (geen in producten verwerkte systemen)? Wordt die lijst geactualiseerd?

Naast een duidelijke definitie van het begrip “hoog risico”, stelt de Commissie een robuuste methode voor waarmee risicovolle AI-systemen binnen het rechtskader kunnen worden opgespoord. Dit moet bedrijven en andere marktdeelnemers rechtszekerheid bieden.

De risicoclassificatie is gebaseerd op het beoogde doel van het AI-systeem, conform de bestaande EU-wetgeving inzake productveiligheid. Dit betekent dat de classificatie van het risico afhangt van de functie die het AI-systeem vervult en van het specifieke doel en de specifieke modaliteiten waarvoor dat systeem wordt gebruikt.

De classificatie is gebeurd op basis van de volgende criteria: de draagwijdte van het gebruik van de AI-toepassing en haar doelstelling, het aantal personen waarop ze een impact kan hebben, de afhankelijkheid van het resultaat en de onomkeerbaarheid van schade, alsook de mate waarin de bestaande Uniewetgeving in doeltreffende maatregelen voorziet om die risico's te voorkomen of substantieel te beperken.

De classificatie wordt verduidelijkt aan de hand van een lijst van toepassingen op het gebied van biometrische identificatie en categorisering, kritieke infrastructuur, onderwijs, werving en werkgelegenheid, de verlening van belangrijke openbare en particuliere diensten, rechtshandhaving, asiel en migratie en justitie.

Het voorstel gaat vergezeld van een lijst van toepassingen die de Commissie op dit moment als risicovol beschouwt. De Commissie zal er in overleg met een ruime groep belanghebbenden voor zorgen dat die lijst wordt bijgewerkt en relevant blijft. Daarbij zal zij zich baseren op de bovengenoemde criteria, bewijsstukken en adviezen van deskundigen.

Hoe regelt het voorstel biometrische identificatie op afstand?

Volgens de nieuwe regels worden alle AI-systemen die bedoeld zijn voor biometrische identificatie van personen op afstand beschouwd als risicovol en onderworpen aan een voorafgaande conformiteitsbeoordeling door derden, met inbegrip van de documentatie en de integratie van menselijk toezicht in het ontwerp. Hoogwaardige datasets en tests zullen ertoe bijdragen dat dergelijke systemen accuraat zijn en dat ze geen discriminerende impact hebben op de getroffen bevolking.

Het gebruik van biometrische identificatie op afstand in realtime op openbare plaatsen voor handhavingsdoeleinden houdt specifieke risico's in voor de grondrechten, met name de menselijke waardigheid, de eerbiediging van het privéleven en het familie- en gezinsleven, de bescherming van persoonsgegevens en non-discriminatie. Biometrische identificatie is daarom in beginsel verboden, behalve in enkele strikt gedefinieerde, beperkte en gereguleerde gevallen. Het gaat onder meer om de gerichte opsporing van specifieke slachtoffers van misdrijven, waaronder vermiste kinderen; de reactie op een onmiddellijke terreurdreiging; of het opsporen en identificeren van daders van ernstige misdrijven.

Ten slotte gelden voor alle systemen voor emotieherkenning en biometrische categorisering te allen tijde specifieke transparantievereisten. Dergelijke systemen zullen ook als risicovol worden beschouwd als zij onder de lijst van praktijkvoorbeelden vallen, bijvoorbeeld op het gebied van werkgelegenheid, onderwijs, rechtshandhaving, migratie en grenscontrole.

Waarom zijn er specifieke regels nodig voor biometrische identificatie op afstand?

Biometrische identificatie kan verschillende vormen aannemen. Gebruikers kunnen ermee worden geauthenticeerd, bijvoorbeeld bij het ontgrendelen van een smartphone of bij identificatie aan een grensovergang om te controleren of de identiteit van een persoon overeenkomt met die op de reisdocumenten (een-op-een-matching). Biometrische identificatie kan ook op afstand worden gebruikt voor de identificatie van mensen in een massa, waarbij een afbeelding van een persoon wordt vergeleken met afbeeldingen in een databank (een-op-veel-matching).

De nauwkeurigheid van systemen voor gezichtsherkenning hangt sterk af van talrijke factoren, zoals de kwaliteit van de camera, het licht, de afstand, de databank, het algoritme en de etniciteit, de leeftijd of het geslacht van de persoon. Hetzelfde geldt voor de herkenning van de manier van stappen, spraakherkenning en andere biometrische systemen. Bij zeer geavanceerde systemen ligt het percentage fout-positieven steeds lager. Hoewel een nauwkeurigheidsgraad van 99 % in het algemeen goed klinkt, is het bijzonder riskant wanneer het resultaat tot de verdenking van een onschuldige leidt. Zelfs een foutenpercentage van 0,1 % is veel als het gaat om tienduizenden mensen gaat.

Aan welke verplichtingen moeten aanbieders van risicovolle AI-systemen voldoen?

Alvorens een AI-systeem met een hoog risico in de EU in de handel te brengen of anderszins in gebruik te nemen, moet de aanbieder dat systeem aan een conformiteitsbeoordeling onderwerpen. Zo kunnen zij aantonen dat hun systeem voldoet aan de bindende eisen voor betrouwbare AI (bv. gegevenskwaliteit, documentatie en traceerbaarheid, transparantie, menselijk toezicht, nauwkeurigheid en robuustheid). Als het systeem zelf of het doel ervan ingrijpend wordt gewijzigd, moet een nieuwe beoordeling worden uitgevoerd. Voor bepaalde AI-systemen zal ook een onafhankelijke aangemelde instantie bij dit proces moeten worden betrokken. KI-systemen die als veiligheidscomponenten van producten die onder sectorale wetgeving van de Unie vallen fungeren, vormen een hoog risico wanneer op grond van de sectorale wetgeving voor de conformiteitsbeoordeling een beroep moet worden gedaan op een derde partij. Ook voor biometrische identificatiesystemen is altijd een conformiteitsbeoordeling door een derde partij vereist.

Aanbieders van risicovolle AI-systemen zullen ook kwaliteits- en risicobeheersystemen moeten toepassen om ervoor te zorgen dat zij aan de nieuwe eisen voldoen en om de risico's voor gebruikers en betrokkenen zoveel mogelijk te beperken, ook nadat een product in de handel is gebracht. De markttoezichtautoriteiten zullen de monitoring na het in de handel brengen ondersteunen door middel van audits en door aanbieders de mogelijkheid te bieden ernstige incidenten of de schending van verplichtingen inzake de grondrechten waarvan zij kennis hebben gekregen, te rapporteren.

Hoe zal de naleving van de regels worden gehandhaafd?

De lidstaten zullen een sleutelrol spelen bij de toepassing en handhaving van deze verordening. In dit verband moet elke lidstaat een of meer nationale autoriteiten aanwijzen die belast worden met het toezicht op de toepassing van de regels en op de markt. Om de efficiëntie te vergroten en een officieel contactpunt voor het publiek en andere partijen in te stellen, moet elke lidstaat één nationale toezichthoudende autoriteit aanwijzen, die de lidstaat ook zal vertegenwoordigen in het Europees comité voor kunstmatige intelligentie.

Wat is het Europees comité voor kunstmatige intelligentie?

Het comité voor kunstmatige intelligentie zal bestaan uit hooggeplaatste vertegenwoordigers van de bevoegde nationale toezichthoudende autoriteiten, de Europese Toezichthouder voor gegevensbescherming en de Commissie. Het comité krijgt de opdracht de soepele, doeltreffende en geharmoniseerde invoering van de nieuwe AI-verordening te faciliteren. Het comité zal aanbevelingen doen en adviezen uitbrengen aan de Commissie met betrekking tot risicovolle AI-systemen en over andere aspecten die relevant zijn voor de doeltreffende en uniforme toepassing van de nieuwe regels. Het zal ook helpen bij het opbouwen van deskundigheid als competentiecentrum voor de nationale autoriteiten. Tot slot zal het comité ook de normalisatiewerkzaamheden op dit gebied ondersteunen.

Hoe beschermen deze nieuwe regels de grondrechten?

In de EU en haar lidstaten bestaat al een sterke bescherming van de grondrechten en tegen discriminatie, maar de complexiteit en ondoorzichtigheid van bepaalde AI-toepassingen (“black boxes”) vormen een probleem. Een mensgerichte benadering van AI betekent dat AI-toepassingen in overeenstemming moeten zijn met de wetgeving inzake grondrechten. De vereisten inzake verantwoordingsplicht en transparantie voor het gebruik van risicovolle AI-systemen, ondersteund door een sterkere handhavingscapaciteit, zullen ervoor zorgen dat vanaf de ontwikkelingsfase rekening wordt gehouden met de naleving van de wetgeving. Als een inbreuk wordt vastgesteld, kunnen de nationale autoriteiten op grond van die eisen toegang krijgen tot de informatie die zij nodig hebben om te onderzoeken of het gebruik van AI in overeenstemming was met de EU-regelgeving.

Wat zijn vrijwillige gedragscodes?

Aanbieders van toepassingen zonder risico kunnen ervoor zorgen dat hun KI-systeem betrouwbaar is door hun eigen vrijwillige gedragscodes te ontwikkelen of zich te houden aan gedragscodes die door andere representatieve verenigingen zijn vastgesteld. Voor bepaalde AI-systemen vormen die een aanvulling op de transparantieverplichtingen. De Commissie zal brancheorganisaties en andere representatieve organisaties aanmoedigen om vrijwillige gedragscodes vast te stellen.

Moeten ingevoerde AI-systemen en -toepassingen aan het kader voldoen?

Ja, daar wordt rekening mee gehouden. Invoerders van AI-systemen zullen ervoor moeten zorgen dat de buitenlandse aanbieder vooraf de passende conformiteitsbeoordelingsprocedure uitvoeren en over de bij de verordening vereiste technische documentatie beschikken. Bovendien moeten importeurs ervoor zorgen dat hun systeem voorzien is van een CE-markering en vergezeld gaat van de vereiste documentatie en gebruiksaanwijzing.

Hoe kunnen de nieuwe regels innovatie ondersteunen?

Het regelgevingskader kan het gebruik van AI op twee manieren bevorderen. Enerzijds zal een groter vertrouwen onder de gebruikers de vraag naar AI die door bedrijven en overheidsinstanties wordt gebruikt, doen toenemen. Anderzijds zullen AI-aanbieders, dankzij de grotere rechtszekerheid en harmonisering van de regels, toegang krijgen tot grotere markten, met producten die gebruikers en consumenten zullen waarderen en kopen.

De regels zullen alleen van toepassing zijn wanneer dat strikt noodzakelijk is en op zodanige wijze dat de lasten voor de marktdeelnemers tot een minimum worden beperkt, met een lichte governancestructuur. Een ecosysteem van excellentie, met testomgevingen voor regelgeving die gedurende een beperkte periode een gecontroleerde omgeving bieden om innovatieve technologieën, toegang tot digitale-innovatiehubs en toegang tot test- en experimentele faciliteiten te testen, zal innovatieve bedrijven, kmo's en start-ups bovendien helpen om te blijven innoveren binnen het kader van de nieuwe regels voor AI en de andere toepasselijke rechtsregels. Samen met andere maatregelen, zoals de aanvullende netwerken van AI-kenniscentra en het publiek-private partnerschap inzake kunstmatige intelligentie, data en robotica, zullen deze helpen om voor bedrijven de gunstige randvoorwaarden te scheppen om AI te ontwikkelen en toe te passen.

Wat is de internationale dimensie van de aanpak van de EU?

Het voorstel voor een regelgevingskader en het gecoördineerde plan inzake AI maken deel uit van de inspanningen van de Europese Unie om op wereldschaal een voortrekkersrol te vervullen bij het promoten van betrouwbare AI op internationaal niveau. AI is uitgegroeid tot een terrein van strategisch belang op het snijpunt van geopolitiek, commerciële belangen en veiligheidskwesties. Landen over de hele wereld doen een beroep op het nut en het potentieel van AI om uitdrukking te geven aan hun verlangen naar technische vooruitgang. De AI-verordening staat nog in de kinderschoenen en de EU zal maatregelen nemen om de vaststelling van wereldwijde AI-normen te bevorderen in nauwe samenwerking met internationale partners, conform het op regels gebaseerde multilaterale bestel en de Europese waarden. De EU is voornemens de partnerschappen, coalities en allianties met EU-partners (bv. Japan, de VS of India), op multilateraal niveau (bv. OESO i en G20 i) en met regionale organisaties (bv. de Raad van Europa i) te verdiepen.

  • Gecoördineerd plan — Actualisering 2021

Welke zijn de nieuwigheden ten opzichte van het gecoördineerde plan van 2018?

Het gecoördineerde plan van 2018 legde de basis voor beleidscoördinatie op het gebied van AI en moedigde de lidstaten aan nationale strategieën te ontwikkelen. Sindsdien is de technologische, economische en beleidscontext inzake KI aanzienlijk veranderd. Om flexibel en geschikt te blijven voor het beoogde doel, presenteert de Commissie in 2021 een herziening van het gecoördineerde plan. Om te zorgen voor een sterkere link met de Europese Green Deal en de verdere ontwikkeling van de markten en als reactie op de coronapandemie, bevat het geactualiseerde plan voorstellen voor sterkere maatregelen op het gebied van milieu en gezondheid.

Wat is de doelstelling van het gecoördineerde plan?

In het gecoördineerde plan worden diverse concrete gezamenlijke acties voorgesteld waarmee de Europese Commissie en de lidstaten ervoor kunnen zorgen dat de EU wereldleider wordt op het gebied van betrouwbare AI. De voorgestelde kernacties weerspiegelen de visie dat de Europese Commissie, de lidstaten en particuliere actoren om in dit opzet te slagen werk moeten maken van: versnelde investeringen in AI-technologieën om een veerkrachtig economisch en sociaal herstel aan te zwengelen, gefaciliteerd door “nieuwe” digitale oplossingen; de tijdige en volledige uitvoering van AI-strategieën en -programma's om ervoor te zorgen dat de EU haar pioniersvoordeel ten volle kan benutten; en de onderlinge afstemming van het AI-beleid om versnippering tegen te gaan en mondiale uitdagingen aan te pakken.

Hoeveel lidstaten hebben een nationale AI-strategie ontwikkeld?

In totaal hebben 19 lidstaten (Bulgarije, Cyprus, Tsjechië, Denemarken, Duitsland, Estland, Finland, Frankrijk, Hongarije, Letland, Litouwen, Luxemburg, Malta, Nederland, Portugal, Slowakije, Zweden, en in december 2020 ook Spanje en Polen) een nationale AI-strategie vastgesteld. Ook Noorwegen heeft een AI-strategie.

Hoe zal de EU uitgroeien van topkwaliteit van het laboratorium naar de markt?

Het herziene gecoördineerde plan schetst de visie op medefinanciering van test- en experimenteerfaciliteiten (TEF's), die op EU-niveau kunnen uitgroeien tot een gemeenschappelijk, uitermate gespecialiseerd hulpmiddel dat de snelle uitrol en het gebruik van AI bevordert.

Daarnaast werkt de Commissie aan het opzetten van een netwerk van Europese digitale-innovatiehubs (DIH's), als “one-stop-shop” om kmo's en overheden te helpen om op dit gebied concurrerender te worden.

Ook het publiek-privaat partnerschap voor AI, data en robotica draagt bij tot de consolidering van onze inspanningen om de middelen op te trekken, aangezien het bijdraagt tot de ontwikkeling en uitvoering van een strategische onderzoeks-, innovatie- en implementatieagenda en tot een dynamisch EU-wijd innovatie-ecosysteem voor AI.

De financiering via het investeringsfonds voor AI/blockchain en de Europese Innovatieraad is succesvol gebleken en moet worden versterkt, onder meer via InvestEU en de uitvoering van de faciliteit voor herstel en veerkracht door de lidstaten.

Hoe zal de EU strategisch leiderschap opbouwen in sectoren met een grote impact?

Om een en ander af te stemmen op de marktontwikkelingen en lopende acties in de lidstaten en om de positie van de EU op wereldschaal te versterken, worden in het gecoördineerde plan zeven nieuwe sectorale actiegebieden voorgesteld. De gezamenlijke acties op het gebied van milieu en gezondheid zijn noodzakelijk om middelen vrij te maken om de doelstellingen van de Europese Green Deal te verwezenlijken en de coronapandemie doeltreffend aan te pakken. De Commissie doet een oproep tot het indienen van concrete acties - en stelt er zelf voor - die worden ondersteund door financieringsinstrumenten op het gebied van coördinatie en bundeling van middelen op vijf andere gebieden: overheid, robotica, mobiliteit, binnenlandse zaken en landbouw.

Hoe zullen de lidstaten investeren in AI?

Het maximaliseren van de middelen en het coördineren van investeringen is van vitaal belang en vormt een cruciaal onderdeel van de AI-strategie van de Commissie. Via het programma Digitaal Europa, het eerste financiële instrument van de EU dat gericht was op digitale technologie, en het programma Horizon Europa, wil de Commissie jaarlijks 1 miljard euro in AI investeren. Het doel is de particuliere sector en de lidstaten aan te zetten tot extra investeringen om in de loop van dit decennium een jaarlijks investeringsvolume van 20 miljard euro te bereiken. In het kader van de onlangs goedgekeurde faciliteit voor herstel en veerkracht, het grootste stimuleringspakket dat ooit uit de EU-begroting werd gefinancierd, wordt 134 miljard euro uitgetrokken. Die faciliteit wordt een cruciale hefboom om Europa in staat te stellen zijn ambities te versterken en wereldleider te worden op het gebied van de ontwikkeling van geavanceerde betrouwbare AI.

Hoe dragen door de EU gefinancierde AI-oplossingen bij tot de verwezenlijking van de doelstellingen van de Green Deal?

De Commissie zal het onderzoek op dit gebied blijven stimuleren door bij te dragen aan duurzame AI (bv. de ontwikkeling van minder data-intensieve en energieverbruikende AI-modellen). Er lopen specifieke oproepen tot het indienen van voorstellen in het kader van Horizon Europa op het gebied van AI, data en robotica ten dienste van de Green Deal en groenere AI. Zoals aangekondigd in de datastrategie van de EU, krijgt de Commissie met het programma Digitaal Europa de mogelijkheid om te investeren in milieuvriendelijke AI door dataruimtes op te zetten op gebieden als milieu, energie en landbouw, om ervoor te zorgen dat er meer data beschikbaar komen voor gebruik in de economie en de samenleving. Daarnaast zal de Commissie investeren in test- en experimenteerfaciliteiten met een specifieke focus op milieu/klimaat (zoals landbouw, industrie en slimme steden/gemeenschappen) om via hun groene dimensie bij te dragen aan de milieu- en klimaatdoelstellingen. De faciliteit voor herstel en veerkracht biedt een unieke kans voor nationale acties die de groene en digitale transities (waaronder AI) ondersteunen.

  • De nieuwe machineverordening

Wat is het verband tussen de machineverordening en AI?

De machineverordening zorgt ervoor dat de nieuwe generatie machineproducten de veiligheid van gebruikers en consumenten waarborgt en innovatie stimuleert. Machineproducten omvatten een breed scala aan producten voor consumenten en professionals, gaande van robots (schoonmaakrobots, robots voor persoonlijke verzorging, collaboratieve robots, industriële robots) tot grasmaaiers, 3D-printers, bouwmachines, industriële productielijnen.

Hoe past die verordening in het regelgevingskader voor AI?

Beide zijn complementair. De AI-verordening pakt de veiligheidsrisico's aan van AI-systemen die veiligheidsfuncties in machines waarborgen, terwijl de machineverordening zal zorgen voor de veilige integratie van het AI-systeem in de machine, zodat de veiligheid van de machine als geheel wordt gewaarborgd.

Op welke manier zal de nieuwe verordening een hoog veiligheidsniveau waarborgen?

In de machineverordening worden enkele bepalingen in verband met het toepassingsgebied, de definities en de veiligheidseisen aangepast om meer juridische duidelijkheid te scheppen en rekening te houden met de nieuwe kenmerken van machineproducten. Daarnaast hebben andere elementen tot doel een hoog veiligheidsniveau te waarborgen door classificatieregels vast te stellen voor machines met een hoog risico en door de invoering van een conformiteitsbeoordeling voor machineproducten die ingrijpend zijn gewijzigd.

Welke voordelen biedt dit voor het bedrijfsleven, met name voor kmo's?

Bedrijven hoeven voor beide verordeningen slechts één conformiteitsbeoordeling uit te voeren om aan zowel de AI- als de machineverordening te voldoen. De nieuwe wetgeving zal de administratieve en financiële lasten voor fabrikanten verminderen door instructies en conformiteitsverklaringen in digitaal formaat toe te staan en door voor kmo's een aanpassing van de vergoedingen te vragen als er een derde partij bij de conformiteitsbeoordeling van machines moet worden betrokken.

  • Volgende stappen

Het Europees Parlement i en de lidstaten zullen de voorstellen van de Commissie voor een Europese aanpak van kunstmatige intelligentie en voor machineproducten volgens de gewone wetgevingsprocedure behandelen. Zodra de definitieve verordeningen zijn vastgesteld, worden zij rechtstreeks toepasselijk in de hele EU. Tegelijkertijd zal de Commissie met de lidstaten blijven samenwerken om de in het gecoördineerde plan aangekondigde acties uit te voeren.