tisdag, mars 5, 2024

Kommissionen välkomnar politisk överenskommelse om rättsakten om artificiell intelligens

Kommissionen välkomnar den politiska överenskommelse om rättsakten om artificiell intelligens (AI-akten) som har nåtts mellan Europaparlamentet och rådet. Ett förslag till denna akt lades fram av kommissionen i april 2021.

– Artificiell intelligens har redan börjat förändra vår vardag, säger EU-kommissionens ordförande Ursula von der Leyen. Och det här är bara början. En utbredd och förnuftig användning av AI har potential att ge enorma fördelar för ekonomin och samhället. Jag välkomnar därför varmt dagens politiska överenskommelse mellan Europaparlamentet och rådet om rättsakten om artificiell intelligens. EU:s AI-akt är det första omfattande regelverket för AI i världen. Det här är alltså ett historiskt ögonblick. AI-akten tar med sig de europeiska värdena till en ny era. Genom att inrikta regleringen på identifierbara risker kommer dagens överenskommelse att främja ansvarsfull innovation i Europa. Genom att garantera människors och företags säkerhet och grundläggande rättigheter kommer den att stödja utvecklingen, införandet och användningen av tillförlitlig AI i EU. Vår AI-akt kommer att bidra väsentligt till utvecklingen av globala regler och principer för AI som sätter människan i centrum. 

Den europeiska strategin för tillförlitlig AI

De nya reglerna kommer direkt att börja gälla på samma sätt i alla EU-länder baserat på en framtidssäkrad definition av AI. En riskbaserad metod används:

Minimal risk: Den absoluta majoriteten av AI-systemen tillhör denna kategori. Tillämpningar med minimal risk, t.ex. AI-baserade rekommendationssystem eller spamfilter, kommer att undantas från skyldigheterna, eftersom dessa system utgör en minimal eller obefintlig risk för medborgarnas rättigheter eller säkerhet. Företag kan dock frivilligt åta sig att följa ytterligare uppförandekoder för dessa AI-system.

Hög risk: AI-system som identifieras som system med hög risk kommer att omfattas av strikta krav, bland annat riskreducerande system, dataset av hög kvalitet, loggning av åtgärder, detaljerad dokumentation, tydlig information till användaren, mänsklig tillsyn samt en hög nivå av robusthet, noggrannhet och cybersäkerhet. Regulatoriska sandlådor kommer att främja ansvarsfull innovation och utveckling av AI-system som uppfyller kraven.

Några exempel på AI-system med hög risk är viss kritisk infrastruktur (t.ex. för vatten, gas och el), medicintekniska produkter, system som används för att besluta om tillträde till utbildningsinstitutioner eller för rekrytering, eller vissa system som används inom brottsbekämpning, gränskontroll, rättskipning och demokratiska processer. Biometrisk identifiering, kategorisering och känsloigenkänning anses också utgöra en hög risk. 

Oacceptabel risk: AI-system som anses utgöra ett tydligt hot mot människors grundläggande rättigheter kommer att vara förbjudna. Detta inbegriper AI-system eller tillämpningar som manipulerar mänskligt beteende för att kringgå användarnas fria vilja, t.ex. leksaker som använder röstassistans som uppmuntrar minderåriga till farliga beteenden, system som stater eller företag kan använda för ”social poängsättning” och vissa tillämpningar för prognostiserat polisarbete. Viss användning av biometriska system kommer också att förbjudas, t.ex. system för känsloigenkänning på arbetsplatsen och vissa system för kategorisering av människor eller system för biometrisk fjärridentifiering i realtid på allmänt tillgängliga platser för brottsbekämpningsändamål (med snäva undantag).

Särskild transparensrisk: Vid användning av AI-system såsom chattbotar ska användarna vara medvetna om att de interagerar med en maskin. Deepfakes och annat AI-genererat innehåll måste märkas som sådant, och användarna måste informeras när system för biometrisk kategorisering eller känsloigenkänning används. Leverantörer måste också utforma system så att syntetiskt ljud-, video-, text- och bildinnehåll är märkt i ett maskinläsbart format och att det finns upplysningar om att det har skapats artificiellt eller manipulerats.

Böter

Företag som inte följer reglerna kommer att bötfällas. Böterna kommer att vara 35 miljoner euro eller 7 % av företagets totala globala årsomsättning (beroende på vilket som är högst) för bristande efterlevnad av förbud mot AI-tillämpningar, 15 miljoner euro eller 3 % för bristande efterlevnad av andra skyldigheter och 7,5 miljoner euro eller 1,5 % för tillhandahållande av oriktig information. Mer proportionella tak för administrativa böter föreskrivs för små och medelstora företag och nystartade företag när det gäller överträdelser av AI-akten.

AI för allmänna ändamål

Genom AI-akten införs särskilda regler för AI-modeller för allmänna ändamål som kommer att säkerställa transparens längs hela värdekedjan. För mycket kraftfulla modeller som kan utgöra systemiska risker kommer det att finnas ytterligare bindande skyldigheter vad gäller riskhantering och övervakning av allvarliga incidenter, som ska göras med hjälp av modellutvärdering och antagonistisk testning. Dessa nya skyldigheter kommer att konkretiseras genom handlingsregler framtagna av industrin, forskarsamhället, det civila samhället och andra berörda parter tillsammans med kommissionen.

När det gäller styrning ska de nationella behöriga marknadskontrollmyndigheterna kontrollera att de nya reglerna följs på nationell nivå, och inom EU-kommissionen ska det inrättas en ny europeisk byrå för AI som ska säkerställa samordning på europeisk nivå. Den nya AI-byrån kommer också att kontrollera genomförandet och efterlevnaden av de nya reglerna om AI-modeller för allmänna ändamål. Tillsammans med de nationella marknadskontrollmyndigheterna kommer AI-byrån att bli det första organet i världen som utövar tillsyn över bindande regler om AI. Det förväntas därför bli en internationell referenspunkt. När det gäller modeller för allmänna ändamål kommer en vetenskaplig panel bestående av oberoende experter att ha den viktiga uppgiften att utfärda varningar om systemrisker och hjälpa till att klassificera och testa modellerna.

Vad händer nu?

Den politiska överenskommelsen behöver nu godkännas formellt av Europaparlamentet och rådet. Den kommer att träda i kraft den 20:e dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. AI-akten kommer sedan att börja tillämpas två år efter ikraftträdandet, med undantag för vissa särskilda bestämmelser: Förbuden kommer att börja tillämpas efter sex månader och reglerna om AI för allmänna ändamål efter tolv månader.

För att överbrygga övergångsperioden innan hela förordningen börjar tillämpas kommer kommissionen att lansera en AI-pakt. Pakten för samman AI-utvecklare från Europa och resten av världen som frivilligt åtar sig att fullgöra de viktigaste skyldigheterna i AI-akten före de lagstadgade tidsfristerna.

För att främja regler om tillförlitlig AI på internationell nivå kommer EU att fortsätta arbetet i forum som G7, OECD, Europarådet, G20 och FN. Alldeles nyligen ställde vi oss bakom G7-ledarnas överenskommelse inom ramen för Hiroshimaprocessen för AI om internationella vägledande principer och en frivillig uppförandekod för avancerade AI-system.

Bakgrund

Kommissionen har i många år arbetat med att främja och stärka samarbetet kring AI i hela EU, för att öka EU:s konkurrenskraft och säkerställa förtroende på grundval av EU-värden. 

Efter offentliggörandet av den europeiska AI-strategin 2018 och omfattande samråd med berörda parter, utarbetade högnivåexpertgruppen för artificiell intelligens riktlinjer för tillförlitlig AI 2019 och bedömningslista för tillförlitlig AI 2020. Samtidigt lades den första samordnade AI-planen fram i december 2018 som ett gemensamt åtagande med medlemsländerna.

Kommissionens vitbok om AI, som lades fram 2020, har en tydlig vision för AI i Europa: ett ekosystem av spetskompetens och förtroende som ligger till grund för dagens politiska överenskommelse. Det offentliga samrådet om vitboken om AI hade många deltagare från hela världen. Vitboken åtföljdes av en rapport om konsekvenser för säkerhet och ansvar när det gäller AI, sakernas internet och robotteknik som fastställde att det finns luckor i den nuvarande produktsäkerhetslagstiftningen som behöver åtgärdas, i synnerhet i maskindirektivet.

Oberoende, evidensbaserad forskning som gjorts av gemensamma forskningscentrumet (JRC) har varit avgörande för utformningen av EU:s AI-politik och för att se till att denna politik genomförs effektivt. JRC har med gedigen forskning och analys stött utarbetandet av AI-akten och tagit fram underlag för AI-terminologi, riskklassificering och tekniska krav, samt bidragit den pågående utvecklingen av harmoniserade standarder.   

Källa: Europeiska kommissionen

- Annons -

Nyheter

-Annons-