Reglamentul EU privind Inteligența Artificială

REGULAMENTUL (UE) 2024/1689 de stabilire a unor norme armonizate privind inteligența artificială (de asemenea, Legea privind inteligența artificială sau Legea AI) este un regulament al Uniunii Europene privind inteligența artificială (AI). Acesta stabilește un cadru de reglementare și legal comun pentru IA în cadrul Uniunii Europene (UE). Acesta intră în vigoare la 1 august 2024, prevederile intrând în vigoare treptat în următoarele 6 până la 36 de luni.

Prevederi

Categorii de risc

Există diferite categorii de risc în funcție de tipul de aplicație, cu o categorie specifică dedicată IA generativă de uz general:

  • Risc inacceptabil – aplicațiile AI din această categorie sunt interzise, cu excepția derogărilor specifice. Atunci când nu se aplică nicio derogare, acestea includ aplicațiile AI care manipulează comportamentul uman, cele care utilizează identificarea biometrică de la distanță în timp real (cum ar fi recunoașterea facială) în spațiile publice și cele utilizate pentru scorul social (clasificarea indivizilor în funcție de caracteristicile lor personale, statutul sau comportamentul economic).
  • Risc ridicat – aplicații AI despre care se așteaptă să prezinte amenințări semnificative la adresa sănătății, siguranței sau drepturilor fundamentale ale persoanelor. În special, sistemele AI utilizate în sănătate, educație, recrutare, managementul infrastructurii critice, aplicarea legii sau justiție. Acestea sunt supuse obligațiilor de calitate, transparență, supraveghere umană și siguranță și, în unele cazuri, necesită o „evaluare a impactului asupra drepturilor fundamentale” înainte de desfășurare. Acestea trebuie evaluate atât înainte de a fi introduse pe piață, cât și pe parcursul ciclului lor de viață. Lista aplicațiilor cu risc ridicat poate fi extinsă în timp, fără a fi necesară modificarea în sine a Actului AI.
  • AI de uz general – Adăugat în 2023, această categorie include în special modele de fundație precum ChatGPT. Acestea sunt supuse cerințelor de transparență. Sistemele AI de uz general de mare impact care ar putea prezenta riscuri sistemice (în special cele instruite folosind o capacitate de calcul care depășește 1025 FLOPS) trebuie să fie supuse, de asemenea, unui proces de evaluare amănunțit.
  • Risc limitat – sistemele AI din această categorie au obligații de transparență, asigurându-se că utilizatorii sunt informați că interacționează cu un sistem AI și permițându-le să facă alegeri în cunoștință de cauză. Această categorie include, de exemplu, aplicații AI care fac posibilă generarea sau manipularea imaginilor, sunetului sau videoclipurilor (cum ar fi deepfake-urile). În această categorie, modelele gratuite care sunt open source (adică ai căror parametri sunt disponibili public) nu sunt reglementate, cu unele excepții.
  • Risc minim – Această categorie include, de exemplu, sistemele AI utilizate pentru jocuri video sau filtre de spam. Majoritatea aplicațiilor AI sunt de așteptat să se încadreze în această categorie. Aceste sisteme nu sunt reglementate, iar statele membre nu pot impune reglementări suplimentare din cauza normelor de armonizare maximă. Legile naționale existente privind proiectarea sau utilizarea unor astfel de sisteme sunt anulate. Cu toate acestea, se sugerează un cod de conduită voluntar.

Scutiri

Articolele 2.3 și 2.6 scutesc sistemele AI utilizate în scopuri militare sau de securitate națională sau de cercetare și dezvoltare științifică pură de la Legea AI.

Articolul 5.2 interzice supravegherea video algoritmică numai dacă este efectuată în timp real. Excepțiile care permit supravegherea video algoritmică în timp real includ obiectivele poliției, inclusiv „o amenințare reală și prezentă sau reală și previzibilă de atac terorist”.

Considerentul 31 al actului prevede că acesta urmărește să interzică „sistemele de inteligență artificială care furnizează scoruri sociale ale persoanelor fizice de către actori publici sau privați”, dar permite „practicile legale de evaluare a persoanelor fizice care sunt efectuate într-un anumit scop în conformitate cu prevederile Uniunii și legislația națională.” La Quadrature du Net interpretează această scutire ca permițând sisteme de notare socială specifice sectorului, cum ar fi scorul de suspiciune utilizat de agenția franceză de plăți familiale Caisse d’allocations familiales.

Guvernare

Legea AI stabilește diferite organisme noi în articolul 64 și articolele următoare. Aceste organisme sunt însărcinate cu implementarea și aplicarea Legii. Abordarea combină coordonarea la nivelul UE cu implementarea națională, implicând atât autoritățile publice, cât și participarea sectorului privat.

Se vor înființa următoarele organisme noi:

  1. Biroul AI: de pe lângă Comisia Europeană, această autoritate va coordona punerea în aplicare a Actului AI în toate statele membre și va supraveghea conformitatea furnizorilor de IA cu scop general.
  2. Comitetul european de inteligență artificială: compus dintr-un reprezentant din fiecare stat membru, comitetul va consilia și va asista Comisia și statele membre pentru a facilita aplicarea consecventă și eficientă a Actului AI. Sarcinile sale includ colectarea și împărtășirea expertizei tehnice și de reglementare, furnizarea de recomandări, opinii scrise și alte sfaturi.
  3. Forum consultativ: înființat pentru a consilia și a oferi expertiză tehnică Consiliului și Comisiei, acest forum va reprezenta o selecție echilibrată de părți interesate, inclusiv industrie, start-up-uri, întreprinderi mici și mijlocii, societate civilă și mediul academic, asigurând că un un spectru larg de opinii este reprezentat în timpul procesului de implementare și aplicare.
  4. Grupul științific de experți independenți: acest grup va oferi consiliere tehnică și contribuții Oficiului AI și autorităților naționale, va aplica regulile pentru modelele de IA de uz general (în special prin lansarea de alerte calificate cu privire la posibilele riscuri pentru Oficiul AI) și va asigura că regulile și implementările Legii AI corespund celor mai recente descoperiri științifice.

În timp ce înființarea de noi organisme este planificată la nivelul UE, statele membre vor trebui să desemneze „autorități naționale competente”. Aceste autorități vor fi responsabile de asigurarea aplicării și implementării Legii AI și de efectuarea „supravegherii pieței”. Aceștia vor verifica dacă sistemele AI respectă reglementările, în special prin verificarea efectuării corespunzătoare a evaluărilor de conformitate și prin desemnarea unor terți să efectueze evaluări externe de conformitate.

Executarea

Actul reglementează intrarea pe piața internă a UE utilizând Noul Cadru Legislativ. Conține cerințe esențiale pe care toate sistemele AI trebuie să le îndeplinească pentru a accesa piața UE. Aceste cerințe esențiale sunt transmise organizațiilor europene de standardizare, care dezvoltă standarde tehnice care detaliază în continuare aceste cerințe.

Legea prevede ca statele membre să își înființeze propriile organisme de notificare. Evaluările de conformitate sunt efectuate pentru a verifica dacă sistemele AI respectă standardele stabilite în Legea AI. Această evaluare se poate face în două moduri: fie prin autoevaluare, în care furnizorul de sistem AI verifică conformitatea, fie prin evaluarea conformității de la terți, în care organismul de notificare efectuează evaluarea. Organismele de notificare au, de asemenea, autoritatea de a efectua audituri pentru a asigura evaluările adecvate ale conformității.

Au apărut critici cu privire la faptul că multe sisteme AI cu risc ridicat nu necesită evaluări de conformitate de la terți. Unii comentatori susțin că evaluările independente ale terților sunt necesare pentru sistemele AI cu risc ridicat pentru a asigura siguranța înainte de implementare. Specialiștii în drept au sugerat că sistemele de inteligență artificială capabile să genereze falsuri profunde pentru dezinformarea politică sau să creeze imagini intime neconsensuale ar trebui clasificate ca fiind cu risc ridicat și supuse unei reglementări mai stricte.


Sursă: