ZRP
Tuca Zbarcea & Asociatii

Viitorul raporturilor de muncă în era IA

28 Noiembrie 2024   |   Claudia Sofianu (Partener), Anca Atanasiu (Senior Managing Associate), Nicoleta Rusu (Associate) - Băncilă, Diaconu și Asociații SPRL

Pentru nerespectarea obligațiilor privind sistemele de IA cu grad de risc inacceptabil, angajatorii riscă amenzi de până la 35 de milioane EUR sau de până la 7% din cifra de afaceri mondială totală anuală pentru exercițiul financiar precedent.

 
 
În contextul avansării rapide a tehnologiilor de inteligență artificială (IA) în ultimii ani, Uniunea Europeană a răspuns prin elaborarea unui regulament care să abordeze provocările etice și riscurile asociate cu implementarea acestora. Regulamentul 2024/1689 al Parlamentului European și al Consiliului din 13 iunie 2024, de stabilire a unor norme armonizate privind inteligența artificială (Regulamentul privind IA) a intrat în vigoare la 1 august 2024 și este primul act legislativ care urmărește instituirea unui cadru uniformizat în această materie, asigurându-se că dezvoltarea și implementarea IA nu aduce atingere drepturilor fundamentale și promovează încrederea cetățenilor în noile tehnologii.

Utilizarea IA de către angajatori în relațiile de muncă pentru a simplifica și automatiza anumite procese (e.g., selectarea candidaților, monitorizarea performanței salariaților) nu reprezintă o noutate. Cu toate acestea, având în vedere tendința anumitor sisteme de IA de a perpetua practici discriminatorii sau prejudecăți, s-a dovedit necesară reglementarea unui nivel de protecție sporit pentru persoanele vizate, prin introducerea unor obligații complexe pentru entitățile care dezvoltă sau utilizează sisteme de IA în activitatea lor.


Riscurile utilizării IA în relațiile de muncă

Regulamentul adoptă o abordare bazată pe riscuri, clasificând sistemele de IA în patru categorii de risc: (i) inacceptabil, (ii) ridicat, (iii) limitat și (iv) minim.

Utilizarea IA pentru a deduce emoțiile unei persoane fizice în sfera locului de muncă prezintă un grad de risc inacceptabil și este interzisă, reprezentând o ingerință la adresa valorilor UE și a drepturilor fundamentale.

De asemenea, având în vedere impactul semnificativ pe care îl pot avea asupra carierei, mijloacelor de subzistență și drepturilor lucrătorilor, următoarele sisteme de IA din domeniul ocupării forței de muncă și gestionării lucrătorilor sunt considerate ca prezentând un grad ridicat de risc:

►    cele destinate recrutării sau selectării persoanelor fizice, în special pentru a plasa anunțuri de angajare direcționate în mod specific, pentru a analiza și a filtra candidaturile pentru locuri de muncă și pentru a evalua candidații;

►    cele destinate luării deciziilor care afectează termenii derulării relațiilor de muncă, promovarea și încetarea relațiilor contractuale legate de muncă, pentru a aloca sarcini pe baza comportamentului individual sau a trăsăturilor ori caracteristicilor personale sau pentru a monitoriza și evalua performanța și comportamentul persoanelor aflate în astfel de relații.
Prin excepție, aceste sisteme nu vor fi considerate ca având un grad ridicat de risc, dacă nu prezintă un risc semnificativ de a aduce prejudicii sănătății, siguranței sau drepturilor fundamentale ale persoanelor fizice, inclusiv prin faptul că nu influențează în mod semnificativ rezultatul procesului decizional (e.g., un sistem care îndeplinește o sarcină procedurală restrânsă, precum detectarea duplicatelor dintr-un număr mare de candidaturi). Cu toate acestea, chiar și în situațiile exceptate, aceste sisteme vor fi considerate întotdeauna ca prezentând un grad ridicat de risc, dacă creează profiluri ale persoanelor fizice.

Ce obligații au companiile care utilizează IA în relațiile de muncă?

Companiile care achiziționează și utilizează sisteme de IA cu grad ridicat de risc la locul de muncă vor face obiectul unor exigențe stricte în ceea ce privește utilizarea acestora, printre care amintim:

1.    Respectarea instrucțiunilor de utilizare: Companiile au obligația de a respecta instrucțiunile de utilizare puse la dispoziție de către furnizorii de sisteme IA, adoptând măsuri tehnice și organizatorice corespunzătoare în acest sens. Aceștia monitorizează funcționarea sistemului și notifică furnizorului și autorităților competente orice incident grav apărut în utilizarea sistemului. După caz, aceste informații pot fi utilizate pentru efectuarea evaluării impactului asupra protecției datelor, în temeiul Regulamentului general privind protecția datelor (RGPD).
2.    Supravegherea umană: Supravegherea sistemelor de IA cu grad ridicat de risc trebuie să fie încredințată unor persoane care dispun de competența, formarea, autoritatea și sprijinul necesar, fie prin angajarea de resurse umane adecvate, fie prin extinderea responsabilităților personalului relevant existent. Acestor persoane trebuie să li se permită, printre altele, să interpreteze corect rezultatele sistemului de IA cu grad ridicat de risc, ținând seama de instrumentele și metodele de interpretare disponibile, precum și să decidă să nu utilizeze sistemul de IA cu grad ridicat de risc sau să ignore, să anuleze sau să inverseze rezultatele acestuia.
3.    Pregătirea în domeniul IA: Companiile care implementează sisteme de IA trebuie să se asigure că atât personalul propriu, cât și alte persoane care se ocupă cu operarea și utilizarea sistemelor de IA în numele lor, dispun de competențele și cunoștințele necesare în materie, luând în considerare contextul și grupurile de persoane în legătură cu care urmează să fie folosite aceste sisteme.
4.    Informarea lucrătorilor: Înainte de a pune în funcțiune sau de a utiliza un sistem de IA cu grad ridicat de risc la locul de muncă, angajatorii trebuie să informeze reprezentanții lucrătorilor și lucrătorii afectați că vor fi implicați în utilizarea sistemului de IA cu grad ridicat de risc.
5.    Furnizarea de explicații: La cerere, companiile sunt obligate să furnizeze persoanei afectate de o decizie luată pe baza rezultatelor unui sistem de IA cu grad ridicat de risc explicații în legătură cu rolul sistemului în procedura decizională, dacă această decizie produce efecte juridice sau o afectează semnificativ de o manieră pe care o consideră a avea un impact negativ asupra sănătății, siguranței sau drepturilor sale fundamentale.
Implicații în materia protecției datelor cu caracter personal

Regulamentul privind IA nu aduce atingere drepturilor și obligațiilor prevăzute de Regulamentul general privind protecția datelor (RGPD). În acest sens, toți actorii implicați în lanțul valoric al IA ar trebui, în măsura în care acestea implică prelucrarea de date cu caracter personal, să aibă în vedere asigurarea conformității cu prevederile RGPD. O atenție deosebită va trebui acordată, printre altele, necesității efectuării evaluărilor impactului asupra datelor cu caracter personal, identificării și implementării proceselor decizionale automatizate și/sau profilării, dar și obligațiilor generale, precum identificarea bazei legale de prelucrare, acordarea și exercitarea drepturilor persoanelor vizate etc.

Sancțiuni

Pentru nerespectarea obligațiilor privind sistemele de IA cu grad de risc inacceptabil, angajatorii riscă amenzi de până la 35 de milioane EUR sau de până la 7% din cifra de afaceri mondială totală anuală pentru exercițiul financiar precedent.

În ceea ce privește sistemele de IA cu grad ridicat de risc, amenzile pot ajunge până la 15 milioane EUR sau 3% din cifra de afaceri mondială totală anuală pentru exercițiul financiar precedent.

Apreciem că angajatorii vor trebui să aibă în vedere și amenzile care pot fi aplicate pentru nerespectarea dispozițiilor în materia protecției datelor cu caracter personal. Pentru ușurință, reiterăm că acestea pot ajunge, în funcție de încălcare, până la 20 de milioane EUR sau, în cazul unei întreprinderi, de până la 4% din cifra de afaceri mondială totală anuală corespunzătoare exercițiului financiar anterior, luându-se în calcul cea mai mare valoare.

Concluzii și recomandări

Deși obligațiile privind sistemele de IA cu grad ridicat de risc vor intra în vigoare pe 2 august 2027, societățile care intenționează să implementeze astfel de instrumente înainte de acest termen ar trebui să ia în considerare următoarele:

►    efectuarea unei analize a sistemelor de IA, pentru a determina categoriile de risc în care se încadrează;
►    informarea salariaților și a reprezentanților, după caz, cu privire la implicarea acestora în utilizarea sistemelor de IA cu grad ridicat de risc la locul de muncă;
►    instruirea adecvată a salariaților prin organizarea de training-uri sau prin elaborarea unor politici interne privind implicațiile aferente introducerii tehnologiilor de IA în relațiile de muncă;
►    desemnarea persoanelor responsabile cu supravegherea umană a sistemelor, prin introducerea atribuțiilor corespunzătoare în fișa postului sau prin crearea unei noi funcții în cadrul organigramei.

 
 

PNSA

 
 

ARTICOLE PE ACEEASI TEMA

ARTICOLE DE ACELASI AUTOR


     

    Ascunde Reclama
     
     

    POSTEAZA UN COMENTARIU


    Nume *
    Email (nu va fi publicat) *
    Comentariu *
    Cod de securitate*







    * campuri obligatorii


    Articol 1575 / 10625
     

    Ascunde Reclama
    BREAKING NEWS
    ESENTIAL
    LegiTeam - Oportunitate de carieră | Avocat definitiv – Achiziții publice & Infrastructură
    LMG Life Sciences EMEA Awards 2026 | Cinci firme sunt în cursa pentru ”Romania Firm of the Year”, o casă de avocatură locală intră în bătălia paneuropeană din White Collar Crime și un singur avocat român este nominalizat individual. Lista scurtă, pe care sunt și NNDKP și Popescu & Asociații, arată o piață în care casele independente locale continuă să conteze, dar concurează cu rețele regionale la fel de capabile să capteze mandate sofisticate în sectorul Life Sciences
    PRRF asistă cu succes familia de investitori turci Gorgulu la închiderea a două tranzacții din domeniul energiei regenerabile în valoare de peste 27 mil. €
    Achiziții Publice | Cristina IVAN, Managing Partner Ivan şi Asociaţii: Arhitectura colectivă a ofertei - Cine ofertează, ce se evaluează, cui i se atribuie şi cine, în realitate, execută
    Inflația la control | Instanța confirmă: Fiscul datorează și actualizarea cu inflația, nu doar dobânda fiscală. Soluție obținută de Băncilă, Diaconu și Asociații, cu o echipă coordonată de Emanuel Băncilă (Partener)
    Dispute-Resolution.Center: România în Legal 500 EMEA (2026) – White-collar crime | O practică cu mai multe centre de putere: firmele cu activitate intensă, avocații care dau greutate practicii și dosarele care au contat în evaluare
    In-houseLegal: Loredana Coraș, Country Legal Counsel la PKO Bank Polski România, distinsă cu premiul Compliance Innovator la Lexology European Awards 2026 | ”Următoarea etapă a inovației în compliance și în activitatea juridică va fi definită de capacitatea de a integra tehnologia într-un mod responsabil, fără a pierde din vedere rolul acestei funcții, acela de a proteja banca”, spune unul dintre cei mai vizibili avocați interni din Europa
    Analiza de ansamblu Legal 500 EMEA - 2026: lideri, arii fanion și avocații care contează
    PNSA obține o soluție definitivă favorabilă la ÎCCJ într-un litigiu complex întemeiat pe îmbogățire fără justă cauză. Echipa, coordonată de Camelia Pătrașcu (Partener), cu implicarea, în diferite faze procedurale, a unei echipe extinse
    Concurenta.ro | Chambers Europe 2026 - Cine domină practica de Competition ̸ Antitrust: Liderii își apără pozițiile, dar presiunea venită din eșalonul secund și din zona firmelor de nișă devine tot mai vizibilă
    Achiziții-Publice.ro | România în ariile Projects și Projects & Energy din Chambers Europe 2026: NNDKP este liderul prezenței în vârful ierarhiei, iar Țuca Zbârcea & Asociații are o vizibilitate transversală foarte puternică. Filip & Company are una dintre cele mai bune formule de senioritate, iar CMS beneficiază pe profilul foarte puternic al Variniei Radu
    Dispute-Resolution.Center: Cei mai buni litigatori din România, văzuți de Chambers Europe 2026 | Cine sunt practicienii apreciați de clienți în practica de Dispute Resolution și ce spun clienții despre aceștia. 11 avocați români sunt evidențiați în practica de arbitraj
     
    Citeste pe SeeNews Digital Network
    • BizBanker

    • BizLeader

        in curand...
    • SeeNews

      in curand...