Inteligența artificială (IA) a devenit, în numeroase industrii, un instrument de lucru utilizat în mod curent în prestarea serviciilor. De la analiză de date, planificare și suport decizional, până la generare sau adaptare de conținut, sistemele IA sunt tot mai frecvent integrate în fluxurile operaționale ale companiilor, ca mijloace de eficientizare și optimizare a activității.
Prezentul articol are în vedere utilizarea sistemelor de inteligență artificială generativă – respectiv acele sisteme IA care, în urma procesării unor input-uri furnizate de utilizator, generează output-uri precum texte, imagini, materiale audio sau video ori combinații ale acestora.
Necesitatea verificării aplicabilității Regulamentului IA în cazul utilizării sistemelor IA generative în prestarea serviciilor. Așa cum reiese din prevederile art. 50 din Regulamentul UE 2024/1689 de stabilire a unor norme armonizate privind inteligența artificială (Regulamentul IA), sistemele IA generative sunt supuse unor obligații de conformare mult mai puțin stricte decât sistemele IA cu risc crescut (de exemplu, sistemele IA utilizate ca și componente de siguranță ale unor produse expres reglementate ori sisteme IA utilizate în domenii sensibile care pot impacta asupra drepturilor persoanelor, precum recrutare, evaluarea eligibilității pentru credit, justiție, educație. În esență, în ceea ce privește sistemele IA generative, obligațiile reglementate se referă în special la transparență și marcarea conținutului generat artificial – aceste obligații urmând să intre în vigoare începând cu 2 august 2026.
Deoarece limitele maxime armonizate ale sancțiunilor reglementate de Regulament pot ajunge, în funcție de natura încălcării, până la 3% din cifra de afaceri anuală globală a grupului sau 15 milioane de euro (fiind aplicabilă cea mai mare dintre ele), este evident că importanța evaluării obligațiilor aplicabile potrivit Regulamentului este esențială.
Astfel, societățile care utilizează astfel de sisteme IA în prestarea serviciilor trebuie să evalueze, de la caz la caz, în ce măsură le sunt aplicabile dispozițiile Regulamentului IA, în funcție tipul de sistem IA utilizat și de rolul efectiv pe care respectiva societate îl ocupă în lanțul IA (furnizor, utilizator, importator sau distribuitor – astfel cum aceste roluri sunt definite în art. 3 din Regulamentul IA).
Deoarece Regulamentul IA setează responsabilități și obligații specifice inclusiv în funcție de calitatea fiecărui actor din lanțul IA, identificarea corectă a acestui rol, potrivit criteriilor prevăzute de Regulamentul IA, este esențială pentru asigurarea conformității și evitarea sancțiunilor.
Utilizarea sistemelor IA dezvoltate de către terți. Din perspectivă operațională, utilizarea sistemelor IA se materializează, de regulă, sub două modalități. Prima constă în utilizarea unor sisteme IA dezvoltate de terți, precum ChatGPT, Copilot (inclusiv sub forma abonamentelor de tip corporativ puse la dispoziție de către terții furnizorii ai unor astfel de sisteme IA).
În acest caz, societatea care realizează o astfel de utilizare, are, de principiu, calitatea de utilizator, (în sensul art. 3 alin. (4) din Regulamentul IA) – revenind-i obligații de transparență în cazul conținuturilor de tip deep-fake sau a textelor publicate cu scopul de a informa publicul cu privire la probleme de interes public.[1]
Integrarea modelelor IA de uz general în aplicații/software-uri proprii. A doua ipoteză de utilizare a sistemelor IA – tot mai des întâlnită și care presupune paliere de analiză suplimentare – vizează utilizarea de către companii a unor software-uri sau aplicații interne adaptate nevoilor lor specifice care sunt dezvoltate pe cont propriu sau cu suportul unor societăți IT terțe, și care integrează modele IA de uz general furnizate de terți, prin mecanisme de tip API.
În acest caz, deși societatea care dezvoltă aplicația nu a avut nicio implicare în crearea sau antrenarea modelului IA pe care îl integrează, simpla integrare funcțională a acestuia conferă software-ului respectiv capabilități specifice inteligenței artificiale. Această integrare determină, pe de o parte, calificarea respectivului software drept un sistem IA (în sensul definiției din art. 3 (1) din Regulamentul UE privind inteligența artificială) și pe de altă parte, conferă societății respective calitatea de furnizor al sistemului IA, cu consecința aplicabilității normelor relevante din acest Regulament (în special, obligațiile de marcaj al conținutului generat artificial într-un format prelucrabil automat și detectabil – de exemplu, prin încorporarea unor metadate care să permită altor sisteme informatice să detecteze automat că un anumit conținut a fost generat sau modificat cu ajutorul IA).
În cazul acestor furnizori în aval care integrează modele IA de uz general în software-urile sau aplicațiile proprii se ridică și întrebarea în ce măsură anumite obligații specifice furnizorilor de modele de IA de uz general – astfel cum sunt acestea reglementate la art. 53 din Regulamentul IA (de exemplu realizarea unor documentații tehnice, politici privind respectarea drepturilor de autor, informații privind datele de antrenare) – pot deveni incidente și furnizorilor din aval, în special în ipoteza modificării sau adaptării semnificative a modelului.
Deși Regulamentul IA nu prevede o soluție clară cu privire la acest subiect, para. (109) din preambul prevede că: „În cazul unei modificări sau calibrări a unui model, obligațiile furnizorilor de modele de IA de uz general ar trebui să se limiteze la modificarea sau calibrarea respectivă, de exemplu prin completarea documentației tehnice deja existente cu informații privind modificările, inclusiv noi surse de date de antrenament, ca mijloc de respectare a obligațiilor privind lanțul valoric prevăzute în prezentul regulament„.
Deși raportat la stadiul actual al legislației nu pot fi trase concluzii ferme, cel mai probabil urmează ca această chestiune să fie clarificată în viitor, prin norme secundare, conduri de conduită și ghiduri de aplicare.
Reglementarea contractuală a aspectelor privind utilizarea IA în cadrul prestării serviciilor. Dincolo de obligațiile impuse de cadrul normativ aplicabil, folosirea inteligenței artificiale în cadrul prestării serviciilor către clienți finali impune necesitatea unei reglementări contractuale adecvate a modului în care aceste sisteme sunt utilizate în relația cu clienții.
Adeseori, atenția este concentrată pe limitările tehnologice ale acestor sisteme IA – bias, erori, lipsa de acuratețe sau imprevizibilitatea rezultatelor. Deși aceste aspecte sunt reale și nu pot fi eliminate complet, totuși, vulnerabilitățile generate de limitările inerente oricăror tehnologii IA pot fi atenuate și menținute sub control printr-o reglementare contractuală adecvată a modului în care IA este utilizat în prestarea serviciilor.
O astfel de reglementare contractuală implică o serie de aspecte-cheie precum:
- definirea unui standard de diligență aplicabil utilizării sistemelor IA, având în vedere limitările inerente ale acestor tehnologii;
- stabilirea mecanismelor de control uman, inclusiv în ceea ce privește validarea și utilizarea output-urilor generate de IA în cadrul livrabilelor;
- clarificarea regimului juridic al livrabilelor realizate cu ajutorul IA, în funcție de natura acestora și de rolul efectiv al tehnologiei în procesul de prestare;
- eventuale clauze de limitare a răspunderii;
- reglementarea input-urilor introduse în sistemele IA, în special atunci când acestea pot include informații sensibile sau confidențiale ale clientului, care necesită un nivel sporit de protecție;
- delimitarea aspectelor ce țin de drepturile de proprietate intelectuală, în special în ipoteza în care output-ul generat cu ajutorul IA ar putea constitui, în anumite circumstanțe, o operă protejată, precum și identificarea unor mecanisme contractuale de diminuare a riscurilor asociate generării unor conținuturi care ar putea intra în conflict cu drepturi de autor sau cu alte drepturi de proprietate intelectuală ale terților.
Desigur că elementele contractuale necesare pot să difere semnificativ în funcție de industria vizată, tipul serviciilor prestate și soluțiile IA efectiv utilizate, astfel că aplicarea unor clauze standardizate trebuie realizată cu o evaluare prealabilă specifică de la caz la caz.
Este deopotrivă important ca reglementările contractuale să fie corelate cu existența unor proceduri și politici interne adecvate, menite să guverneze utilizarea responsabilă a sistemelor IA de către personalul implicat în prestarea serviciilor, inclusiv din perspectiva controlului uman, a utilizării input-urilor și a respectării politicilor interne relevante.
Concluzii. Într-o perioadă în care tehnologiile IA se află într-o continuă evoluție, capacitatea de a corela cerințele de conformare legală cu realitățile tehnice și arhitectura contractuală devine un element esențial și necesar pentru gestionarea riscurilor juridice.
Pentru companii, aceasta înseamnă că:
- Conformitatea trebuie gândită de la început, nu doar când apare riscul de sancțiune;
- Contractele cu clienții și furnizorii trebuie revizuite pentru a adresa aspectele ce țin de utilizarea IA;
- Monitorizarea reglementărilor devine critică – pentru că multe clarificări oficiale (coduri de practică, ghiduri tehnice sau orice alt tip de legislație secundară) urmează să fie emise în viitor.
[1]Art. 50 (4) din Regulamentul IA: „Utilizatorii unui sistem de IA care generează sau manipulează imagini, conținuturi audio sau video care constituie deepfake-uri dezvăluie faptul că respectivul conținut a fost generat sau manipulat artificial. Această obligație nu se aplică în cazul în care utilizarea este autorizată prin lege pentru depistarea, prevenirea, investigarea sau urmărirea penală a infracțiunilor. În cazul în care conținutul face parte dintr-o operă sau dintr-un program de o vădită natură artistică, creativă, satirică, fictivă sau analogă, obligațiile de transparență prevăzute la prezentul alineat se limitează la divulgarea existenței unui astfel de conținut generat sau manipulat într-un mod adecvat, care să nu împiedice afișarea sau receptarea operei.
Utilizatorii unui sistem de IA care generează sau manipulează texte publicate cu scopul de a informa publicul cu privire la chestiuni de interes public dezvăluie faptul că textul a fost generat sau manipulat artificial. Această obligație nu se aplică în cazul în care utilizarea este autorizată prin lege pentru a depista, a preveni, a investiga sau a urmări penal infracțiunile sau în cazul în care conținutul generat de IA a fost supus unui proces de verificare editorială sau revizuire umană și responsabilitatea editorială pentru publicarea conținutului este deținută de o persoană fizică sau juridică.”
*Această ePublicație este furnizată de Radu Tărăcilă Pădurari Retevoescu SCA în scop exclusiv de informare și nu reprezintă asistență juridică sau o ofertă pentru acordarea de asistență juridică. Distribuirea acestui document nu dă naștere unei relații avocat-client. În cazul în care doriți să solicitați asistență juridică cu privire la oricare dintre aspectele analizate în acest document, vă rugăm să vă adresați persoanei obișnuite de contact în cadrul Radu Tărăcilă Pădurari Retevoescu SCA la +40 31 405 7777.



