Folosești AI în firmă? S-ar putea să fii deja în ilegalitate
Nu. Simplul fapt că o firmă folosește inteligență artificială nu o pune automat în ilegalitate.
Aceasta este prima clarificare necesară, pentru că discursul public tinde să fie, uneori, excesiv de alarmist și, în același timp, insuficient nuanțat.
În realitate, EU AI Act are o logică bazată pe risc: majoritatea sistemelor sunt tratate ca având risc limitat și nu sunt supuse unor obligații suplimentare semnificative. Regimul strict apare doar pentru practicile interzise, pentru sistemele cu risc ridicat și pentru anumite obligații de transparență.
Aplicarea generală a regulamentului începe la 2 august 2026. Cu toate acestea, o parte din reguli produc deja efecte: interdicțiile și obligația de alfabetizare în domeniul AI se aplică din 2 februarie 2025, iar anumite dispoziții privind guvernanța, sancțiunile și modelele de tip GPAI sunt aplicabile din 2 august 2025.
Prin urmare, discuția nu este una teoretică sau îndepărtată, ci una care privește prezentul imediat al modului în care companiile utilizează tehnologia.
AI nu este ilegal. Utilizarea lui fără control juridic poate deveni problematică.
Din perspectivă juridică, întrebarea apare frecvent în practică: este legal să folosești AI în firmă?
Răspunsul este da. Utilizarea AI este legală în majoritatea cazurilor, dar poate deveni neconformă dacă implică practici interzise, sisteme cu risc ridicat fără măsuri adecvate sau prelucrarea datelor personale fără respectarea GDPR.
AI în firmă este legal Riscuri și conformitate – Când devine folosirea AI problematică
Riscul real de neconformitate nu apare din simpla utilizare a AI, ci din modul în care acesta este integrat în activitatea unei firme.
AI Act interzice în mod expres o serie de practici care țin de manipulare, exploatare sau utilizare abuzivă a datelor și comportamentului uman. În această categorie intră tehnicile subliminale sau înșelătoare, exploatarea vulnerabilităților, social scoring-ul, evaluarea riscului penal exclusiv pe baza profilării, precum și utilizări intruzive ale biometriei, cum ar fi deducerea emoțiilor la locul de muncă sau crearea unor baze de date de recunoaștere facială prin colectare nețintită.
În aceste situații, cadrul juridic nu lasă loc de interpretări. Nu mai discutăm despre conformitate imperfectă, ci despre interdicție.
Altfel spus, când devine AI ilegal?
Utilizarea AI devine ilegală atunci când intră în categoria practicilor interzise de EU AI Act.
Dincolo de această zonă clar delimitată, există însă o categorie mult mai relevantă pentru mediul de afaceri: sistemele considerate cu risc ridicat. Acestea sunt, în esență, acele sisteme care influențează decizii importante privind persoane sau drepturi.
O firmă care utilizează AI în recrutare, în selecția candidaților sau în evaluarea performanței angajaților nu se mai află într-o zonă neutră. Nu înseamnă că utilizarea este interzisă, dar înseamnă că aceasta nu mai poate fi tratată ca un simplu instrument tehnic.
Devine necesară o abordare structurată, care presupune evaluarea riscurilor, documentație și mecanisme de control. În practică, aici apar cele mai multe probleme.
Chiar și în afara acestor situații, există obligații de transparență care, deși mai puțin vizibile, sunt relevante. Atunci când un sistem se prezintă ca fiind uman, când generează conținut sintetic sau când produce materiale susceptibile de a influența percepția publică, intervine obligația de informare.
Aceste cerințe nu sunt, în sine, complicate, dar ignorarea lor este frecventă și poate atrage consecințe juridice.
Pe scurt, din perspectiva EU AI Act, riscul juridic apare atunci când AI influențează decizii relevante sau este utilizat fără transparență.
Unde intervine GDPR-ul
În momentul în care un sistem de inteligență artificială prelucrează date cu caracter personal, analiza juridică nu mai poate rămâne limitată la AI Act.
Intră în discuție direct GDPR, iar întrebările devin mult mai concrete. Există un temei juridic pentru prelucrarea datelor? Este necesară o evaluare de impact asupra protecției datelor? Sunt respectate principiile de minimizare și securitate?
În practică, problema nu este AI-ul în sine, ci lipsa unei verificări a acestor elemente.
Formulat simplu, din perspectivă juridică: nu contează doar ce sistem AI folosești, ci ce date introduci în el.
În practică, riscul juridic nu vine din AI, ci din datele introduse în sistem.
Introducerea datelor în sisteme de tip AI – fie că este vorba despre CV-uri, date ale clienților sau informații interne – fără o analiză prealabilă poate transforma o utilizare aparent banală într-o sursă de risc juridic.
Dincolo de utilizare: poziția juridică a firmei
Un aspect mai puțin intuitiv, dar esențial, este poziția pe care o ocupă firma în raport cu sistemul AI.
Nu toate companiile sunt simple utilizatoare. În anumite situații, ele pot deveni furnizori în sensul regulamentului, de exemplu atunci când modifică un sistem existent sau îl integrează într-un produs propriu. Această schimbare de perspectivă nu este una formală, ci produce efecte juridice concrete.
Din perspectivă juridică, momentul în care o firmă devine furnizor de AI este esențial, pentru că determină un nivel mult mai ridicat de obligații.
Obligațiile aferente unui furnizor sunt considerabil mai extinse și includ, printre altele, cerințe de documentație, evaluări de conformitate și mecanisme de monitorizare. Din acest motiv, delimitarea corectă a rolului juridic devine un pas necesar în orice analiză serioasă.
Relația cu furnizorii și iluzia transferului de responsabilitate
Utilizarea unor soluții AI dezvoltate de terți este, în prezent, regula, nu excepția. Cu toate acestea, relația contractuală este rareori analizată în mod real.
Există tendința de a presupune că responsabilitatea revine furnizorului tehnologic. În practică, lucrurile sunt mai nuanțate. Termenii și condițiile acestor servicii limitează frecvent răspunderea furnizorului și transferă o parte semnificativă a riscului către utilizator.
Din perspectivă juridică, utilizarea unui serviciu disponibil pe piață nu echivalează cu externalizarea riscului.
Concluzia este simplă: riscul nu dispare, ci rămâne la cel care utilizează efectiv sistemul.
Necesitatea unei minime înțelegeri: AI literacy
Un alt element care capătă importanță este obligația de alfabetizare în domeniul AI. Departe de a fi o cerință pur formală, aceasta reflectă o schimbare de abordare: utilizarea tehnologiei implică o responsabilitate de înțelegere.
Companiile nu mai pot invoca necunoașterea modului de funcționare a sistemelor pe care le utilizează. Este necesar un nivel minim de conștientizare a riscurilor, atât la nivel managerial, cât și operațional. În practică, aceasta se traduce prin politici interne, instruire și o cultură organizațională orientată spre conformitate.
AI în firmă este legal Riscuri și conformitate – Problema trasabilității deciziilor
Utilizarea AI ridică, inevitabil, problema explicabilității.
În măsura în care un sistem influențează decizii relevante – cum ar fi selecția unui candidat sau evaluarea unui client – apare necesitatea de a putea explica raționamentul din spatele rezultatului. Conceptul de „black box”, deși tehnic acceptat, devine dificil de reconciliat cu cerințele juridice de transparență și responsabilitate.
Dacă o decizie nu poate fi explicată, ea devine dificil de justificat din perspectivă juridică.
Incapacitatea de a oferi o explicație coerentă nu este doar o problemă tehnică, ci poate deveni una juridică, în special în contextul unor eventuale controale sau litigii.
Concluzie
Titlul „Folosești AI în firmă? S-ar putea să fii deja în ilegalitate” este, într-adevăr, prea categoric.
Utilizarea AI nu este ilegală în sine. Devine problematică doar în anumite situații clar definite de lege.
O firmă poate fi deja în neconformitate dacă utilizează AI în cadrul unor practici interzise, dacă operează sisteme cu risc ridicat fără măsurile necesare sau dacă prelucrează date personale fără temei juridic și fără evaluările cerute de GDPR.
În rest, utilizarea AI ca instrument intern nu este, prin ea însăși, ilegală.
Diferența nu o face existența tehnologiei, ci modul în care aceasta este utilizată și controlată. Iar acest mod începe să fie, din ce în ce mai clar, supus unor reguli juridice care nu mai pot fi ignorate.
Pe scurt: utilizarea AI este legală în majoritatea cazurilor, dar devine riscantă atunci când este folosită fără respectarea cadrului legal aplicabil.
Dacă vrei să înțelegi unde te afli
În practică, majoritatea firmelor nu sunt „în ilegalitate”, dar nici nu pot spune, cu certitudine, că sunt conforme.
Dacă folosești AI în activitatea ta și nu ai făcut o analiză juridică reală, este foarte probabil să existe zone neclare sau riscuri neidentificate.
O evaluare punctuală poate clarifica rapid:
- ce tip de sisteme folosești
- dacă intri în zona de risc ridicat
- dacă există obligații neîndeplinite
Iar, uneori, diferența dintre conformitate și problemă apare exact în aceste detalii.








