Latest Posts

Liniile directoare ale UNESCO pentru utilizarea IA în justiție

În anul 2023, un studiu UNESCO privind utilizarea sistemelor AI de către operatorii judiciari a constatat că 93% dintre operatorii judiciari intervievați erau familiarizați cu tehnologiile AI, iar 44% utilizau deja instrumente AI precum ChatGPT pentru activitățile legate de muncă. Cu toate acestea, doar 9% dintre operatorii judiciari intervievați au raportat că organizațiile lor au emis ghiduri […]

În anul 2023, un studiu UNESCO privind utilizarea sistemelor AI de către operatorii judiciari a constatat că 93% dintre operatorii judiciari intervievați erau familiarizați cu tehnologiile AI, iar 44% utilizau deja instrumente AI precum ChatGPT pentru activitățile legate de muncă. Cu toate acestea, doar 9% dintre operatorii judiciari intervievați au raportat că organizațiile lor au emis ghiduri sau au oferit formare în domeniul IA, subliniind astfel necesitatea unor instrucțiuni privind utilizarea sistemelor IA în instanțe și tribunale.

UNESCO, în colaborare cu experți internaționali, a elaborat un proiect de orientări pentru utilizarea IA în instanțele de judecată. Orientările, elaborate pe baza Recomandării UNESCO privind etica inteligenței artificiale, urmăresc să garanteze că tehnologiile IA sunt integrate în sistemele judiciare într-un mod care sprijină justiția, drepturile omului și statul de drept.

Liniile directoare sunt deschise pentru consultare publică în limba engleză până la data 5 septembrie 2024.

UNESCO încurajează părțile interesate, judecători, procurori, personal administrativ din cadrul instanțelor, avocații și publicul larg  să ofere feedback cu privire la proiect.

Proiectul poate fi consultat în limba engleză aici.

Trimiteți comentariile / feedback-ul dumneavoastră prin intermediul formularului de aici.

În continuare, extragem din Liniile directoare UNESCO principiile care ar trebui să ghideze personalul instanțelor în folosirea sistemelor IA, precum și aspectele referitoare la necesitatea alfabetizării personalului din justiție în domeniul IA, precum și avantajele și limitările sistemelor IA de uz general (e.g. ChatGPT)

Vă reamintim pe această cale că la data de 1 august 2024 a intrat în vigoare Regulamentul (UE) 2024/1689 privind inteligența artificială, iar sistemele IA folosite în justiție sunt încadrate în categoria sistemelor IA cu risc ridicat.

Principiile

Personalul din justiție trebuie să respecte treisprezece principii atunci când implementează și folosesc orice sistem IA, inclusiv GPAIS ( sisteme IA de uz general)

  1. Protecția drepturilor omului– cu accent pe:
      • Echitatea – adoptarea unor sisteme IA care urmăresc atingerea obiectivelor în timpul administrării justiției prin garantarea echității;
      • Nediscriminarea – sistemele IA folosite să nu reproducă, perpetueze sau agraveze prejudecățile
      • Echitatea procedurală – evaluarea implicațiilor sistemelor IA pentru echitatea procedurală pe parcursul întregului ciclu de viață al sistemului
      • Protecția datelor cu caracter personal – adoptarea unor sisteme care să protejeze datele cu caracter personal prelucrate pentru administrarea justiției și implementarea unor instrumente care să contribuie la anonimizarea hotărârilor judecătorești
  2. Proporționalitatea – adoptarea unor sisteme IA care urmăresc atingerea unor scopuri legitime și proporționale în contextul utilizării lor
  3. Siguranța – adoptarea unor sisteme IA care evită, abordează, previn sau elimină situațiile nedorite;
  4. Securitatea informațiilor – adoptarea unor sisteme IA care protejează informațiile confidențiale în conformitate cu standardele internaționale privind accesul la informații
  5. Utilizarea în cunoștință de cauză a sistemelor IA – înțelegerea funcționalităților, impactului, riscurilor și limitărilor sistemelor IA disponibile pentru a lua decizii în cunoștință de cauză cu privire la punerea lor în aplicare în sprijinul activităților judiciare
  6. Utilizarea transparentă – informarea în mod adecvat și în timp util cu privire la momentul și modul în care sunt utilizate sistemele IA, în special atunci când deciziile luate cu sau pe baza acestor instrumente pot afecta drepturile și libertățile persoanelor sau ale comunităților
  7. Răspunderea și controlul – asigurarea răspunderii prin informarea și explicarea motivelor pentru care anumite instrumente IA au fost adoptate de sistemul judiciar și prin asigurarea trasabilității proceselor și rezultatelor sistemelor IA, în special atunci când astfel de instrumente sunt folosite pentru procesele decizionale. Implementarea de măsuri administrative și remedii judiciare (căi de atac) pentru a garanta auditarea sistemelor de IA în timpul și după implementarea lor. În opinia noastră, toolkit-ul pentru controlul judiciar al unor astfel de sisteme ar trebui să fie asigurat de dreptul administrativ întrucât folosirea practicilor interzise de IA, sau folosirea unor sisteme IA neconforme reprezintă un abuz de putere.
  1. Transparența și furnizarea de informații implementatorilor – adoptarea unor sisteme IA transparente în ceea ce privește modul în care funcționează sistemul, modul în care a fost dezvoltat, seturi de date pentru antrenament, testare și validare, limitările sale (inclusiv marja de eroare). Transparența se referă la faptul de face inteligibile pentru implementatori și utilizatori datele de intrare, rezultatele și modul de funcționare a sistemelor IA.
  2. Acuratețea și fiabilitatea – sisteme IA care pot furniza informații utile și pertinente și pot produce predicții.
  3. Supravegherea umană – personalul din justiție nu trebuie să se bazeze exclusiv pe sistemele IA în adoptarea deciziei sau să automatizeze proceduri întregi care pot avea un impact negativ asupra drepturilor și libertăților persoanelor sau comunităților. De asemenea, trebuie menținut un nivel adecvat de control și implicare umană în ceea ce privește toate sistemele de IA.
  4. Proiectarea sistemelor IA centrată pe om – dezvoltarea, implementarea și utilizarea sistemelor de inteligență artificială ar trebui să respecte principiile de proiectare centrată pe om pentru a completa și spori capacitățile sistemului judiciar și pentru a respecta demnitatea și autonomia umană.
  5. Responsabilitatea – organizațiile din sistemul judiciar care implementează sisteme IA și persoanele care utilizează sisteme IA trebuie să-și asume responsabilitatea pentru deciziile și acțiunile întreprinse cu sprijinul instrumentelor de IA, fără a exclude răspunderea potențială a furnizorului în cazul în care sistemul IA este defect.
  6. Guvernanța datelor și colaborare între părțile interesate – organizațiile care fac parte din sistemul judiciar ar trebui să consulte diverse părți interesate pe tot parcursul ciclului de viață al sistemului IA, în special pe cele care pot fi afectate direct sau indirect de implementarea acestuia.

 

Alfabetizarea în domeniul IA a personalului din justiție

  • Persoanele fizice ar trebui să fie conștiente de funcționalitățile, avantajele și acuratețea sistemelor AI, precum și de limitările, prejudecățile și riscurile acestora în contextul activităților juridice. Acestea din urmă includ, de asemenea, conștientizarea responsabilităților care decurg din utilizarea neglijentă a acestor instrumente. Organizațiile sistemului judiciar ar trebui să se asigure că persoanele fizice au acces la programe educaționale și la formare continuă pentru a dezvolta competențe esențiale în domeniul inteligenței artificiale. Aceste competențe ar trebui să le permită persoanelor să înțeleagă fundamentele IA, să identifice funcționalitățile și scopurile diverselor sisteme IA (în special cele implementate în organizația lor), să înțeleagă limitele și riscurile acestor instrumente, să învețe cum să utilizeze sistemele IA în mod etic și responsabil și să evalueze în mod critic rezultatele și performanțele instrumentelor.
  • Personalul din justiție trebuie să utilizeze instrumente IA care au fost evaluate în ceea ce privește impactului algoritmic. Evaluarea instrumentelor de inteligență artificială menite să sprijine procesele decizionale este necesară pentru a identifica implicațiile pentru accesul la justiție și drepturile individuale, precum și riscurile potențiale. Dacă utilizează instrumente IA furnizate de terți, trebuie să se asigure că acestea au fost evaluate în ceea ce privește impactul asupra drepturilor omului.

Avantajele și limitările utilizării sistemelor IA de uz general

  1. Conștientizarea funcționalităților, dar și a limitărilor; membrii sistemului judiciar care vor utiliza sisteme IA de uz general trebuie să fie conștienți de avantajele, de limitările acestora și de riscurile asociate (de exemplu, rezultate părtinitoare, incorecte) în situația în care le folosesc pentru redactarea de documente juridice și/sau sprijinirea participării la procedurile judiciare, precum și sprijinirea activităților de gestionare a instanțelor (de exemplu, traducerea).
  2. Autenticitatea și integritatea conținutului. Asigurarea autenticității și integrității conținutului în sistemul judiciar. Pentru a realiza acest lucru, ar trebui luate mai multe măsuri.
      • Toate documentele juridice, analize de probe sau orice acte generate de AI ar trebui să fie etichetate în mod clar ca fiind asistate de IA astfel încât judecătorii, avocații și părțile implicate să fie conștienți de natura conținutului. Asigurați-vă că materialele produse sau publicate cu ajutorul AI sunt recunoscute și diferențiate cu ajutorul ghilimelelor sau al
      • Ar trebui implementate sisteme robuste pentru a urmări dezvoltarea și modificările conținutului juridic generat de AI. Acest lucru este important în scopuri probatorii, deoarece asigură faptul că toate materialele utilizate în instanță pot fi verificate din punct de vedere al autenticității. De exemplu, dacă un instrument AI a fost utilizat pentru a crea sau modifica un document juridic, ar trebui să existe o înregistrare clară a momentului și a modului în care a fost utilizat.
      • Ar trebui elaborate protocoale de certificare pentru instrumentele AI utilizate în sistemul judiciar, care să verifice dacă acestea respectă orientările etice internaționale și locale, precum și standardele juridice ale fiecărei jurisdicții în materie de acuratețe și fiabilitate. Un exemplu în acest sens ar putea fi un proces de certificare pentru un instrument de inteligență artificială care este utilizat pentru a analiza probe, asigurându-se că acesta este suficient de precis și fiabil pentru a fi utilizat într-o instanță de judecată.
  3. Restricții de utilizare. Ar trebui emise orientări specifice care să reglementeze utilizarea IA generativă în sistemul judiciar pentru a preveni utilizarea abuzivă și a proteja integritatea procesului juridic. Anumite aplicații ale IA ar trebui să fie interzise sau limitate, având în vedere impactul lor asupra drepturilor omului. De exemplu, atunci când condițiile de utilizare a unui instrument de inteligență artificială generativă indică faptul că indicațiile utilizatorului vor fi utilizate de furnizor pentru formarea modelelor sale sau că terții pot avea acces la aceste indicații, atunci utilizarea unui astfel de instrument ar trebui să fie interzisă sau limitată pentru a preveni pierderea controlului de către sistemul judiciar asupra persoanelor care pot avea acces la informații confidențiale sau la date cu caracter personal.

This is a heading.