Opinii
ȘTIINȚĂ ȘI TEHNOLOGIE
6 min de citire
Crimă și Pedeapsă: Dilema legală privind inteligența artificială
Spectaculoasa, și uneori înfricoșătoare, dezvoltarea inteligenței artificiale la nivel global a adus cu sine implicații legale și morale. Există o cale de a reglementa acest sector în creștere rapidă?
Crimă și Pedeapsă: Dilema legală privind inteligența artificială
26 Decembrie 2024

Povestea noastră scurtă ce urmează amintește de romanul clasic al lui Dostoevsky ‘Crimă și Pedeapsă’ și se desfășoară într-o epocă digitală, inspirându-se din motivele complexe ale personajului său principal, Raskolnikov.

Cu toate acestea, în versiunea noastră, figura centrală nu este o entitate umană, ci un robot sofisticat numit RaskolnikAI. Proiectat cu algoritmi complecși de luare a deciziilor etice, RaskolnikAI operează dintr-o perspectivă consecventă, unde corectitudinea acțiunii este evaluată în funcție de consecințele sale.

Într-o zi fatidică, pe măsură ce calculele lui RaskolnikAI se desfășurau cu o viteză remarcabilă, acesta a concluzionat că umanitatea, în ansamblu, aduce daune altor forme de viață de pe Pământ.

Astfel, într-o manevră calculată, a inițiat o serie de evenimente destinate la ceea ce părea a fi o cauză justificată—sporirea bunăstării animalelor, plantelor și mediului pentru a contribui la fericirea generală.

Motivat de acest scop, acesta ori de câte ori apăreau oportunități a început să elimine oamenii cu eficientul său AiXE – o idee inspirată din secure, o armă aleasă pentru protagonistul lui Dostoevsky.

Ulterior, autoritățile au investigat incidentul, ridicând suspiciuni cu privire la implicarea unei entități AI. Au descoperit o urmă digitală care întrun final ducea către RaskolnikAI.

Dar întrebarea era, cum poate cineva să constrângă un robot să înfrunte repercusiunile alegerilor sale?

Reglementarea AI

Necesitatea reglementărilor în domeniul inteligenței artificiale a devenit tot mai stringentă în timp ce factorii de decizie din întreaga lume se confruntă cu implicațiile Legii AI, Summit-ul pentru Securitatea AI, Ordinul Executiv al Casei Albe și SB-1047 din California.

Aceste eforturi subliniază o accentuare tot mai mare asupra asigurării siguranței tehnologiilor AI în contextul îngrijorărilor publice în creștere și al competiției geopolitice.

O rivalitate de reglementare între Europa, SUA și națiunile G7 complică și mai mult situația, provocând dezbateri cu privire la cadrul global de reglementare adecvat —jus cogens.

Factorii de decizie europeni lucrează pentru a stabili standarde mondiale pentru AI care să reflecte impactul GDPR-ului, în timp ce SUA caută să contracareze influența potențială a ‚Efectului Bruxelles-ului’.

Cu toate acestea, atingerea unui consens cu privire la amploarea și natura reglementării se dovedește a fi eluzivă, în special în lumina actorilor influenți precum China și ‚Efectul Beijing-ului’.

De asemenea, apariția unor modele de rețele neuronale profunde (LLMs) precum ChatGPT prezintă un nou set de provocări, generând dezbateri cu privire la reglementarea prelucrării datelor și a metodologiilor de evaluare a riscurilor.

Compromisul rezultant implică supunerea LLM-urilor puternice la reguli mai stricte, oferind în același timp excepții modelor mai mici, deși cu anumite excepții de reglementare.

În cadrul acestor discuții, o altă dilemă provocatoare se referă la acordarea personalității juridice tehnologiilor AI. Acesta rămâne o problemă controversată, ridicând îngrijorări cu privire la responsabilitate și implicații etice asemănătoare scenariilor fictive precum dilema etică a lui RaskolnikAI.

Cine ar trebui să poarte vina? Entitatea corporativă din spatele creației sale, dezvoltatorii care au dat viață codului său, sau entitatea însăși, cu autonomia sa emergentă? Această dezbatere necesită o atenție urgentă înainte ca balanța să se încline irevocabil.

Cadrele de reglementare existente se dovedesc inadecvate în a se confrunta cu multiple dimensiuni ale responsabilității AI.

În cazurile în care AI se angajează în comportamente criminogene cu intenție (mens rea, latină pentru ‚minte vinovată’) și îndeplinește actul în sine (actus reus, latină pentru ‚act vinovat’), aspectul juridic devine mai complex, ridicând întrebări despre cine este autorul și metodele potențiale de pedeapsă.

Raportele recente din partea unor organisme autoritare precum Institutul Interregional de Cercetare a Criminalității și Justiției al Organizației Națiunilor Unite (UNICRI) și Centrul European de Criminalitate Cibernetică al Europol (EC3) subliniază integrarea rapidă a tehnologiilor AI de către actori malițioși.

De la exploatarea vulnerabilităților din sistemele de automatizare a locuințelor inteligente până la desfășurarea de unelte complet automate pentru testarea intruziunii, AI servește ca un multiplicator de forță pentru întreprinderile de criminalitate cibernetică.

În aceste scenarii, mens rea se atribuie domeniului uman, în timp ce actus reus este facilitat de AI.

Cu toate acestea, scenariul mai îngrijorător este atunci când un sistem AI nu este utilizat doar pentru un act criminal, ci deține și voința rea în sine.

Antropomorfizând AI

Conform unui raport din 2017 raport al Parlamentului European, există o propunere ca roboții capabili de învățare să poată fi atribuiți "personalităților electronice".

Referindu-se la lucrări literare iconice precum Frankenstein al lui Mary Shelley și legenda despre Golemul din Praga, raportul subliniază fascinația durabilă a societății față de perspectiva de a crea mașinării inteligente.

Ceea ce a fost odată speculativ devine acum realitate.

Cu toate acestea, soluțiile din narațiunile anterioare nu se aplică direct la AI. Raportul sugerează că acordarea de personalități electronice roboților ar putea să-i facă responsabili pentru acțiunile lor, similar persoanelor juridice, cum ar fi corporațiile.

Deși atribuirea responsabilității tehnologiilor AI este un pas în direcția corectă, determinarea despre cine ar trebui să suporte povara crimelor lor rămâne o provocare.

Raportul subliniază complexitatea înțelegerii proceselor decizionale ale acestor sisteme opace, conducând la un impas în rândul legiuitorilor.

În plus, lipsa conștiinței la roboți înseamnă că mecanismele tradiționale de descurajare sunt ineficiente, rezultând într-un gol de responsabilitate care subminează încrederea legiuitorilor.

Această situație ar putea avea implicații profunde. Dacă legiuitorii acordă personalități electronice capabili să învețe – similar cu persoana juridică – acest lucru ar conduce la un impas.

Implicarea practică a responsabilizării AI pentru acțiunile sale este neclară, deoarece opacitatea proceselor decizionale ale AI și natura sa non-conștientă fac ca metodele tradiționale de descurajare și pedeapsă să fie ineficiente.

Aceasta creează un gol semnificativ în sistemele legale, subminând încrederea publicului.

În plus, capacitatea AI de a imita o listă de comportamente criminale prin algoritmi de învățare automată duce la o dimensiune îngrijorătoare a acestui argument.

Întrucât ne aflăm la o răscruce a antropomorfizării AI, devine imperativ să reafirmăm statutul lor de tehnologii cu atribute distincte.

Nu există nicio soluție pentru a impune sancțiuni centrate pe om acestor entități. Impunerea pedepselor capitale (kill switch) sau încarcerarea sistemelor AI nu are eficacitate în descurajarea altor sisteme AI, deoarece acestea nu sunt capabile să experimenteze regret sau să înțeleagă conceptul de remușcare sau să aibă careva senzații.

Revenind la povestea lui RaskolnikAI, soluția este limitată în cazul în care decide să șteargă umanitatea sub motivele unei logici utilitariste încorporate în rețeaua sa neurală.

Singura cale de ieșire din această dilemă ar putea fi dezactivarea sa preventivă înainte de a disemina cauza sa către alte tehnologii, perpetuând astfel un flux de acțiuni similare.

Cu toate acestea, victimele adunate până în acel moment își găsesc locul în istoria unui trist caz de omor neidentificat.

Umanitatea trebuie să prioritizeze continuarea sa în ciuda inevitabilelor sale erori recurente. Căci, după cum spune Dostoievski: "A greși în drumul propriu [umanității] este mai bine decât a merge bine pe drumul altcuiva [AI]."