Deputații Marius Iancu, Emil Albotă și Florin Barbu au inițiat un proiect de lege privind utilizarea responsabilă a tehnologiei în contextul fenomenului deepfake ( Fals Sever )

Inteligența Artificială (AI) s-a răspândit în întreaga lume, fiind folosită benefic în tot mai multe domenii, pentru că permite sistemelor computerizate să efectueze sarcini care sunt dificile sau imposibile pentru oameni. Aceasta este considerată un element central al transformării digitale a societății.  Însă Inteligența Artificială  este folosită și în sens negativ, în mod malițios, prin crearea de falsuri privind știri sau imagini, inexistente în realitate, sau a unor materiale de propagandă care par a fi emise de o sursă de încredere. Cum este, spre exemplu, mesajul video fals transmis românilor de către președintele Statelor Unite ale Americii, Joe Biden, apărut pe internet.

În acest context, deputații PSD de Olt, Marius Iancu, Emil Albotă și Florin Barbu, au inițiat alături de mai mulți colegi din Parlament, un proiect de lege privind utilizarea responsabilă a tehnologiei în contextul fenomenului deepfake ( Fals Sever).

 

Având în vedere dezvoltarea accelerată a tehnologiei, a inteligenței artificiale (IA), a tehnicilor de creare a Realității Virtuale (RA) precum şi avansul pe care îl înregistrează procesul de dezvoltare/învățare automată a instrumentelor tehnice (machine learning) este necesară și importantă intervenția legiuitorului pentru limitarea efectelor malitoase ale conținutului în imagini, în înregistrări audio si video.

 

Deputatul Emil Albotă ne informează că deepfakeul este mult mai periculos decât știrile false de până acum și că, deși poate să pară inofensiv, poate să aibă efecte negative de lungă durată:

”Specialiştii în domeniu consideră că deepfake-ul este mult mai periculos şi are un impact mult mai puternic decât ştirile false cu care ne-am obişnuit în ultimii ani, toate acestea deoarece deepfake-ul cuprinde toate elementele unui produs de media respectiv text, fotografie, video, audio.

Imaginile , înregistrările audio si video de tip Deepfake ( Fals Sever) pot cauza prejudicii enorme atât în ceea ce privește imaginea, reputația sau demnitatea unei persoane, cât si asupra unor organizații publice, private sau chiar instituții ale statului. Realizarea şi distribuirea unor îmagini, înregistrări audio sau video de tip Deepfake ( Fals Sever ) pot prejudicia, în funcţie de conținutul lor şi de contextul în care sunt gestionate, inclusiv interesul social, politic sau de securitate națională a României, pot să erodeze încrederea în instituţii ale statului, pot aduce prejudicii de imagine unei persoane.

 

Chiar dacă deepfake-urile pot părea inofensive, în realitate acestea pot avea efecte negative de lungă durată. Această tehnologie a deepfack-ului a evoluat pentru a fi din ce în ce mai convingătoare și disponibilă publicului, permiţând totodată perturbarea industriilor de media, divertisment si în ultimul timp a putut duce si la fraudă financiară considerabilă.

 Statele Unite ale Americii precum si unele state europene au încercat prin măsuri legislative limitarea acestui fenomen. Având în vedere că, în legislația română nu există nici o dispoziție legald care să îngrădească realizarea si difuzarea în scop malitios a unor imagini, înregistrări audio sau video concepute cu ajutorul inteligenței artificiale (IA) sau tehnicilor de augmentare a realității (RV), precum si, pe de altă parte, activitatea în domeniul artistic, al creaţiei publicitare şi de marketing a unor reclame ce utilizează aceste tehnologii, socotim imperativă crearea unui cadru legal si în tara noastră pentru utilizarea acestora astfel încât ele sa fie permise şi notificate ca atare doar atunci când scopul lor este legitim, comercial, identificabil şi asumat, respectiv să fie interzise în lipsa acestor notificări, în situația în care ele sunt concepute si difuzate în scop malitios”.

 

Potrivit proiectului de lege, distribuirea pe internet și/sau difuzarea în mass-media de conținut tip deep fake sunt interzise, dacă nu sunt însoțite de un avertisment redat pe cel puțin 10% din suprafața expunerii și pe toată durata difuzării respectivului conținut vizual sau de un mesaj sonor la începutul și la finalul conținutului audio: «Acest material conține ipostaze imaginare». 

Verificarea respectării sau încălcării acestor prevederi revine Consiliului Național al Audiovizualului (CNA), care poate colabora cu Institutul Național de Cercetare – Dezvoltare Informatică – ICI București.

Prima încălcare a obligației de a reda mesajul cu privire la caracterul imaginar al difuzărilor de tip deep fake urmează să fie sancționată cu amendă cuprinsă între 10.000 de lei și 100.000 de lei, iar a doua astfel de încălcare va fi amendată cu 20.000 de lei până la 200.000 de lei. Totodată,  CNA va putea dispune, prin decizie, oprirea de la difuzarea în mass-media a conținutului de tip deep fake neînsoțit de avertismentul sau de mesajul sonor și poate obliga autorul conținutului să îl elimine.