Contactează-ne

Eveniment

Directoratul Naţional de Securitate Cibernetică (DNSC) a lansat „Ghidul privind identificarea materialelor de tip Deepfake”,

Știre publicată în urmă cu

în data de

■ ghidul semnalează pericolul Deepfake în campaniile electorale ■ un video credibil poate fi creat folosind o imagine statică a unei persoane ■ un nou instrument de la OpenAI poate clona vocea oricui folosind doar 15 secunde de sunet înregistrat ■

Directoratul Național de Securitate Cibernetică (DNSC) a lansat (la 1 aprilie, nici mai mult, nici mai puțin) Ghidul privind identificarea materialelor de tip Deepfake  (fals profund). Acest ghid reprezintă un instrument esențial pentru înțelegerea și abordarea provocărilor asociate cu fenomenul Deepfake , având ca obiectiv principal protejarea și educarea publicului cu privire la conștientizarea riscurilor de securitate cibernetică.

Conform definiției oferite de DNSC, ”Deepfake este o manipulare digitală a unei înregistrări video, audio sau a unei imagini, realizată cu ajutorul inteligenței artificiale (IA) sau a altor programe specializate”. Unul dintre exemplele oferite : un videoclip cu o personalitate publică oferă sfaturi financiare. În acest videoclip, persoana recomandă insistent investiția într-o anumită companie sau afacere, promițând profituri mari și riscuri minime.

Exemplu real: o schemă de înșelăciune semnalată publicului de Banca Națională a României (BNR) implica videoclipuri false cu guvernatorul BNR, Mugur Isărescu, create prin tehnologia Deepfake.  În aceste videoclipuri, guvernatorul pare să promoveze o platformă de investiții, dar BNR a declarat că acestea sunt false. Tehnologia creată prin IA, a permis modificarea vocii și a imaginii guvernatorului, cu scopul de a induce în eroare publicul pentru a participa la investiții frauduloase, promițând câștiguri financiare rapide și ușoare.

Pericolul Deepfake în contextul electoral

DNSC semnalează pericolul unui peisaj electoral modificat, în care ”granița dintre realitate și ficțiune se estompează în mod constant”, iar procesul electoral depășește simpla confruntare a ideologiilor și promisiunilor politice, transformându-se într-un teren complex de luptă ideologică.

Tehnologiile Deepfake, capabile a sintetiza realist imagini și voci , ”pot influența semnificativ opinia și votul alegătorilor în timpul campaniilor electorale, având un impact major asupra procesului democratic, din următoarele considerente: – Impactul asupra politicienilor: Reputația unui politician poate fi grav afectată de videoclipuri Deepfake fabricate, care pot discredita imaginea sa și pot deteriora șansele de a câștiga alegerile. Răspândirea dezinformării prin Deepfake poate manipula percepția publică asupra caracterului și programului politicianului, afectând negativ cariera sa politică. – Impactul asupra partidelor politice: Deepfake poate fi utilizat ca instrument strategic pentru a discredita partidele rivale, prin crearea de materiale false care să le prezinte într-o postură negativă. Promovarea agendei propriului partid prin Deepfake poate fi o modalitate eficientă de a influența opinia publică și de a atrage alegători. Utilizarea necorespunzătoare a Deepfake de către partidele politice poate duce la scandaluri și la pierderea încrederii publicului în sistemul politic. – Impactul grupurilor de interese: Deepfake poate fi utilizat de grupuri de interese din interiorul unei țări pentru a manipula opinia publică legată de probleme civice. Crearea de conținut falsificat adaptat la contextele locale poate intensifica sau calma nemulțumirile legate de anumite probleme sau evenimente. Utilizarea Deepfake de către grupurile de interese poate duce la polarizarea societății și la o erodare a discursului public democratic”.

Semne de identificare a unui Deepfake 

”Protejarea împotriva Deepfake-urilor este o provocare continuă, deoarece tehnologia se perfecționează constant, făcând conținutul manipulat tot mai greu de distins de cel real. Indicii care pot trăda un Deepfake, iată la ce anume trebuie să fim atenți: • Mediul înconjurător (de exemplu, umbre inexistente, reflexii prea puternice, zone neclare); • Imperfecțiuni ale feței (alunițe nerealiste, clipire nesincronizată, distorsiuni în interiorul gurii cum ar fi lipsa dinților și a limbii, dinți mult prea perfecți etc.); • Nesincronizarea vorbirii/sunetului și a mișcării buzelor, de exemplu: din cauza strănutului. Nesincronizarea vorbirii/sunetului și a mișcării buzelor poate fi observată la pronunțarea literelor b, m și p.” etc.

Sfaturi pentru a evita să fii păcălit de Deepfake-uri

”Evitarea înșelăciunii prin Deepfake necesită o combinație de scepticism sănătos, atenție la detalii și utilizarea unor instrumente de verificare.

Iată câteva sfaturi utile: • Nu crede tot ce vezi online! Internetul este o sursă vastă de informații, dar nu toate sunt veridice. Este important să dezvolți un scepticism sănătos și să analizezi cu atenție orice conținut video sau foto înainte de a-l accepta ca fiind real. • Caută semne de manipulare: Deepfake-urile pot fi foarte sofisticate, dar adesea pot fi identificate prin anumite indicii. Fii atent la discrepanțe de iluminare, erori de aliniere, nereguli ale pielii sau probleme de sincronizare a buzelor cu sunetul. • Verifică sursa: De unde provine videoclipul sau imaginea? Este distribuit pe o platformă de încredere? Caută confirmarea informației din surse credibile sau direct de la entitățile sau persoanele implicate. • Folosește instrumente de verificare: Există numeroase organizații și instrumente online care te pot ajuta să verifici dacă o informație este reală. Utilizează-le pentru a cerceta autenticitatea conținutului suspect. • Nu te baza pe o singură sursă: Caută confirmare din mai multe surse credibile. Un singur videoclip sau imagine nu este suficient pentru a verifica o informație. • Învață despre Deepfake-uri: Cu cât înțelegi mai bine cum funcționează această tehnologie, cu atât vei fi mai capabil să identifici falsurile. Există multe resurse online care explică principiile Deepfake-urilor și metodele de detectare”.

Tehnologii care evoluează extrem de rapid 

Deja, de la sfârșitul anului 2022, este în dezvoltare Voice Engine care poate produce voci sintetice care citesc mesaje text în limba vorbitorului sau în alte limbi.

Accesul inițial este acordat unor companii selectate, inclusiv Age of Learning și HeyGen, prezentând potențialul modelului în contexte educaționale și de povestire.

OpenAI subliniază importanța utilizării etice, solicitând companiilor partenere să obțină consimțământul pentru clonarea vocii și să informeze utilizatorii cu privire la utilizarea vocilor generate de AI (deși acest lucru nu va descuraja persoanele  rău intenționate).

Pe fondul preocupărilor tot mai mari cu privire la utilizarea abuzivă a vocii AI, OpenAI implementează măsuri precum filigranul audio și monitorizarea pentru a asigura o implementare responsabilă.

De ce ar trebui să ne pese: motorul de voce OpenAI reprezintă un progres semnificativ în tehnologia clonării vocii, evidențiind potențialul aplicațiilor inovatoare și abordând provocările etice și de securitate.

***

De notat că Deepfake ar putea egala și chiar întrece efortul personal al unora dintre politicienii noștri, perfect apți în manipula ei înșiși situații și realități. Va fi interesant de văzut ce rezultate va da competiția aceasta pentru publicul privitor la spectacol.

C.V.

Citește știrea
Postează comentariu

Lasă un răspuns

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

Advertisement








Trending