Directoratul Național de Securitate Cibernetică (DNSC), instituție guvernamentală, a lansat un ghid privind identificarea materialelor de tip Deepfake, potrivit unui comunicat de presă. Ghidul oferă informații despre ceea ce înseamnă Deepfake, procesul de realizare și cum pot fi identificate.
Deepfake este o manipulare digitală a unei înregistrări video, audio sau a unei imagini, realizată cu ajutorul inteligenței artificiale (IA) sau a altor programe specializate.
Poate cel mai cunoscut exemplu vine lumea economică. Un video viral cu Mugur Isărescu, guvernator BNR, îți oferea sfaturi financiare.
Banca Națională a României (BNR) a avertizat publicul cu privire la o schemă de înșelăciune care implică utilizarea tehnologiei Deepfake pentru a crea videoclipuri false cu guvernatorul BNR. În aceste videoclip, guvernatorul pare să promoveze o platformă de investiții, însă BNR a declarat că acestea sunt false.
Scamul folosește IA pentru a modifica vocea și imaginea guvernatorului, cu scopul de a induce în eroare publicul pentru a participa la investiții frauduloase, promițând câștiguri financiare rapide și ușoare.
Figura 1 SCAM | Deepfake cu guvernatorul BNR Mugur Isărescu care promovează o platformă de investiții
Acesta este și scopul campaniilor. Într-un videoclip multiple personalități din diverse domenii recomandă insistent să faci investiții într-o anumită companie sau afacere, promițând profituri mari și riscuri minime.
Detaliile contează: Videoclipul este realizat profesional, cu o calitate a imaginii și sunetului ridicată. Persoana publică pare sinceră și convingătoare, folosind un limbaj accesibil și argumente persuasive.
Scopul campaniei: Un astfel de Deepfake ar putea fi folosit pentru a manipula populația să investească într-o afacere ilicită (scam1), deținută sau controlată de manipulatori.
Impact: Videoclipul este distribuit rapid pe rețelele de socializare, cu un potențial uriaș de a fi vizionat de milioane de oameni. Mulți dintre cei care văd videoclipul ar putea fi convinși să investească în afacerea recomandată, riscând ulterior să piardă sume semnificative de bani.
Un alt exemplu de înșelăciune
O femeie pensionară din Vaslui a fost victima unei escrocherii postată online pe platforma YouTube. Escrocii au creat un videoclip fals în care un cunoscut bancher și alte personalități cunoscute recomandau o platformă de investiții. Promisiunea unor profituri rapide a convins pensionara să investească suma de 52.000 de lei, economii strânse în 20 de ani de muncă. Chiar dacă femeia a raportat această fraudă autorităților, experții consideră că șansele de recuperare a fondurilor pierdute sunt minime.
Actorii rău intenționați devin tot mai inventivi. Acum pot imita perfect vocea unei persoane dragi pentru a vă păcăli. Te pot suna pretinzând că sunt un membru al familiei care are nevoie urgentă de bani.
Recomandăm ca întotdeauna să fie verificată identitatea apelantului, chiar dacă pare să fie o rudă sau un prieten cunoscut. Nu trimite niciodată bani în grabă și anunță imediat autoritățile dacă ai suspiciuni. Doar prin vigilență și informare te poți proteja de această formă de fraudă.
Invață să identifici o fraudă. Semne de identificare a unui Deepfake
Protejarea împotriva Deepfake-urilor este o provocare continuă, deoarece tehnologia se perfecționează constant, făcând conținutul manipulat tot mai greu de distins de cel real. Cu toate acestea, există anumite indicii care pot trăda un Deepfake, iată la ce anume trebuie să fim atenți:
- Mediul înconjurător (de exemplu, umbre inexistente, reflexii prea puternice, zone neclare)
- Imperfecțiuni ale feței (alunițe nerealiste, clipire nesincronizată, distorsiuni în interiorul gurii cum ar fi lipsa dinților și a limbii, dinți mult prea perfecți etc.)
- Nesincronizarea vorbirii/sunetului și a mișcării buzelor, de exemplu: din cauza strănutului
Nesincronizarea vorbirii/sunetului și a mișcării buzelor poate fi observată la pronunțarea literelor b, m și p. - Uneori apar pixeli în nuanțe de gri la marginile componentelor modificate. Se poate distinge dacă este vorba de o falsificare și atunci când persoana din înregistrare este privită dintr -un alt unghi. Dacă pentru crearea conținutului Deepfake nu s-au folosit fotografii ale persoanei din unghiuri diferite, algoritmul nu poate deduce aspectul persoanei din alt unghi, rezultând distorsiuni.
Ce să faci dacă ești victima unui Deepfake
Dacă te afli în situația neplăcută de a fi victima unui Deepfake, este important să acționezi rapid și eficient pentru a minimiza daunele. Iată câțiva pași pe care îi poți urma:
- Documentează abuzul: Salvează copii ale conținutului Deepfake, inclusiv URL-uri, capturi de ecran, sau orice altă formă de dovezi care ar putea fi relevante. Acest lucru este esențial pentru orice demersuri legale sau raportări ulterioare.
- Raportează conținutul: Majoritatea platformelor de socializare și site- urilor web au politici stricte împotriva Deepfake-urilor și a conținutului manipulat. Utilizatorii pot semnala cu ușurință conținutul suspect folosind funcția de raportare integrată a platformei.
- Contactează autoritățile: În cazuri grave, unde conținutul Deepfake încalcă legile privind defăimarea, hărțuirea sau distribuția de materiale pornografice fără consimțământ, poate fi necesar să contactezi autoritățile locale sau alte organisme de aplicare a legii.
- Solicită ajutor juridic: Consultă un avocat pentru a evalua opțiunile legale disponibile pentru tine. Aceasta poate include acțiuni legale împotriva celor care au creat sau distribuit conținutul Deepfake.
- Folosește servicii de gestionare a reputației online: Există companii specializate în îmbunătățirea prezenței online și în eliminarea sau diminuarea impactului conținutului negativ. Aceste servicii pot fi utile pentru a-ți proteja imaginea pe termen lung.
- Comunică cu transparență: Dacă Deepfake-ul are potențialul de a -ți afecta cariera sau relațiile personale, ia în considerare să vorbești deschis despre situație cu angajatorul, colegii sau persoanele apropiate. Oferirea contextului și a versiunii tale poate ajuta la diminuarea impactului negativ.
- Protejează-ți informațiile personale: În urma unui incident Deepfake, este important să fii mai precaut în ceea ce privește securitatea online. Verifică setările de confidențialitate pe rețelele sociale, schimbă parolele și monitorizează activitatea conturilor tale pentru semne de acces neautorizat.
- Suport emoțional: Trauma psihologică suferită de victima unui Deepfake poate fi semnificativă. Nu ezita să cauți sprijin din partea prietenilor, familiei sau a profesioniștilor în sănătate mintală.
- Educație și conștientizare: Ajută la creșterea gradului de conștientizare despre pericolele Deepfake- urilor prin împărtășirea experienței tale, dacă te simți confortabil. Acest lucru poate ajuta la informarea
și protejarea altora.
Acționând prompt și decisiv, poți trece prin provocările asociate cu a fi victima unui Deepfake și poți începe procesul de recuperare și protecție a reputației tale.
De ce este important să înțelegem Deepfake
Înțelegerea Deepfake-urilor este crucială, având implicații semnificative în societate, politică, securitate cibernetică și în manipularea încrederii publice. Impact asupra adevărului și încrederii: Deepfake-urile pot distorsiona realitatea, creând conținut video sau audio extrem de realist, care poate fi greu de distins de materialele autentice. Aceasta poate submina încrederea în mass-media și în informațiile pe care ne bazăm pentru a lua decizii informate.
Securitate și fraude: Tehnologia Deepfake poate fi folosită pentru a crea înregistrări false care implică persoane în activități pe care nu le -au realizat sau pentru a produce dovezi false în contexte juridice. De asemenea, poate fi utilizată în tentative de fraudă, cum ar fi falsificarea identității în apeluri telefonice sau video pentru a obține acces neautorizat la informații sau resurse financiare.
Manipulare și dezinformare: În politică și în alte domenii, Deepfake-urile pot fi folosite pentru a manipula opinia publică, a discredita adversarii sau a crea confuzie. Acestea pot influența alegerile, relațiile
internaționale și pot alimenta teorii ale conspirației.
Impact social și etic: Utilizarea imorală a tehnologiei Deepfake, pentru crearea de materiale compromițătoare sau hărțuirea online, ridică probleme serioase de etică și respectare a drepturilor individuale.
Pregătire pentru viitor: Pe măsură ce tehnologia continuă să avanseze, este probabil ca Deepfake-urile să devină tot mai sofisticate și mai greu de detectat. Înțelegerea modului în care funcționează și a modalităților de a le identifica este esențială pentru dezvoltarea de tehnologii și strategii care să contracareze utilizarea lor rău intenționată.
Educație și conștientizare: Educația publicului despre existența și capacitatea Deepfake-urilor poate ajuta la atenuarea impactului lor prin creșterea scepticismului sănătos față de conținutul dubios și încurajarea verificării informațiilor din surse multiple.
Pentru toate aceste motive, este important să dezvoltăm un nivel colectiv de înțelegere a Deepfake-urilor și a potențialului lor de a afecta societatea. Acest lucru ne va permite să navigăm într -o lume digitală tot mai complexă cu discernământ și o mai mare precauție.
Citeste AICI GHIDUL
Notă: acest ghid a fost parțial elaborat cu ajutorul inteligenței artificiale (IA).
O româncă în vârstă de 62 de ani, care trăiește în Spania, a crezut că vorbește cu Brad Pitt
Recent, publicația „La Region” a vorbit cu Elena Cornea, o româncă stabilită de 12 ani în Spania, care a povestit că „Brad Pitt” a contactat-o pe rețeaua de socializare și că a primit din partea acestuia un „card de membru VIP”, care ar fi trebuit să-i permită accesul la evenimente, întâlniri cu vedete și premii în bani.
„M-am abonat cu datele mele și a început să-mi trimită mesaje pe WhatsApp. Mi-a dovedit că este el cu permisul de conducere pe care era fotografia lui. Am rămas fără cuvinte”, a mărturisit femeia care trăiește în orașul Ourense .
„Mi-a oferit un pachet cu un cadou care venea din Statele Unite. Am primit o fotografie cu conținutul. Erau bijuterii și mulți bani, cam 50.000 de euro, și nu trebuia să plătesc decât 1.000 de euro taxe vamale. Am făcut transferul prin MoneyGram, m-am dus să ridic coletul și acesta nu exista. Banii mei au mers prin Moldova în Filipine. Apoi, falsul Brad Pitt mi-a cerut încă 3.000 de euro pentru a-mi trimite pachetul direct acasă”, a povestit ea.
Întrebată cum a ajuns să trimită banii, românca a mărturisit: „Ei bine, trebuia să vezi cum vorbește cu mine. Îmi trimitea inimi și sărutări, se juca foarte mult cu sentimentele și emoțiile mele. Mi-a spus că mă iubește”.