Explozia înșelăciunilor cu AI în 2025
Poliția Română atrage atenția asupra proliferării videoclipurilor false create cu ajutorul inteligenței artificiale (AI), utilizate de infractori pentru comiterea de fraude extinse. Aceste deepfake-uri sunt folosite nu doar pentru înșelăciuni financiare, ci și pentru manipularea opiniei publice și distrugerea reputației anumitor persoane.
Moduri de operare ale infractorilor
În anul 2025, cele mai frecvente tipuri de înșelăciuni cu deepfake includ:
- Trading scam și investment fraud: Videoclipuri deepfake cu oameni de afaceri sau politicieni care recomandă platforme de investiții în crypto sau forex, îndemnând victimele să depună bani pe site-uri false.
- Scam-uri caritabile: Deepfake-uri cu copii bolnavi sau celebrități care solicită donații urgente, conducând la pierderi financiare pentru donatori.
- Romance scam îmbunătățit: Infractorii creează profiluri false cu imagini atractive generate de AI pentru a dezvolta relații emoționale și a solicita bani pentru situații fictive.
- CEO/CFO fraud: Utilizarea video-call-urilor deepfake în care „șeful” solicită transferuri urgente de fonduri.
- Impersonare celebrități: Deepfake-uri cu personalități publice care promovează produse false sau oferă gratuități inexistente.
Impactul financiar și social
Statisticile din 2025 arată o creștere alarmantă a tentativelor de fraudă cu deepfake, cu pierderi financiare globale ce se ridică la zeci de miliarde de dolari anual. În plus, utilizarea imaginilor generate de AI pentru a crea identități fictive contribuie la diverse tipuri de înșelătorii, inclusiv romance scams și catfishing, ceea ce duce la traume emoționale și erodarea încrederii în instituții.
Consecințe periculoase
Utilizarea inteligenței artificiale în scopuri ilegale poate provoca efecte devastatoare, cum ar fi pierderi financiare directe, manipulare politică și distrugerea reputației personale. Aceste practici subminează încrederea în media și instituțiile publice, generând o atmosferă de neîncredere și confuzie în societate.
Explozia înșelăciunilor cu AI în 2025
În anul 2025, utilizarea tehnologiei AI a dus la o creștere alarmantă a înșelăciunilor, în special prin intermediul videoclipurilor false care prezintă polițiști, oameni de știință și celebrități. Aceste deepfake-uri sunt folosite pentru a comite fraude masive și pentru a răspândi dezinformare.
Identificarea videoclipurilor false
Poliția Română a emis recomandări pentru cetățeni cu privire la recunoașterea videoclipurilor manipulate. Iată câteva aspecte de care trebuie să ținem cont:
- Clipitul ochilor: În multe deepfake-uri, clipitul este anormal; deși acest aspect s-a îmbunătățit, încă pot apărea inconsistențe.
- Mișcările buzelor: Sincronizarea cu sunetul nu este întotdeauna perfectă, în special în limbile non-engleză.
- Iluminarea și umbrele: Verificarea dacă lumina de pe față se potrivește cu fundalul este esențială.
- Aspectul mâinilor: Degetele sunt adesea deformate sau în număr incorect, o slăbiciune majoră a multor modele A.I.
- Artefacte vizuale: Căutați pete ciudate, blur în jurul feței sau tranziții nenaturale.
- Verificarea surselor: Utilizați instrumente de căutare inversă a imaginilor pentru a verifica autenticitatea videoclipurilor.
Măsuri de protecție pentru cetățeni
Poliția recomandă următoarele măsuri de precauție pentru a preveni înșelăciunile:
- Nu dați click pe linkuri din reclame sau mesaje nesolicitate.
- Evitați să transferați bani către persoane cunoscute doar online.
- Verificați întotdeauna sursele oficiale ale informațiilor.
- Activați autentificarea în doi pași pentru conturile importante.
- Raportați conținutul suspect pe platformele de socializare.
Impactul deepfake-urilor asupra încrederii publicului
În plus față de fraudele financiare, infractorii folosesc videoclipuri hiper-realiste pentru a răspândi teorii conspiraționiste. Acestea includ:
- Videoclipuri cu „astronauți NASA” care susțin că aselenizarea a fost falsificată.
- Oameni de știință fictivi care afirmă că vaccinurile conțin cipuri 5G.
- Medici care recomandă tratamente neverificate pentru cancer.
- Martori oculari care răspândesc informații false despre conflicte internaționale.
Aceste tipuri de conținut nu mai sunt izolate, ci devin virale pe rețelele de socializare, fiind distribuite de conturi cu mulți urmăritori și preluate chiar și de mass-media care nu verifică sursele.
Explozia înșelăciunilor cu AI în 2025
În ultimul timp, au fost raportate numeroase cazuri de fraudă realizate cu ajutorul inteligenței artificiale, în care au fost create videoclipuri false cu persoane care se pretind a fi polițiști, consultanți financiari sau celebrități. Aceste materiale sunt utilizate pentru a înșela victimele, îndemnându-le să efectueze investiții fictive sau să ofere informații financiare, facilitând astfel tranzacții neautorizate.
Un comunicat de presă avertizează că polițiștii nu vor contacta niciodată cetățenii prin intermediul videoclipurilor, folosind diverse aplicații, și nu vor face recomandări de investiții. Colaborarea poliției cu instituțiile financiare se limitează la activități instituționale, cum ar fi recuperarea prejudiciilor, și nu implică comunicări directe cu cetățenii în legătură cu apeluri telefonice de la bănci sau alte entități financiare.
De asemenea, au fost distribuite fotografii ale persoanelor care pretind că sunt reprezentanți ai Poliției Române. Analizând aceste imagini, se observă clar că uniformele purtate nu corespund standardelor polițienești, iar gradele de pe umeri nu sunt conforme cu cele ale Poliției Române, care utilizează stele pentru a indica rangul.
Aceste noi tehnici de înșelăciune subliniază importanța de a fi precaut și de a verifica autenticitatea surselor înainte de a lua orice decizie financiară.