Video Hoţii au învăţat Inteligenţa Artificială să aplice "Metoda Accidentul". Vocile apropiaţilor, imitate aproape perfect
Metoda "Accidentul" intră în era inteligenței artificiale. Telefoanele în miez de noapte, în care hoţii se dau drept cineva din familie care a avut un accident şi are nevoie de bani, vor deveni şi mai credibile. Escrocii se folosesc de AI pentru a reproduce perfect vocile persoanelor dragi. Iat sfaturile specialiştilor pentru a nu pica în capcana tehnologiei deepfake.
Metoda "accidentul" a devenit mai "eficientă", odată ce escrocii au învățat să folosească Inteligența Artificială.
Ana Grigore, reporter Observator: Computer si conexiune la internet. E tot ce au nevoie escrocii pentru a reproduce vocile unor persoane cu ajutorul inteligentei artificiale. Următorul pas, apelul. Victimele sunt sunate iar in momentul in care răspund, aud vocea reporodusă, care semănă izbitor cu cea a prietenilor sau a rudelor.
Totul pare atât de real incât mulți nu iși dau seama și, fără să se gândească, oferă bani sau obiecte de valoare.
Metodele prin care putem evita înșelătoriile
- Un bărbat din Târgu Jiu a furat 10.000 de lei dintr-o sală de jocuri, profitând de neatenţia casieriţei....
- Cum a plănuit secretara primăriei din Giroc jefuirea propriului şef. Camerele au filmat-o cum lasă indivizi cu...
- Momentul în care un hoţ fură o sacoşă cu alimente scăpată din ochi de proprietar, în zona Unirii din Sighetu...
Sorin Stănică, reporter Observator: Urgenţa cu care încearcă autorul să obtina banii este un semn de întrebare. Induc ideea că telefonul persoanei la care fac referire a fost retinut. În cele mai multe situatii, politistii nu retin telefoanele implicate in asemenea evenimente.
Robert Feraru, specialist social media: Sfatul meu este ca acele numere necunoscute care ne sună să nu dăm curs discuţiilor, să închidem din prima.
"Câteodată nu prea poti să îti dai seama, decât din tonalitate, pentru că e singurul lucru care nu s-a perfecționat"
Pe retelele de socializare circulă deja videoclipuri în care creatorii de continut explică metodele prin care putem evita înșelătoriile.
Mihai Rotariu, expert securitate cibernetică: Astfel de apeluri pot conține sși elemente identificabile dacă suntem foarte atenți. Cum ar fi o voce ușor distorsionată, pauze lungi în conversație, un limbaj sau poate expresii necaracteristice persoanei respective în numele căreia se face apelul.
Legea care introduce amenzi pentru deep fake a trecut de Senat şi va ajunge în Camera Deputatilor. Fenomenul a luat amploare la noi pana la cel mai inalt nivel. Ministrul Energiei, Sebastian Burduja, a depus plângere penală după o manipulare video în care promova o falsă schemă de investiții Enel.
România este pe locul al doilea, după Belgia, în clasamentul țărilor europene cu cea mai mare creștere a fenomenului deepfake în perioada 2022 - 2023.
Puteţi urmări ştirile Observator şi pe Google News şi WhatsApp! 📰