Antena Meniu Search
x

Curs valutar

Video Hoţii au învăţat Inteligenţa Artificială să aplice "Metoda Accidentul". Vocile apropiaţilor, imitate aproape perfect

Metoda "Accidentul" intră în era inteligenței artificiale. Telefoanele în miez de noapte, în care hoţii se dau drept cineva din familie care a avut un accident şi are nevoie de bani, vor deveni şi mai credibile. Escrocii se folosesc de AI pentru a reproduce perfect vocile persoanelor dragi. Iat sfaturile specialiştilor pentru a nu pica în capcana tehnologiei deepfake.

de Ana Grigore

la 23.01.2024 , 20:03

Metoda "accidentul" a devenit mai "eficientă", odată ce escrocii au învățat să folosească Inteligența Artificială.

Ana Grigore, reporter Observator: Computer si conexiune la internet. E tot ce au nevoie escrocii pentru a reproduce vocile unor persoane cu ajutorul inteligentei artificiale. Următorul pas, apelul. Victimele sunt sunate iar in momentul in care răspund, aud vocea reporodusă, care semănă izbitor cu cea a prietenilor sau a rudelor.

Totul pare atât de real incât mulți nu iși dau seama și, fără să se gândească, oferă bani sau obiecte de valoare.

Vezi și

Metodele prin care putem evita înșelătoriile

Pe acelaşi subiect

Sorin Stănică, reporter Observator: Urgenţa cu care încearcă autorul să obtina banii este un semn de întrebare. Induc ideea că telefonul persoanei la care fac referire a fost retinut. În cele mai multe situatii, politistii nu retin telefoanele implicate in asemenea evenimente. 

Robert Feraru, specialist social media: Sfatul meu este ca acele numere necunoscute care ne sună să nu dăm curs discuţiilor, să închidem din prima.

"Câteodată nu prea poti să îti dai seama, decât din tonalitate, pentru că e singurul lucru care nu s-a perfecționat"

Pe retelele de socializare circulă deja videoclipuri în care creatorii de continut explică metodele prin care putem evita înșelătoriile.

Mihai Rotariu, expert securitate cibernetică: Astfel de apeluri pot conține sși elemente identificabile dacă suntem foarte atenți. Cum ar fi o voce ușor distorsionată, pauze lungi în conversație, un limbaj sau poate expresii necaracteristice persoanei respective în numele căreia se face apelul.

Legea care introduce amenzi pentru deep fake a trecut de Senat şi va ajunge în Camera Deputatilor. Fenomenul a luat amploare la noi pana la cel mai inalt nivel. Ministrul Energiei, Sebastian Burduja, a depus plângere penală după o manipulare video în care promova o falsă schemă de investiții Enel.

România este pe locul al doilea, după Belgia, în clasamentul țărilor europene cu cea mai mare creștere a fenomenului deepfake în perioada 2022 - 2023. 

Ana Grigore Like

Mereu am fost curioasă să aflu ce se întâmplă în jurul meu, să cunosc oameni și povești. Meseria aceasta mă caracterizează cel mai bine și cred că ea m-a ales pe mine înainte ca eu să o aleg pe ea.

Comentarii


Întrebarea zilei
Dacă aţi putea alege din nou, aţi opta pentru acelaşi loc de muncă?
Observator » Evenimente » Hoţii au învăţat Inteligenţa Artificială să aplice "Metoda Accidentul". Vocile apropiaţilor, imitate aproape perfect