Apple va scana pozele din telefoanele americanilor pentru a detecta abuzurile sexuale asupra copiilor. Unii sunt îngrijoraţi că vor fi spionaţi
Apple a anunţat detalii despre implementarea unui sistem de identificare a materialelor cu caracter de abuz sexual asupra copiilor(CSAM -Child Sexual Abuse Material), care vor fi instalate pe dispozitivele americanilor.
După ce informaţia a apărut pe surse, la doar câteva ore distanţă, Apple a emis un comunicat prin care a detaliat viitoarea scanare a fotografiilor stocate de utilizatorii produselor sale în vederea depistării imaginilor care arată copii abuzaţi, potrivit News.ro. Informaţiile imaginilor scanate vor fi comparate cu cele din neuralMatch, un sistem antrenat pe baza a peste 200.000 de imagini. Când sistemul detectează ceva suspicios, este anunţată o echipă de moderatori de la Apple, care, la rândul ei, când va considera necesar, va anunţa instituţiile abilitate.
Cel mai controversat aspect vine din faptul că scanarea va fi realizată local, pe dispozitivul utilizatorului, înainte ca aceasta să fie salvată în iCloud. Fotografiile din iCloud erau scanate în acest scop şi până acum, însă, acum, pentru prima oară, Apple va realiza scanarea direct pe dispozitiv.
Specialiştii avertizează că sistemul de scanare al Apple ar putea ajunge o armă politică
Noul sistem va fi pus în aplicare, în Statele Unite, începând cu lunile următoare, pe iPhone, iPad, Mac şi Apple Watch. Aceeaşi tehnologie va funcţiona şi în aplicaţia iMessage. Apple este deja criticată pentru această decizie de către militanţii pentru apărarea intimităţii. De altfel, scanarea direct pe dispozitivele utilizatorilor pare să contravină cu imaginea de apărător al intimităţii pe care compania americană a încercat să şi-o creeze.
Cu toate acestea, există îngrijorări privind confidenţialitatea pe care o poate oferi această nouă tehnologie care ar putea fi extinsă pentru a scana telefoanele. Specialiştii consideră că acest soft poate fi modalitatea mai uşoară pentru spionarea dispozitivelor private. Compania Apple asigură însă că face tot posibilul pentru a găsi o modalitate sigură prin care dispozitivele americanilor să fie protejate şi asigură că sistemul de identificare va fi unul criptat. Potrivit lor, deși sistemul este în prezent instruit pentru a identifica abuzul sexual asupra copiilor, acesta ar putea fi folosit ca armă politică sau adaptat pentru a căuta orice alte imagini și texte vizate care pot reprezenta un abuz, ca de exemplu, semne antiguvernamentale la proteste.
Puteţi urmări ştirile Observator şi pe Google News şi WhatsApp! 📰