Apples CSAM-system ble lurt, men selskapet har to sikkerhetstiltak

Oppdatering: Apple nevnte en ny inspeksjon av serveren, og et profesjonelt datasynsfirma skisserte en mulighet for hva dette kunne beskrives i "Hvordan den andre inspeksjonen kan fungere" nedenfor.
Etter at utviklerne reverserte deler av det, har den tidlige versjonen av Apple CSAM-systemet blitt effektivt lurt for å markere et uskyldig bilde.Apple uttalte imidlertid at de har ytterligere sikkerhetstiltak for å forhindre at dette skjer i det virkelige liv.
Den siste utviklingen skjedde etter at NeuralHash-algoritmen ble publisert til utviklernettstedet GitHub med åpen kildekode, alle kan eksperimentere med det ...
Alle CSAM-systemer fungerer ved å importere en database med kjent materiale om seksuelle overgrep mot barn fra organisasjoner som National Center for Missing and Exploited Children (NCMEC).Databasen leveres i form av hasher eller digitale fingeravtrykk fra bilder.
Selv om de fleste teknologigiganter skanner bilder lastet opp i skyen, bruker Apple NeuralHash-algoritmen på kundens iPhone for å generere en hashverdi av det lagrede bildet, og sammenligner det deretter med den nedlastede kopien av CSAM-hashverdien.
I går hevdet en utvikler å ha reversert Apples algoritme og gitt ut koden til GitHub - denne påstanden ble effektivt bekreftet av Apple.
I løpet av få timer etter at GitHib ble utgitt, brukte forskerne algoritmen til å lage en tilsiktet falsk positiv - to helt forskjellige bilder som genererte samme hashverdi.Dette kalles en kollisjon.
For slike systemer er det alltid fare for kollisjoner, fordi hashen selvfølgelig er en sterkt forenklet representasjon av bildet, men det er overraskende at noen kan generere bildet så raskt.
Den bevisste kollisjonen her er bare et proof of concept.Utviklere har ikke tilgang til CSAM-hash-databasen, noe som vil kreve opprettelse av falske positiver i sanntidssystemet, men det beviser at kollisjonsangrep i prinsippet er relativt enkle.
Apple bekreftet effektivt at algoritmen er grunnlaget for sitt eget system, men fortalte hovedkortet at dette ikke er den endelige versjonen.Selskapet uttalte også at det aldri hadde til hensikt å holde det konfidensielt.
Apple fortalte Motherboard i en e-post at versjonen som ble analysert av brukeren på GitHub er en generisk versjon, ikke den endelige versjonen som ble brukt for iCloud Photo CSAM-deteksjon.Apple sa at de også avslørte algoritmen.
"NeuralHash-algoritmen [...] er en del av den signerte operativsystemkoden [og] sikkerhetsforskere kan bekrefte at oppførselen samsvarer med beskrivelsen," skrev et Apple-dokument.
Selskapet fortsatte med å si at det er to trinn til: kjøre et sekundært (hemmelig) matchingssystem på sin egen server, og manuell gjennomgang.
Apple uttalte også at etter at brukere har passert terskelen på 30 kamper, vil en andre ikke-offentlig algoritme som kjører på Apples servere sjekke resultatene.
"Denne uavhengige hashen ble valgt for å avvise muligheten for at den feilaktige NeuralHash samsvarer med den krypterte CSAM-databasen på enheten på grunn av motstridende forstyrrelser av ikke-CSAM-bilder og overskrider samsvarende terskelen."
Brad Dwyer fra Roboflow fant en måte å enkelt skille mellom de to bildene som ble lagt ut som et proof of concept for et kollisjonsangrep.
Jeg er nysgjerrig på hvordan disse bildene ser ut i CLIP av en lignende, men annerledes nevrale funksjonsekstraktor OpenAI.CLIP fungerer på samme måte som NeuralHash;den tar et bilde og bruker et nevralt nettverk til å generere et sett med funksjonsvektorer som kartlegger innholdet i bildet.
Men OpenAIs nettverk er annerledes.Det er en generell modell som kan kartlegge mellom bilder og tekst.Dette betyr at vi kan bruke det til å trekke ut menneskelig forståelig bildeinformasjon.
Jeg kjørte de to kollisjonsbildene ovenfor gjennom CLIP for å se om det også ble lurt.Det korte svaret er: nei.Dette betyr at Apple bør kunne bruke et ekstra funksjonsuttrekksnettverk (som CLIP) på de oppdagede CSAM-bildene for å finne ut om de er ekte eller falske.Det er mye vanskeligere å generere bilder som lurer to nettverk samtidig.
Til slutt, som nevnt tidligere, blir bildene gjennomgått manuelt for å bekrefte at de er CSAM.
En sikkerhetsforsker sa at den eneste reelle risikoen er at alle som ønsker å irritere Apple kan gi falske positiver til menneskelige anmeldere.
"Apple designet faktisk dette systemet, så hash-funksjonen trenger ikke å holdes hemmelig, fordi det eneste du kan gjøre med 'ikke-CSAM som CSAM' er å irritere Apples responsteam med noen søppelbilder til de implementerer filtre for å eliminere analyse Disse søppel i rørledningen er falske positiver, sa Nicholas Weaver, seniorforsker ved Institute of International Computer Science ved University of California, Berkeley, til Motherboard i en nettprat.
Personvern er et spørsmål av økende bekymring i dagens verden.Følg alle rapporter knyttet til personvern, sikkerhet osv. i våre retningslinjer.
Ben Lovejoy er en britisk teknisk skribent og EU-redaktør for 9to5Mac.Han er kjent for sine spalter og dagbokartikler, og utforsker erfaringen hans med Apple-produkter over tid for å få mer omfattende anmeldelser.Han skriver også romaner, det er to tekniske thrillere, noen få korte science fiction-filmer og en rom-com!


Innleggstid: 20. august 2021