Förklarat: Hur Apple kommer att söka efter bilder av barnexploatering på enheter och varför det höjer ögonbrynen
Förväntas gå live i USA initialt, funktionerna inkluderar användning av ny teknik för att begränsa spridningen av CSAM online, särskilt via Apple-plattformen.

Apple har meddelat det programuppdateringar senare i år kommer att ge nya funktioner som kommer att hjälpa till att skydda barn från rovdjur som använder kommunikationsverktyg för att rekrytera och utnyttja dem, och begränsa spridningen av material för sexuellt övergrepp mot barn (CSAM).
Förväntas gå live i USA initialt, funktionerna inkluderar användning av ny teknik för att begränsa spridningen av CSAM online, särskilt via Apple-plattformen.
Sedan kommer det att finnas skydd på enheten för barn från att skicka eller ta emot känsligt innehåll, med mekanismer för att varna föräldrar om användaren är under 13 år. Apple kommer också att ingripa när Siri eller Search används för att slå upp CSAM-relaterade ämnen .
Vilken teknik gör Apple för att förhindra spridning av CSAM online?
I ett blogginlägg förklarade Apple att de kommer att använda kryptografiapplikationer via iOS och iPadOS för att matcha kända CSAM-bilder lagrade på iCloud Photo. Tekniken kommer att matcha bilder på en användares iCloud med kända bilder från barnsäkerhetsorganisationer. Och detta görs utan att faktiskt se bilden och bara genom att leta efter vad som är som en fingeravtrycksmatchning. Om det finns matchningar som passerar en tröskel kommer Apple att rapportera dessa fall till National Center for Missing and Exploited Children (NCMEC).
Apple klargjorde att dess teknologi håller användarnas integritet i åtanke, och därför omvandlas databasen till en oläslig uppsättning hash som lagras säkert på användarnas enheter. Den tillade att innan någon bild laddas upp till iCloud, kommer operativsystemet att matcha den mot de kända CSAM-hasharna med hjälp av en kryptografisk teknologi som kallas privat set intersection. Denna teknik kommer också att avgöra en match utan att avslöja resultatet.
Vid denna tidpunkt skapar enheten en kryptografisk säkerhetskupong med matchresultatet och ytterligare krypterad data och sparar den till iClouds med bilden. Threshold secret sharing-teknik säkerställer att dessa kuponger inte kan tolkas av Apple om inte iCloud Photos-kontot passerar en tröskel för känt CSAM-innehåll. Denna tröskel, hävdade bloggen, har satts på plats för att ge en extremt hög nivå av noggrannhet och säkerställer mindre än en på en biljon chans per år att felaktigt flagga ett visst konto. Så det är osannolikt att en enskild bild utlöser en varning.
Men om tröskeln överskrids kan Apple tolka innehållet i säkerhetskupongerna och manuellt granska varje rapport för en matchning, inaktivera användarens konto och skicka en rapport till NCMEC. Apple sa att användare kommer att kunna överklaga om de tror att de har blivit felaktigt flaggade.
hur mycket är ivana trump värt
Hur fungerar de andra funktionerna?
Apples nya kommunikationssäkerhet för meddelanden kommer att sudda ut en känslig bild och varna ett barn om innehållets karaktär. Om det är aktiverat från backend kan barnet också få veta att deras föräldrar har blivit varnade om meddelandet de har sett. Detsamma gäller om barnet bestämmer sig för att skicka ett känsligt meddelande. Apple sa att Messages kommer att använda maskininlärning på enheten för att analysera bildbilagor och avgöra om ett foto är sexuellt explicit och att Apple inte kommer att få tillgång till meddelandena. Funktionen kommer som en uppdatering på konton som konfigurerats som familjer i iCloud för de senaste operativsystemversionerna.
Med uppdateringen, när en användare försöker slå upp potentiella CSAM-ämnen, kommer Siri och Search att förklara varför detta kan vara skadligt och problematiskt. Användare kommer också att få vägledning om hur man gör en anmälan om utnyttjande av barn om de ber om det.
| Förklarat: Hur och varför Google kommer att erbjuda mer skydd till barn online
Varför gör Apple detta och vilka farhågor tas upp?
Stora teknikföretag har i åratal varit under press att slå ner på användningen av deras plattform för exploatering av barn. Många rapporter har under årens lopp understrukit hur tillräckligt mycket inte gjordes för att stoppa tekniken från att göra CSAM-innehåll tillgängligt mer allmänt.
Apples tillkännagivande har dock mötts av kritik och många har understrukit hur detta är exakt den typ av övervakningsteknik som många regeringar skulle vilja ha och älska att missbruka. Det faktum att detta har kommit från Apple, som länge varit privatlivets röstare, har förvånat många.
hassel e nettovärde
Dessutom har kryptografiexperter som Matthew Green från Johns Hopkins University uttryckt farhågor för att systemet skulle kunna användas för att rama in oskyldiga människor som skickar dem bilder som är avsedda att utlösa matchningar för CSAM. Forskare har kunnat göra detta ganska enkelt, sa han till NPR och tillade att det är möjligt att lura sådana algoritmer.
Men The New York Times citerade Apples integritetschef Erik Neuenschwander som sa att dessa funktioner inte kommer att betyda något annorlunda för vanliga användare.
Om du lagrar en samling CSAM-material, ja, det är dåligt för dig, sa han till publikationen.
Nyhetsbrev| Klicka för att få dagens bästa förklaringar i din inkorg
Har andra stora teknikföretag liknande teknik?
Ja. I själva verket är Apple en relativt sen deltagare på scenen eftersom Microsoft, Google och Facebook har varnat brottsbekämpande myndigheter om CSAM-bilder. Apple har släpat efter eftersom all sådan teknik skulle ha gått emot dess mycket hyllade engagemang för användarnas integritet. Som ett resultat, 2020, när Facebook rapporterade 20,3 miljoner CSAM-överträdelser till NCMEC, kunde Apple bara rapportera 265 fall, rapporterade The New York Times.
Det är först nu som det har kunnat hitta den teknologiska sweetspot som gör detta utan att påverka vanliga användare, eller åtminstone skrämma dem. Men som den inledande motreaktionen har visat är det fortfarande en lina promenad.
Dela Med Dina Vänner: