Apple Child Security Photo Scanning: Vad du behöver veta

Apple Child Security Photo Scanning: Vad du behöver veta
Apple har meddelat att de kommer att anta ett nytt protokoll: automatisk skanning av iPhones och iPads för att jämföra bilder på användare som söker material för sexuella övergrepp mot barn (CSAM). Företaget gör detta för att begränsa spridningen av CSAM, men lägger också till andra funktioner "för att skydda barn från rovdjur som använder kommunikationsverktyg för att rekrytera och utnyttja dem", förklarade Apple i ett blogginlägg. För närvarande kommer funktionerna endast att vara tillgängliga i USA. Apple kommer att introducera en ny funktion i iOS 2 och iPadOS XNUMX (förväntas släppas under de kommande månaderna) som automatiskt kommer att skanna bilder på en användares enhet för att se om de matchar tidigare identifierat CSAM-innehåll, som identifieras genom unika hash (till exempel , en uppsättning konsekventa siffror mellan dubbletter av bilder, som ett fingeravtryck). Hash-verifiering är en vanlig procedur för att upptäcka CSAM som webbplatssäkerhetsföretaget CloudFare implementerade XNUMX och används av den ideella organisationen för anti-barnsexhandel Thorn, organisationen som grundades av Ashton Kutcher och Demi More. . Dessutom har Apple lagt till två system som föräldrar valfritt kan aktivera för barn i sitt hemnätverk: först skanning på enheten i appen Messages, som skannar inkommande och utgående foton efter material som kan vara sexuellt explicit. explicit, vilket kommer att vara grumligt. som standard, och en valfri faktor kan varna föräldrar som är länkade till kontot om innehållet visas. Apple låter också Siri och Search visa användbara resurser om en användare frågar om CSAM-rapporten; Båda kommer också att spela in när användare söker CSAM-relaterade frågor, varnar användaren för materialets skadliga potential och pekar på resurser för hjälp. Det är en förhandstitt på hur den, enligt Apples egen beskrivning, kommer att integrera programvara för att spåra CSAM och hjälpa till att skydda barn från predation genom att ingripa när de tar emot (och skickar) potentiellt olämpliga foton. Men möjligheten att Apple automatiskt skannar sin hårdvara har redan väckt oro bland teknikspecialister och integritetsförespråkare; vi får se det nu.

iPhone 12 Pro

(Bildkredit: Apple)

Kommer detta att påverka mig?

Om du inte har bilder med CSAM på din iPhone eller iPad kommer ingenting att förändras för dig. Om du inte utför en Siri-förfrågan eller en onlinesökning relaterad till CSAM kommer ingenting att förändras för dig. Om ditt iPhone- eller iPad-konto är konfigurerat med en familj i iCloud och din enhet är betecknad som liten i det nätverket, kommer du att se varningar och skumma bilder om du får sexuellt explicita bilder. Om din enhet inte är kopplad till ett familjenätverk som att tillhöra ett barn, kommer ingenting att förändras för dig. Slutligen kommer din enhet inte att få någon av dessa funktioner om du inte uppdaterar till iOS XNUMX, iPadOS XNUMX eller macOS Monterey. (Den senare kommer sannolikt att skanna iCloud Photos för CSAM, men det är oklart om meddelanden som skannar efter sexuellt explicita bilder också kommer att ske när macOS Monterey-användare använder appen.) Dessa uppdateringar är endast avsedda för användare i USA, och det är oklart när (eller om) de kommer att rullas ut någon annanstans, men eftersom Apple placerar dem som skyddsåtgärder skulle vi bli förvånade om de inte rullar ut dem till användarna . . I andra länder.

WWDC 2021 skärmdump

(Bildkredit: Apple)

Varför gör Apple detta?

Ur en etisk synvinkel ger Apple helt enkelt föräldrar möjlighet att skydda sina barn och tillhandahålla en tjänst till samhället genom att begränsa CSAM. Som företaget sa i sitt blogginlägg, "det här programmet är ambitiöst och att skydda barn är ett viktigt ansvar." Apple har upprepade gånger skyddat integritetsfunktionerna för sina enheter och stöder dem med åtgärder som optimering av analys på enheten (istället för att ladda upp data till företagets servrar i molnet) och krypterad kommunikation från slut till ände, såsom idéer som applikationsspårning . Transparens som började i iOS etthundrafyrtiofem. Men Apple har också varit föremål för ett flertal stämningar under åren som påstås ha fått företaget att betona integritet; Till exempel stämde en konsumentförespråkare i EU teknikjätten i november XNUMX för Apples praxis att tilldela varje iPhone en Identifier for Advertisers (IDFA) för att spåra användare i applikationerna, enligt The Guardian. Detta kan ha fått Apple att ge användarna mer kontroll genom appspårningstransparens, eller åtminstone anpassa sig till företagets pågående åtgärder. LaComparacion kunde inte hitta en specifik rättegång som skulle ha fått Apple att implementera dessa förändringar, men det är möjligt att företaget proaktivt skyddar sig själv genom att ge unga användare fler självskyddsverktyg och ta bort CSAM på sina iCloud-servrar och iPhones. . generellt, vilket sannolikt kan begränsa Apples ansvar i framtiden. Men om du kan ta bort CSAM-materialet, varför skulle du inte göra det?

Manzana

(Bildkredit: Apple)

Vad tycker säkerhetsforskare?

Kort efter att Apple presenterat sina nya idéer blev säkerhetsspecialister och integritetsförespråkare oroliga; Inte, naturligtvis, för att skydda användningen av CSAM, utan snarare för Apples metoder att varna det på användarnas enheter. Eftersom CSAM-skanningsfunktionen inte verkar vara valfri är det nästan säkert att den kommer att ingå i iOS XNUMX som standard och, när den väl laddats ner, utan problem från operativsystemet. Därifrån skannar den automatiskt en användares foton på sin enhet innan de laddas upp till ett iCloud-konto. Om en viss mängd foto matchar dessa CSAM-haschar under loppet av en skanning kommer Apple att manuellt undersöka den rapporterade bilden och, om det fastställs att det är giltigt CSAM, stängs användarens konto och deras information skickas till Centern. National Center for Missing and Minor Exploited Persons (NCMEC), som arbetar med brottsbekämpning. Apple är mycket noga med att säkerställa att användardata förblir krypterad och oförståelig för företagets anställda om den inte överskrider en känd CSAM-likhetströskel. Och enligt Apple är "tröskeln inställd för att ge en orimligt hög nivå av noggrannhet och garanterar mindre än en miljard per år sannolikhet att felaktigt rapportera ett visst konto." Men det var automatisk skanning som galvaniserade integritetsförespråkare. "En bakdörr är en bakdörr", skrev Electronic Frontier Foundation (EFF), en ideell integritetsorganisation, i sitt blogginlägg som svar på Apples initiativ, och trodde att även tillägget av Denna automatiska analysteknik öppnade dörren för potentiellt bredare åtkomstmissbruk: Allt som skulle behövas för att utöka den smala bakdörren som Apple bygger är en förlängning av maskininlärningskonfigurationen för att lokalisera extra typer av innehåll, eller en justering av konfigurationsmått för att undersöka, inte bara de smås konton, utan även de för någon. Det är inte en hal backe; "Det är ett absolut konstruerat system som bara väntar på externa påtryckningar för att göra förändringar", skrev EFF och lyfte fram lagar som antagits i andra länder som kräver plattformar för att kontrollera användarnas innehåll, såsom Indiens senaste XNUMX-regler. Andra aktörer inom teknikbranschen har också motsatt sig Apples självanalysinitiativ, inklusive Will Cathcart, chef för den Facebook-ägda e-posttjänsten WhatsApp. I en Twitter-tråd lyfte han fram WhatsApps praxis att göra det lättare för användare att rapportera CSAM, vilket han hävdade ledde till att tjänsten rapporterade mer än fyrahundra fall till NCMEC förra året, "allt utan att bryta krypteringen." < p lang="en" dir="ltr">Detta är ett övervakningssystem som utvecklats och drivs av Apple som enkelt kan användas för att skanna privat innehåll efter vad en regering eller regering än bestämmer sig för att övervaka. Länder där iPhones säljs kommer att ha olika definitioner av vad som är acceptabelt den XNUMX augusti XNUMX Se mer För att vara rättvis försökte Facebook undvika Apples appspårningstransparens: efter att ha tvingats ta reda på hur mycket data från användaren som kommer åt dess mobilapp (och WhatsApp-appen), försökte Facebook uppmuntra användare att tillåta denna åtkomst samtidigt som de kritiserade Apple för insynen i appspårning. Det skadar småföretag (och, förmodligen, Facebook) som är beroende av dessa kampanjintäkter. Andra tekniska specialister väntar på att Apple ska ge mer information innan de fullt ut stöder EFF:s synvinkel. "EFF och andra integritetsförespråkares oro för övergrepp från despotiska regimer kan vara allvarliga eller en överreaktion: Apple kommer att tillhandahålla mer information om implementeringen", säger Avi Greengart, skapare av analysföretaget och även Techsponential teknologiforskning, till LaComparacion genom ett inlägg på Twitter. .