Apples övergrepp på pornografi: god avsikt, dåligt utförande

Apples övergrepp på pornografi: god avsikt, dåligt utförande
            Ah, Apple.  ¿No puedes opinar sobre nada sin hacer un lío?
Det senaste: Apple vill använda sina utökade befogenheter för att bekämpa barnpornografi. Som vanligt menar företaget väl, vill nå ett stort mål och använder sedan sådan räckvidd att det ger människor dussintals skäl att invända. För att parafrasera det gamla talesättet, vägen till helvetet i det här fallet börjar vid One Apple Park Way. Alternativt kan du tänka på Cupertino som där fantastiska idéer blir monstruösa avrättningar. Det började förra veckan när Apple tillkännagav sin avsikt att göra något för att stävja barnpornografi och barnexploatering. Bra så långt. Deras taktik är att berätta för föräldrar när deras barn laddar upp nakenbilder eller erotiska bilder. Innan vi går in på de tekniska aspekterna av allt detta, låt oss ta en kort titt på det nästan oändliga antalet sätt det kan gå fel. (Det kan vara här Apples tidigare huvudkontor fick sitt Infinity Loop-namn.) Tänk på unga tonåringar som kan utforska sina känslor, försöka förstå sina önskningar och sina tankar. Och så att denna forskning omedelbart delas med dina föräldrar. Har inte detta barn rätt att diskutera dessa känslor med vem han vill, när han vill? Som andra har påpekat kan dessa barn i vissa hem straffas hårt. Detta från en sökning på deras telefon för att utforska deras sinnen? Som förälder har jag allvarliga tvivel på om detta nödvändigtvis är rätt beslut för barnet. Men oavsett om det är det eller inte, jag vet att jag inte vill att Apples ingenjörer, och absolut inte Apples algoritmer, ska fatta det beslutet. För fler argument om integritetskonsekvenserna, här är ett utmärkt öppet brev. Kom ihåg att Apple som princip gör affärer på ett sätt som följer lokala lagar och förordningar. Fundera sedan på hur vissa länder uppfattar dessa frågor och låt dem sjunka in. Som Apple sa, kommer ändringarna "tillåta föräldrar att spela en mer informerad roll i att hjälpa sina barn att navigera onlinekommunikation. Meddelanden-appen använder maskininlärning på enheten. för att varna för känsligt innehåll..." Och "som en extra försiktighetsåtgärd kan vi också berätta för barnet att, för att vara säker på att de är säkra, kommer deras föräldrar att få ett meddelande om de ser det." Men det finns fortfarande ett potentiellt värre problem för företagens IT, och som alla dåliga saker, innebär det att kringgå kryptering. Låt oss börja med Apples tillkännagivande. Här är en längre del av uttalandet för att ge mer sammanhang: "Innan en bild lagras i iCloud Photos, utförs en matchningsprocess på enheten för den bilden med kända CSAM-hashar. Denna matchningsprocess drivs av en kryptografisk teknik som kallas Private Set Intersection. Vilket avgör om det blir match utan att avslöja resultatet. Enheten skapar en kryptografisk säkerhetsbiljett som krypterar resultatet av matchen samt ytterligare krypterad data i bilden. Denna kupong laddas upp till iCloud Photos med bilden. Genom att använda en annan teknik som kallas hemlig tröskeldelning säkerställer systemet att innehållet i säkerhetsbiljetter endast kan tolkas av Apple om iCloud Photos-kontot passerar en känd CSAM-innehållströskel. Tröskeln är satt för att ge en extremt hög nivå av noggrannhet och garanterar mindre än en miljard per år sannolikhet att felaktigt rapportera en given post. Först när tröskeln har överskridits tillåter kryptografisk teknik Apple att tolka innehållet i säkerhetsbiljetterna som är kopplade till motsvarande CSAM-bilder. Apple granskar sedan manuellt varje rapport för att bekräfta att det finns en matchning, inaktiverar användarens konto och skickar en rapport till NCMEC. Om en användare tror att ett fel har rapporterats på deras konto kan de överklaga för att få sitt konto återställt." Innan vi kommer till de tekniska problemen, låt oss försöka realistiskt överväga hur snabbt, enkelt och bekvämt Apple utan tvekan kommer att göra denna anropsprocess. Jag tror att det är säkert att säga att många av dessa barn kommer att hämta socialförsäkringen långt innan de ser ett överklagandebeslut och en löst förklaring. Var noga med detta: "Med hjälp av en annan teknik som kallas Threshold Secret Sharing, säkerställer systemet att innehållet i säkerhetsbiljetter inte kan tolkas av Apple om inte iCloud Photos-kontot passerar en innehållströskel." Känd CSAM. Tröskeln är satt för att ge en hög nivå av noggrannhet och säkerställer mindre än en miljard per år sannolikhet att felaktigt rapportera ett visst konto. Först när tröskeln överskrids tillåter kryptografisk teknik Apple att tolka innehållet i säkerhetsbiljetter som är kopplade till motsvarande CSAM-bilder. "Det händer två saker här som borde skrämma alla CISO- eller cybersäkerhetspersonal. För alla er kryptografer där ute, kommer detta förmodligen att förvirra er. Först återställer Apples system bilderna innan de krypteras. Det går inte emot kryptering så mycket som det kringgår det. Ur en cybertjuvs synvinkel är det inte så annorlunda. För det andra, överväg detta från den sista raden som citerades: "Först när tröskeln passeras tillåter kryptografisk teknik Apple att tolka innehållet...". Det är att be om en mardröm. Medan Apples krypteringskontroller kan öppnas "när tröskeln passeras", är allt en brottsling behöver göra att lura systemet att tro att tröskeln har passerats. Glöm porr. Det kan vara en bra bakdörr att titta på allt slags innehåll på den här telefonen. Hela utgångspunkten för telefonkryptografi är att den är så nära det absoluta som möjligt. Om du tillåter åtkomst till något före kryptering eller låter den krypteringen åsidosättas när en algoritm drar slutsatsen att vissa kriterier är uppfyllda, är den inte längre säker. Det handlar helt enkelt om att lägga ut en färdplan som låter angripare komma åt alla datamedia. Är det en bakdörr?
<p>Copyright © 2021 IDG Communications, Inc.</p>