Apple säger att det inte kommer att utöka den kontroversiella CSAM-tekniken

Apple säger att det inte kommer att utöka den kontroversiella CSAM-tekniken
            Apple ha tratado de desviar las críticas de su controvertido sistema de protección CSAM, pero al hacerlo, ha ilustrado exactamente lo que está en juego.</p><h2>La gran conversacion</h2><p>Apple anunció la semana pasada que introducirá un conjunto de medidas de protección infantil en iOS 15, iPad OS 15 y macOS Monterey cuando los sistemas operativos se lancen este otoño.
Bland annat skydd skannar enhetssystemet ditt iCloud-fotobibliotek efter bevis på olagliga insamlingar av barnpornografi (CSAM). Att skydda barn är naturligtvis helt lämpligt, men integritetsförespråkare är fortfarande oroade över potentialen för Apples system att bli en fullfjädrad vakthund. I ett försök att tona ner kritiken har Apple släppt ny information där man försöker förklara lite mer hur tekniken fungerar. Som förklaras i denna Apple Whitepaper, konverterar tekniken bilderna på din enhet till en digital hash som kan jämföras med en databas med kända CSAM-bilder när du laddar upp dem till iCloud Photos.

Gör det till en hash

Även om bildanalys utförs på enheten med hjälp av Apples hashteknik är inte alla bilder flaggade eller skannade, bara de som identifieras som CSAM. Apple hävdar att detta faktiskt är en förbättring genom att företaget inte skannar hela biblioteket samtidigt. ”Befintliga tekniker som implementerats av andra företag analyserar alla användarbilder som lagras i molnet. Detta skapar en risk för alla användares integritet”, står det i företagets nya FAQ. "CSAM-detektering i iCloud Photos erbjuder betydande integritetsfördelar jämfört med dessa tekniker genom att förhindra att Apple lär sig foton om de inte båda matchar kända CSAM-bilder och ingår i ett iCloud-konto. Foton som innehåller en samling kända CSAMs." Trots dessa försäkringar finns det fortfarande stora farhågor om i vilken utsträckning systemet kan utvidgas till att övervaka andra former av innehåll. När allt kommer omkring, om du kan förvandla en samling CSAM-bilder till identifierbar data, kan du göra vad som helst till data mot vilken personlig information kan analyseras. Integritetsadvokat Edward Snowden varnar: "Gör inga misstag: Om du kan söka efter barnpornografi idag kan du söka efter vad som helst i morgon. "

Ta det med tillförsikt?

Apple säger att de inte har några planer på att ta sitt system till andra områden. I sin FAQ skriver den: "Vi har redan ställts inför förfrågningar om att skapa och implementera regeringsmandat förändringar som försämrar användarnas integritet, och vi har bestämt avvisat dem. Vi kommer att fortsätta att avvisa dem i framtiden. Låt oss vara tydliga, den här tekniken är begränsad till att upptäcka CSAM lagrad i iCloud och vi kommer inte att acceptera någon begäran från en regering om att förlänga den. Vid första anblicken verkar detta betryggande. Men det är naturligt att nu när den här tekniken finns kommer länder som vill tvinga Apple att utöka enhetsövervakningen för problem bortom CSAM att använda vilka vapen de än har för att tvinga fram problemet. "Allt som skulle behövas för att utöka den smala bakdörren som Apple bygger är en utbyggnad av maskininlärningsupplägget för att hitta ytterligare typer av innehåll", varnade Electronic Frontier Foundation. Att förhindra detta kommer att bli en kamp. Vilket betyder att Apple har en kamp framför sig.

Integritetskriget har börjat

Det här kan vara en kamp som Apple vill utkämpa. När allt kommer omkring vet vi att du har tagit många viktiga steg för att skydda användarnas integritet i dina ekosystem, och vi vet också att du stöder lagändringar för att skydda online integritet. "Det är verkligen dags, inte bara för en omfattande integritetslagstiftning här i USA, utan också för globala lagar och nya internationella överenskommelser som förankrar principerna om dataminimering, användarmedvetenhet, användaråtkomst. Användare och datasäkerhet runt om i världen, ”, sa VD Tim Cook i år. Man skulle kunna hävda att Apples högprofilerade införande av skyddsåtgärder för barn utlöste ett bredare samtal om rättigheter och integritet i en online och uppkopplad värld. Det enda sättet att förhindra att systemet sprider sig utanför CSAM är att hjälpa Apple motstår påtryckningar för att göra det. I avsaknad av sådant stöd är det osannolikt att Apple vinner ensam mot alla regeringar. I händelse av att företaget inte får stöd är frågan när, inte om, det kommer att tvingas ge efter. Och ändå kan regeringar fortfarande nå en överenskommelse om integritet online. Insatserna är höga. Risken är att tegelstenarna längs den soliga vägen till rättvisa som Cook länge har försökt lägga kan bli tegelstenar i väggen för att förhindra att resan tar plats. Fördelen är att en målmedveten ansträngning kan möjliggöra skapandet av ramar som tillåter slutet på denna väg. Kontroversen speglar hur krokig den här vägen verkar ha blivit. Följ mig på Twitter eller gå med mig i AppleHolic bar & grill och Apples diskussionsgrupper på MeWe.
<p>Copyright © 2021 IDG Communications, Inc.</p>