Fotoskanning: Apple svarar på kontroversen

iCloud © Shutterstock.com

Apple tillhandahåller detaljer om de två tekniker som kommer att användas som en del av ett program för att stärka säkerheten för barn online.

Förra veckan meddelade Apple att gruppen skulle skanna foton lagrade på iCloud för att identifiera eventuellt barnkriminellt innehåll i USA. Ett kontroversiellt tillkännagivande, varav Cupertino-företaget ville klargöra konturerna.

Läs också:
Apple vill identifiera pedofilinnehåll på iPhone innan det publiceras på iCloud

Ingen påverkan på dataintegriteten

Äppelmärket förklarar först att de två teknikerna som kommer att användas i samband med att stärka säkerheten för dess ekosystem med hänsyn till barn inte bör förväxlas. Den första gäller appen Messages, som kommer att sudda ut innehåll som anses vara sexuellt explicit som skickas eller tas emot av unga användare.

Innehållsanalys utförs sedan på själva enheten; kommunikation förblir krypterad och operationen innebär inte en minskning av integriteten.

När potentiellt olämpligt innehåll upptäcks får barnet (under 12) ett varningsmeddelande. Han eller hon kan då välja att inte se bilden. Om han eller hon vill träffa henne kan ett meddelande skickas till hennes föräldrar.

Läs också:
Patent: Apple lämnar in ett motklagomål mot Apple Plans

Frågor väcktes om möjliga övergrepp

Den andra delen av denna förstärkning av skyddet är endast relaterad till uppladdningen av bilder till iCloud. I det här fallet kommer Apple att se till att inget innehåll katalogiseras som ” CSAM » (Material om sexuellt övergrepp mot barn) kan inte laddas upp.

Apple försäkrar att dess algoritm har utformats för att undvika falska positiva resultat eller för att upptäcka annat innehåll. Företaget förlitar sig på en jämförelse med databaser för barnskyddsorganisationer.

Om innehåll identifieras som potentiellt pedofilt är det föremål för mänsklig verifiering, det finns inget automatiskt system som meddelar myndigheterna. Å andra sidan, om fakta bevisas efter verifiering, är Apple skyldig att rapportera till polisen, eftersom innehav av sådana bilder är olagligt över Atlanten.

En annan rädsla som sopas bort av Apple, det faktum att annat innehåll än CSAM söks av systemet. Företaget säger att tekniken skapades för detta enda syfte, och om en regering bad den att använda den för att söka efter annat innehåll, skulle den vägra.

Källa: Äpple

Relaterade Artiklar

Back to top button