Vil du risikere fremmede øjne på de fotos, du uploader til i iCloud fra din iPhone?
Det er det spørgsmål, mange telefonejere verden over skal tage stilling til i de kommende år.
Apple har nemlig meldt ud, at man vil benytte den såkaldte CSAM-teknologi til at scanne iPhones efter såkaldt "overgrebsmateriale", som fx børneporno. (CSAM står for Child Sexual Abuse Material).
I første omgang skal tiltaget rulles ud i USA, og senere vil Apple indlede lignende tiltag i andre lande inklusive Danmark, hvis den lokale lovgivning tillader det.
> Læs også: Dette kan du se frem til i næste opdatering af din iPhone
CSAM-teknologien deler vandene
Meldingen møder begejstring hos blandt andet National Center for Missing and Exploited Children i USA, som mener at tiltaget kan redde børns liv.
Apples idé møder dog også stærk kritik.
Blandt andet frygter mange, at teknologien kan bruges til andre formål, og at regeringer vil kunne presse Apple til at bruge teknologien til at scanne efter andre typer billeder og dermed fungere som en slags sofistikeret censur.
Apple forsikrer dog, at teknologien er designet til udelukkende at identificere og rapportere CSAM - altså børnepornografi.
Billeder tjekkes af robotteknologi
I kølvandet på kritikken har Apple udarbejdet et dokument med spørgsmål og svar til det nye tiltag. Du kan læse hele dokumentet her: Expanded Protections for Children (PDF på engelsk).
I dokumentet forklarer Apple blandt andet, at det kun er fotos, der uploades til iCloud, som de vil scanne - altså gælder det ikke de billeder, som kun ligger på telefonen.
Desuden vil Apple kun scanne i de tilfælde, hvor ejeren i forvejen er under mistanke for at have mistænkeligt materiale. Endelig vil eventuelle "robotfund" blive eftertjekket af mennesker, så der ikke bliver tale om falske positive.
Samtidig bedyrer Apple ikke overraskende, at firmaet ikke vil bukke under for myndigheders pres til at bruge teknologien til andre formål.
> Læs også: iPhone tracker dig overalt - se det hemmelige kort
Forældre kan beskytte børn mod slemme billeder
Apple har også lagt andre planer i samme boldgade.
Således fortæller firmaet i samme dokument om ordningen "Communication safety in Messages", hvor forældre kan beskytte børn mod seksuelt indhold på iPhone.
Tanken her er, at barnets iPhone vil komme med en advarsel, hvis de modtager eller forsøger at sende et billede af seksuel karakter. Er barnet under 12 år, vil forældrene samtidig modtage en besked, hvis barnet vælger at se billedet.
Det er endnu uvist om - og i så fald hvornår - teknologien kommer til Danmark, da Apple skal indrette sig efter lovgivningen i de forskellige lande. Derfor bliver det rullet ud i et land af gangen - i første omgang i USA.