Системот функционира така што ги споредува фотографиите со базата на познати слики за сексуална злоупотреба на деца, составена од американскиот Национален центар за исчезнати и експлоатирани деца и слични организации.
Apple во четвртокот претстави нов систем за борба против детската порнографија како на своите „сервери“ така и на уредите на корисниците. Тоа е систем за пронаоѓање слики од сексуална злоупотреба на деца (CSAM) складирани на услугата iCloud во САД за да ја извести полицијата.
Новиот систем ќе детектира CSAM на уредите на корисниците во САД користејќи т.н „криптографски хашинг“ – претворање слики во уникатни броеви кои одговараат на одредена слика. Тоа е технологија која бара поистоветување со веќе познат материјал за сексуална експлоатација на деца.
Одобрување, но и загриженост
Системот работи споредувајќи фотографии со базата на податоци со познати слики за сексуална злоупотреба на деца, составена од Националниот центар за исчезнати и експлоатирани деца на САД (NCMEC) и други организации за заштита на децата.
Apple тврди дека овој систем е повеќе приватен за корисниците отколку другите начини за елиминирање на нелегалната содржина на детска порнографија, бидејќи користи пософистицирана криптографија и на серверите на Apple и на уредите на корисниците.
Најавата на Apple дека ќе го скенира американскиот iPhone заради фотографии од сексуална злоупотреба на деца наиде на одобрување од организациите за заштита на децата, но и загриженост дека владите би можеле да ја злоупотребат технологијата за да ги следат своите граѓани.