Je známo, že Apple hodně vám záleží na důvěrnosti údajů, které procházejí zařízeními v ekosystému, a že jsou velmi dobře chráněny před zvědavými pohledy. To však neznamená, že by uživatelé neměli dodržovat pravidla týkající se etiky, morálky a proč ne, lidskosti.
Apple oznámila, že brzy uvede na trh technologii, která dokáže skenovat všechny obrázky uložené uživateli v iCloud a identifikovat fotografie, které obsahují sexuální zneužívání dětí. Materiál pro sexuální zneužívání dětí (CSAM).
Tuto technologii spustí společnost Apple ke konci letošního roku, pravděpodobně v pilotní verzi, pro malý počet uživatelů.
Pokud vás zajímá „kde je důvěrnost údajů?“, Zjistěte, že vše, co přijímáme, je obsah video / foto to se provádí pomocí šifrovaného protokolu. Stejně jako ukládání dat do iCloud je šifrovaný, ale poskytovatelé takových služeb mají klíč k šifrování dat. Zde říkáme nejen o Apple. Microsoft, Google a další služby pro ukládání dat v cloud Dělám to samé.
Uložená data lze dešifrovat a ověřit, pokud jsou požadována právním jednáním nebo pokud zjevně porušují zákony. Například ty, které se týkají násilných činů na dětech a ženách.
Aby byli uživatelé v tajnosti, spoléhá společnost na novou technologii s názvem NeuralHash, ze které budou skenovat fotografie iCloud a identifikuje ty, které obsahují násilí na dětech, jejich porovnáním s jinými obrázky v databázi.
Je to trochu podobné rozpoznávání obličeje nebo inteligentnímu rozpoznávání předmětů, zvířat a dalších prvků.
Tato technologie bude schopna skenovat a ověřovat snímky pořízené nebo přenesené prostřednictvím zařízení iPhone, iPad nebo Mac, i když projdou změnami.