Spoločnosť Apple vysvetľuje, ako budú iPhony skenovať fotografie, či neobsahujú snímky sexuálneho zneužívania detí.

Apple ponúka technické podrobnosti a tvrdí, že šanca na falošne pozitívne snímky je 1 ku 1 biliónu. Tému priniesol web ArsTechnica. Metóda spoločnosti Apple na odhaľovanie známych materiálov sexuálneho zneužívania detí je navrhnutá s ohľadom na súkromie používateľov. Takto to uvádza priamo Apple.

Namiesto skenovania obrázkov v cloude systém vykonáva porovnávanie priamo v zariadení pomocou databázy známych hashov obrázkov CSAM (child sexual abuse material) , ktoré poskytuje NCMEC (Národné centrum pre nezvestné a zneužívané deti) a ďalšie organizácie zaoberajúce sa bezpečnosťou detí. Spoločnosť Apple ďalej transformuje túto databázu na nečitateľný súbor hashov, ktorý je bezpečne uložený v zariadeniach používateľov.

Zmeny budú zavedené v aktualizáciách systémov iOS 15, iPadOS 15, watchOS 8 a macOS Monterey. Apple tiež nasadí softvér, ktorý dokáže analyzovať obrázky v aplikácii Správy pre nový systém, ktorý bude varovať deti a ich rodičov pri prijímaní alebo odosielaní sexuálne explicitných fotografií. Takéto niečo funguje aj v iných aplikáciách. Keď sa pokúsite odfotiť niečo intímne, Threema do implicitne zablokuje. Možno, že to nebude fungovať s takou presnosťou ako systém Apple, no takéto niečo už existuje.

Firma Apple roky odolávala tlaku americkej vlády, aby do svojich šifrovacích systémov nainštalovala „zadné dvierka“ a tvrdila, že by to narušilo bezpečnosť všetkých používateľov. Bezpečnostní experti Apple za tento postoj chválili. Ale svojím plánom nasadiť softvér, ktorý vykonáva skenovanie priamo v zariadení a vybrané výsledky zdieľa s úradmi, sa Apple nebezpečne približuje k tomu, že bude fungovať ako nástroj vládneho dohľadu. Uviedol to na Twitteri profesor kryptografie z Univerzity Johna Hopkinsa, Matthew Green. Podobný postup by sa mohol týkať aj správ a bolo by najmenej sledovať správy v zariadení priamo zariadením a jeho vstavanými mechanizmami.

Správy používajú strojové učenie priamo v zariadení sa analyzujú a určujú, či má fotografia alebo správa sexuálny podtón. Funkcia je navrhnutá tak, aby spoločnosť Apple nemala prístup k správam. Stále ide o výhovorky a firma Apple tak podľahla tlaku vlády a k nej pridružených orgánov. Nech už by sme za tým hľadali akýkoľvek vznešenejší dôvod, ale tak to býva vždy. A to ani nemusíte byť veľký historik, aby ste vedeli, že cesta „viete kam“ sa dláždi dobrým úmyslom.

Zdroj: ArsTechnica

Prečítajte si aj:

Definitívny koniec spamu a nežiadaných reklám v mailoch! Apple prináša účinné natívne riešenie.

Značky:

Michal Reiter

Michal Reiter
Publikujem o dianí na internete, súkromí, bezpečnosti a testujem notebooky, smartfóny, audio produkty a ďalšie gadgety.