A Zodiákus Jelének Kompenzációja
Alkalmazhatóság C Hírességek

Tudja Meg A Kompatibilitást Zodiac Sign Segítségével

Magyarázat: Hogyan keresi az Apple a gyermekek kizsákmányolásáról szóló képeket az eszközökön, és miért vonja fel a szemöldökét

A kezdetben várhatóan az Egyesült Államokban fog megjelenni, a funkciók közé tartozik az új technológia alkalmazása a CSAM online terjedésének korlátozására, különösen az Apple platformon keresztül.

Egy blogbejegyzésében az Apple kifejtette, hogy iOS és iPadOS rendszeren keresztül kriptográfiai alkalmazásokat fog használni az iCloud Photo-on tárolt ismert CSAM-képek egyeztetésére.

Az Apple bejelentette a későbbi szoftverfrissítések új funkciókat hoznak majd amely segít megvédeni a gyermekeket azoktól a ragadozóktól, akik kommunikációs eszközöket használnak a toborzásukra és kizsákmányolásukra, és korlátozzák a gyermekekkel való szexuális zaklatással kapcsolatos anyagok (CSAM) terjedését.







A kezdetben várhatóan az Egyesült Államokban fog megjelenni, a funkciók közé tartozik az új technológia alkalmazása a CSAM online terjedésének korlátozására, különösen az Apple platformon keresztül.

Ezután az eszközön védik a gyerekeket az érzékeny tartalmak küldésével vagy fogadásával szemben, olyan mechanizmusokkal, amelyek figyelmeztetik a szülőket, ha a felhasználó még nem töltötte be a 13. életévét. Az Apple akkor is beavatkozik, ha a Siri vagy a Search segítségével CSAM-mal kapcsolatos témákat keresnek. .



Milyen technológiát tesz az Apple a CSAM online terjedésének megakadályozására?

Egy blogbejegyzésében az Apple kifejtette, hogy iOS és iPadOS rendszeren keresztül kriptográfiai alkalmazásokat fog használni az iCloud Photo-on tárolt ismert CSAM-képek egyeztetésére. A technológia párosítja a felhasználó iCloudján lévő képeket a gyermekbiztonsági szervezetek által biztosított ismert képekkel. És ez anélkül történik, hogy ténylegesen látná a képet, és csak az ujjlenyomat-egyezéshez hasonló kereséssel. Abban az esetben, ha az egyezések átlépik a küszöböt, az Apple jelenteni fogja ezeket az eseteket a National Center for Missing and Exploited Children (NCMEC) számára.

Az Apple egyértelművé tette, hogy technológiája szem előtt tartja a felhasználók adatvédelmét, ezért az adatbázis olvashatatlan hash-készletté alakul, amelyet biztonságosan tárolnak a felhasználók eszközein. Hozzátette, hogy mielőtt bármilyen képet feltöltenek az iCloudba, az operációs rendszer a privát készlet metszéspontjának nevezett kriptográfiai technológiával egyezteti azt az ismert CSAM-kivonatokkal. Ez a technológia az eredmény felfedése nélkül is meghatározza a mérkőzést.



Ekkor a készülék létrehoz egy kriptográfiai biztonsági utalványt a mérkőzés eredményével és további titkosított adatokkal, és a képpel együtt elmenti az iCloudba. A Threshold titkos megosztási technológia biztosítja, hogy ezeket a kuponokat az Apple ne tudja értelmezni, hacsak az iCloud Photos-fiók nem lépi át az ismert CSAM-tartalom küszöbét. A blog állítása szerint ezt a küszöböt azért hozták létre, hogy rendkívül magas szintű pontosságot biztosítsanak, és évente kevesebb, mint egy az egybillióhoz való esélyét biztosítsák egy adott fiók helytelen megjelölésére. Így nem valószínű, hogy egyetlen kép is riasztást vált ki.



De ha a küszöböt túllépik, az Apple értelmezheti a biztonsági utalványok tartalmát, és manuálisan áttekintheti az egyes jelentéseket egyezés szempontjából, letilthatja a felhasználói fiókot, és jelentést küldhet az NCMEC-nek. Az Apple szerint a felhasználók fellebbezhetnek, ha úgy gondolják, hogy rosszul jelölték meg őket.

Hogyan működik a többi funkció?

Az Apple új kommunikációs biztonsága a Messages szolgáltatáshoz elhomályosítja az érzékeny képet, és figyelmezteti a gyerekeket a tartalom természetére. Ha engedélyezve van a háttérben, a gyermek azt is megkaphatja, hogy a szüleit figyelmeztették a megtekintett üzenetre. Ugyanez vonatkozik arra az esetre is, ha a gyermek úgy dönt, hogy érzékeny üzenetet küld. Az Apple közölte, hogy a Messages az eszközön található gépi tanulást fogja használni a képmellékletek elemzésére, és megállapítja, hogy egy fénykép szexuális jellegű-e, és hogy az Apple nem fog hozzáférni az üzenetekhez. A funkció frissítésként érkezik az iCloudban családként beállított fiókokhoz a legújabb operációs rendszer verziókhoz.
Ezenkívül a frissítéssel, amikor a felhasználó megpróbál potenciális CSAM-témákat keresni, a Siri és a Search elmagyarázza, miért lehet ez káros és problémás. A felhasználók arra is útmutatást kapnak, hogyan kell bejelentést tenni a gyermekek kizsákmányolásával kapcsolatban, ha azt kérik.



Szintén a Magyarázatban| Magyarázat: Hogyan és miért fog a Google nagyobb védelmet nyújtani a gyerekeknek az interneten

Miért teszi ezt az Apple, és milyen aggályok merülnek fel?

A nagy technológiai cégekre évek óta nyomás nehezedik, hogy visszaszorítsák platformjuk gyermekek kizsákmányolására való használatát. Az évek során számos jelentés hangsúlyozta, hogy nem tettek eleget annak megakadályozására, hogy a technológia a CSAM-tartalmakat szélesebb körben elérhetővé tegye.

Az Apple bejelentését azonban számos kritika érte, és sokan hangsúlyozták, hogy ez az a fajta felügyeleti technológia, amelyet sok kormány szeretne, és szívesen visszaél vele. Sokakat meglepett az a tény, hogy ez az Apple-től származik, amely sokáig a magánélet védelmében szavazott.



A kriptográfiai szakértők, mint például Matthew Green, a Johns Hopkins Egyetemről is kifejezték aggodalmukat, hogy a rendszert ártatlan emberek bekeretezésére használhatják, akik olyan képeket küldenek nekik, amelyek célja a CSAM egyezéseinek kiváltása. A kutatóknak ezt elég könnyen meg tudták tenni, mondta az NPR-nek, hozzátéve, hogy az ilyen algoritmusokat meg lehet hülyíteni.

A The New York Times azonban idézte az Apple adatvédelmi igazgatóját, Erik Neuenschwandert, aki szerint ezek a funkciók nem jelentenek mást a normál felhasználók számára.



Ha CSAM-anyaggyűjteményt tárol, igen, ez rossz az Ön számára – mondta a kiadványnak.

Hírlevél| Kattintson ide, hogy a nap legjobb magyarázóit megtalálja a postaládájában

Más nagy technológiai cégek is rendelkeznek hasonló technológiával?

Igen. Valójában az Apple viszonylag késői belépő a színre, mivel a Microsoft, a Google és a Facebook figyelmeztette a bűnüldöző szerveket a CSAM-képekről. Az Apple lemaradt, mert minden ilyen technológia ellentétes lett volna a felhasználói adatvédelem iránti sokat hangoztatott elkötelezettségével. Ennek eredményeként 2020-ban, amikor a Facebook 20,3 millió CSAM-sértést jelentett az NCMEC-nek, az Apple mindössze 265 esetet jelenthetett – számolt be a The New York Times.

Csak most sikerült megtalálni azt a technológiai édességet, amely ezt megteheti anélkül, hogy ez a rendszeres felhasználókat érintené, vagy legalábbis megijesztené őket. Azonban, ahogy a kezdeti visszhang is mutatta, ez még mindig kötéltánc.

Oszd Meg A Barátaiddal: