Rekompensata Za Znak Zodiaku
Podstawa C Celebryci

Dowiedz Się Kompatybilności Za Pomocą Znaku Zodiaku

Wyjaśnienie: w jaki sposób Apple skanuje w poszukiwaniu obrazów wykorzystywania dzieci na urządzeniach i dlaczego podnosi brwi

Oczekuje się, że początkowo będzie dostępny w Stanach Zjednoczonych, a funkcje obejmują wykorzystanie nowej technologii w celu ograniczenia rozprzestrzeniania się CSAM online, zwłaszcza za pośrednictwem platformy Apple.

W poście na blogu Apple wyjaśnił, że użyje aplikacji kryptograficznych za pośrednictwem iOS i iPadOS, aby dopasować znane obrazy CSAM przechowywane w iCloud Photo.

Apple ogłosiło, że aktualizacje oprogramowania jeszcze w tym roku przyniosą nowe funkcje które pomogą chronić dzieci przed drapieżnikami, którzy wykorzystują narzędzia komunikacyjne do ich rekrutacji i wykorzystywania, a także ograniczą rozpowszechnianie materiałów dotyczących wykorzystywania seksualnego dzieci (CSAM).







Oczekuje się, że początkowo będzie dostępny w Stanach Zjednoczonych, a funkcje obejmują wykorzystanie nowej technologii w celu ograniczenia rozprzestrzeniania się CSAM online, zwłaszcza za pośrednictwem platformy Apple.

Następnie zostanie wprowadzona ochrona na urządzeniu dla dzieci przed wysyłaniem lub otrzymywaniem poufnych treści, z mechanizmami ostrzegania rodziców w przypadku, gdy użytkownik ma mniej niż 13 lat. Apple będzie również interweniować, gdy Siri lub Search będą używane do wyszukiwania tematów związanych z CSAM .



Jaką technologię robi Apple, aby zapobiec rozprzestrzenianiu się CSAM w Internecie?

W poście na blogu Apple wyjaśnił, że użyje aplikacji kryptograficznych za pośrednictwem iOS i iPadOS, aby dopasować znane obrazy CSAM przechowywane w iCloud Photo. Technologia dopasuje obrazy w iCloud użytkownika do znanych obrazów dostarczonych przez organizacje zajmujące się bezpieczeństwem dzieci. Odbywa się to bez rzeczywistego oglądania obrazu i tylko poprzez szukanie czegoś, co przypomina dopasowanie odcisku palca. W przypadku, gdy dopasowania przekroczą próg, Apple zgłosi te przypadki do National Center for Missing and Exploited Children (NCMEC).

Apple wyjaśnił, że jego technologia dba o prywatność użytkowników, dlatego baza danych jest przekształcana w nieczytelny zestaw skrótów, który jest bezpiecznie przechowywany na urządzeniach użytkowników. Dodał, że zanim jakikolwiek obraz zostanie przesłany do iCloud, system operacyjny dopasuje go do znanych skrótów CSAM za pomocą technologii kryptograficznej zwanej przecięciem zestawów prywatnych. Ta technologia określi również dopasowanie bez ujawniania wyniku.



W tym momencie urządzenie tworzy kryptograficzny voucher bezpieczeństwa z wynikiem dopasowania i dodatkowymi zaszyfrowanymi danymi i zapisuje go w iClouds z obrazem. Technologia udostępniania tajnych danych progowych gwarantuje, że te kupony nie będą interpretowane przez Apple, chyba że konto iCloud Photos przekroczy próg znanej zawartości CSAM. Ten próg, jak twierdził blog, został wprowadzony w celu zapewnienia niezwykle wysokiego poziomu dokładności i zapewnia mniej niż jeden bilion szans na nieprawidłowe oznaczenie danego konta w ciągu roku. Jest więc mało prawdopodobne, aby pojedynczy obraz wywołał alert.



Ale jeśli próg zostanie przekroczony, Apple może zinterpretować zawartość kuponów bezpieczeństwa i ręcznie przejrzeć każdy raport pod kątem dopasowania, wyłączyć konto użytkownika i wysłać raport do NCMEC. Apple powiedział, że użytkownicy będą mogli się odwołać, jeśli uznają, że zostali niesłusznie oznaczeni.

Jak działają inne funkcje?

Nowe zabezpieczenia komunikacji Apple dla Wiadomości rozmyją wrażliwy obraz i ostrzegają dziecko o naturze treści. Jeśli zostanie włączone z zaplecza, dziecko może również zostać poinformowane, że jego rodzice zostali powiadomieni o wiadomości, którą obejrzeli. To samo będzie miało zastosowanie, jeśli dziecko zdecyduje się wysłać wrażliwą wiadomość. Apple powiedział, że Wiadomości będą wykorzystywać uczenie maszynowe na urządzeniu do analizowania załączników graficznych i określania, czy zdjęcie ma charakter erotyczny i że Apple nie uzyska dostępu do wiadomości. Ta funkcja będzie dostępna jako aktualizacja kont skonfigurowanych jako rodziny w iCloud dla najnowszych wersji systemu operacyjnego.
Ponadto wraz z aktualizacją, gdy użytkownik spróbuje wyszukać potencjalne tematy CSAM, Siri i Search wyjaśnią, dlaczego może to być szkodliwe i problematyczne. Użytkownicy otrzymają również wskazówki, jak złożyć zgłoszenie dotyczące wykorzystywania dzieci, jeśli o to poproszą.



Również w wyjaśnionym| Wyjaśnienie: w jaki sposób i dlaczego Google zapewnia większą ochronę dzieciom w internecie

Dlaczego Apple to robi i jakie są zgłaszane obawy?

Wielkie firmy technologiczne od lat znajdują się pod presją, by rozprawić się z wykorzystywaniem ich platformy do wykorzystywania dzieci. Wiele raportów na przestrzeni lat podkreślało, że nie zrobiono wystarczająco dużo, aby powstrzymać technologię przed szerszym udostępnianiem treści CSAM.

Jednak ogłoszenie Apple spotkało się z krytyką, a wielu z nich podkreślało, że jest to dokładnie ten rodzaj technologii nadzoru, którą wiele rządów chciałoby mieć i którą chciałoby nadużywać. Fakt, że pochodzi od Apple, który od dawna jest wyznawcą prywatności, zaskoczył wielu.



Ponadto eksperci ds. kryptografii, tacy jak Matthew Green z Johns Hopkins University, wyrazili obawy, że system może zostać wykorzystany do kadrowania niewinnych osób, wysyłając im obrazy mające na celu wywołanie dopasowań do CSAM. Badaczom udało się to zrobić dość łatwo, powiedział NPR, dodając, że można oszukać takie algorytmy.

Ale The New York Times zacytował głównego inspektora ochrony prywatności firmy Apple, Erika Neuenschwandera, który powiedział, że te funkcje nie będą oznaczać nic innego dla zwykłych użytkowników.



Jeśli przechowujesz kolekcję materiałów CSAM, tak, to źle dla ciebie, powiedział publikacji.

Biuletyn Informacyjny| Kliknij, aby uzyskać najlepsze objaśnienia dnia w swojej skrzynce odbiorczej

Czy inne duże firmy technologiczne mają podobne technologie?

Tak. W rzeczywistości Apple jest stosunkowo późno wkracza na scenę, ponieważ Microsoft, Google i Facebook ostrzegają organy ścigania o obrazach CSAM. Apple pozostaje w tyle, ponieważ jakakolwiek taka technologia byłaby sprzeczna z jego szeroko reklamowanym zaangażowaniem w ochronę prywatności użytkowników. W rezultacie w 2020 r., kiedy Facebook zgłosił 20,3 mln naruszeń CSAM do NCMEC, Apple mógł zgłosić tylko 265 przypadków, podał The New York Times.

Dopiero teraz udało mu się znaleźć technologię, która pozwoli to zrobić bez wpływu na zwykłych użytkowników lub przynajmniej ich wystraszenia. Jednak, jak pokazał początkowy luz, nadal jest to spacer po linie.

Podziel Się Z Przyjaciółmi: