„Apple sprawdzi nasze zdjęcia i wiadomości” oraz inne bzdety techno-matołków

W sieci roi się od ekspertów i znawców, którzy raczą nas swoimi opiniami, choć nie raczyli nawet sprawdzić podstawowych informacji. Tak jest w każdej dziedzinie, w Polsce i w lepszym oraz gorszym świecie. Bardzo mocno dało się to odczuć, gdy Apple zaanonsował nowe sposoby ochrony dzieci i walki z pornografią dziecięcą. Każdy starał się być ekspertem, a 90% „znawców” nie miało pojęcia, jak ma to działać i – co gorsza – takiego pojęcia nie chciało zdobyć. Chcieli tylko uraczyć nas swoimi fobiami i obawami.

Czy dzieci trzeba chronić? 

Ile razy zrobiliście coś głupiego, dzieckiem będąc? Żałujecie czasem, że nie miał kto zwrócić Wam uwagi lub złapać za rękę? Jestem pewny, że każdy z Was ma takie wspomnienia z dzieciństwa, których wolałby nie mieć, a sam się do nich przyczynił. Obecnie dzieci mają niestety jeszcze więcej możliwości „zrobienia sobie krzywdy”. Mogą np. zbyt ochoczo zareagować na prośbę „Pokaż …”. I właśnie za ten problem wzięło się teraz Apple.

„Apple sprawdzi nasze wiadomości”

Nie, nie sprawdzi, nie przeczyta, nie obejrzy zdjęć wysyłanych za pomocą iMessages. Więc jak chce sprawdzać, czy dzieci mające konta iCloud dla nastolatków nie otrzymują lub wysyłają nagich zdjęć? Tak samo jak, bez udziału serwerów, wysyłania fotografii, a nawet dostępu do internetu potrafi w zdjęciach zapisanych w iPhone znaleźć osoby, przedmioty i określić sytuacje. Wpiszcie w „szukaj” w Zdjęciach np. „stanik”, „kąpiel” lub „rower”. Zdjęcia wyświetlą fotografie bardzo zbieżne z wyszukiwanym tekstem, bo iPhone sam bez kontaktu z internetem potrafi za pomocą funkcji nauczania maszynowego i AI skojarzyć treść fotografii. 

Dokładnie tak samo ma działać funkcja wykrywania nagich zdjęć w wysyłanych i otrzymywanych wiadomościach w iPhone’ach z „dziecięcymi” kontami iCloud. Odpowiedni iPhone (podejrzewam, że z procesorem A12 lub lepszym) w czasie rzeczywistym przeanalizuje zdjęcie i jeżeli dopasuje „wzorce nagości”, to zasłoni je i wyświetli stosowne ostrzeżenie. Jeżeli opiekunowie dziecka włączą odpowiednią funkcję w ustawieniach chmury rodzinnej, to dostaną powiadomienie, że dziecko jednak zdecydowało się wysłać lub obejrzeć nagie zdjęcie. O tym „donosie” dziecko też będzie uprzedzone. To wszystko wewnątrz iPhone’a bez wysyłania czegokolwiek do analizy na jakichkolwiek serwerach. Jasne?

Szkoda tylko, że taka ochrona będzie działać jedynie we Wiadomościach Apple. Dużo większe ryzyko czai się w innych komunikatorach i systemach, których producenci za nic mają dobro dzieci. Szkoda również, że nie ochroni dorosłych przez niechcianymi zdjęciami „penisów”, bo będzie działać tylko na kontach dziecięcych.

Wykrywanie pornografii dziecięcej w zdjęciach wysyłanych doi iCloud

Uwaga: ta funkcja jest całkiem niezależna od wyżej opisanej ochrony dzieci przed nagością we wiadomościach.

To jest już bardziej drażliwa kwestia. Jednak domniemania, jakoby „Apple grzebał nam w zdjęciach” są mocno na wyrost. Zacznę od tego, że o ile sam iPhone (iPad itp.) jest „naszą twierdzą”, to dane wysyłane poza niego już nie i Apple wyraźnie o tym pisze między innymi tu: Omówienie kwestii bezpieczeństwa w usłudze iCloud.

Zdjęcia (i niektóre inne dane z iCloud, ale nie wszystkie) mogą być na żądanie uprawnionych instytucji posiadających odpowiednie nakazy np. sądowe odszyfrowane. Jest to możliwe, bo są kodowane kluczem, który jest przechowywany na serwerach Apple, a nie wyłącznie w naszych urządzeniach. W przypadku nowych funkcji wykrywających pornografię dziecięcą zmieni się to, że jeżeli dobrze opisany w dostępnych opracowaniach algorytm  dopasuje wzorzec zakazanego zdjęcia z bazy CSAM, to doda stosowną sygnaturę do niego TYLKO, gdy będzie wysyłane do iCloud. Gdy konto nazbiera zbyt wiele ostrzeżeń, to oznaczone jako podejrzane zdjęcia, mogą zostać zweryfikowane przez ludzi. I to jest rzeczywiście coś, co może budzić pewne kontrowersje. Zaznaczam, że w tym przypadku nie są stosowane ogólne algorytmy rozpoznawania zdjęć, a specjalne stworzone tak, aby pomyłek było mniej niż jedna na bilion (nasz, nie ten amerykański). 

Na razie funkcja oznaczania podejrzanych zdjęć wysyłanych do iCloud będzie działać tylko w USA. To może się w przyszłości zmienić, jeżeli Apple znajdzie odpowiednich partnerów.

Jak żyć, gdy Apple nie chce pornografii dziecięcej w iCloud?

Są przynajmniej dwa proste sposoby. Zrezygnować z gromadzenia takich zdjęć lub zrezygnować z iCloud. Dla tych, którzy, choć nie można im nic zarzucić, czują się źle z faktem, że jednak ktoś raz na kilka bilionów może im zajrzeć w zdjęcie, pozostaje zrezygnować z iCloud. Można np. używać zdjęć Google i nie zastanawiać się, czy ktoś lub coś je skanuje, a mniej lub bardziej anonimowe dane pozyskane w ten sposób przekaże do służb, lub sprzeda. Tam mamy pewność, że tak jest.

Nie rozumiesz czegoś? Masz obawy? Najpierw zdobądź wiedzę, później się żal

Nie każdy musi się znać na wszystkim i zresztą nie ma takiej możliwości. Jednak, zanim zaczniemy ferować wyroki, warto zapoznać się, choć z materiałem dowodowym. Jeżeli sam czegoś nie potrafisz zrozumieć, szukaj wiedzy w sprawdzonych źródłach. Pamiętaj też, że nawet autorytetom zdarza się coś chlapnąć. Zanim przyłączysz się do chóru oskarżycieli, poczekaj trochę, niech pojawi się więcej rzetelnych analiz.

Gdzie znaleźć wiedzę na temat funkcji ochrony dzieci w nadchodzących systemach Apple?

Można u samego Apple, ale jest coraz więcej wyważonych i poważnych analiz z innych źródeł np. w Tech Crunch, czy iMore.

Jeżeli będzie taka potrzeba, to mogę streścić wspomniane wyżej artykuły i dokumenty niebawem.

Nie idźcie na łatwiznę, bo zostaniecie Elojami!

Jaromir Kopp

Użytkownik komputerów Apple od 1991 roku. Dziennikarz technologiczny, programista i deweloper HomeKit. Propagator przyjaznej i dostępnej technologii. Lubi programować w Swift i czystym C. Tworzy rozwiązania FileMaker. Prowadzi zajęcia z IT i programowania dla dzieci oraz młodzieży, szkoli też seniorów. Współautor serii książek o macOS wydanych przez ProstePoradniki.pl. Projektuje, programuje oraz samodzielnie wykonuje prototypy urządzeń Smart Home. Jeździ rowerem.

Ostatnie wpisy

Router Synology RT6600ax. Potężny zarządca sieci

Markę Synology kojarzycie zapewne z urządzeniami NAS. Te świetne dyski sieciowe dają możliwość przechowywania bezpiecznie…

2 lata temu

Sonos ogłasza partnerstwo z Apple i pokazuje dwa głośniki

Na rynek wchodzą dwa nowe głośniki marki Sonos: Era 100 i Era 300. Model Era…

2 lata temu

Sejf Smart Safe współpracuje z HomeKit

Akcesoriów, które możemy dodać do naszego inteligentnego domu jest coraz więcej. Do tego zacnego grona…

2 lata temu

FileMaker Cloud w Polsce

Wiecie, że jedna z najlepszych baz danych - FileMaker (obecnie zmieniana jest nazwa na Claris),…

2 lata temu

Ivory zamiast Tweetbot’a. Mastodon lepszy od Twittera?

Elon Musk wszedł na Twittera i zrobił rewolucje. Ostateczną ocenę jego poczynań w tym serwisie…

2 lata temu

Najważniejsza funkcja nowego HomePod’a

Ten produkt miał już nie istnieć. Kiedy pojawiły się informację, że Apple nie przedłuży życia „dużego”…

2 lata temu

Serwis wykorzystuje pliki cookies. Korzystając ze strony wyrażasz zgodę na wykorzystywanie plików cookies.