W sieci roi się od ekspertów i znawców, którzy raczą nas swoimi opiniami, choć nie raczyli nawet sprawdzić podstawowych informacji. Tak jest w każdej dziedzinie, w Polsce i w lepszym oraz gorszym świecie. Bardzo mocno dało się to odczuć, gdy Apple zaanonsował nowe sposoby ochrony dzieci i walki z pornografią dziecięcą. Każdy starał się być ekspertem, a 90% „znawców” nie miało pojęcia, jak ma to działać i – co gorsza – takiego pojęcia nie chciało zdobyć. Chcieli tylko uraczyć nas swoimi fobiami i obawami.
Ile razy zrobiliście coś głupiego, dzieckiem będąc? Żałujecie czasem, że nie miał kto zwrócić Wam uwagi lub złapać za rękę? Jestem pewny, że każdy z Was ma takie wspomnienia z dzieciństwa, których wolałby nie mieć, a sam się do nich przyczynił. Obecnie dzieci mają niestety jeszcze więcej możliwości „zrobienia sobie krzywdy”. Mogą np. zbyt ochoczo zareagować na prośbę „Pokaż …”. I właśnie za ten problem wzięło się teraz Apple.
Nie, nie sprawdzi, nie przeczyta, nie obejrzy zdjęć wysyłanych za pomocą iMessages. Więc jak chce sprawdzać, czy dzieci mające konta iCloud dla nastolatków nie otrzymują lub wysyłają nagich zdjęć? Tak samo jak, bez udziału serwerów, wysyłania fotografii, a nawet dostępu do internetu potrafi w zdjęciach zapisanych w iPhone znaleźć osoby, przedmioty i określić sytuacje. Wpiszcie w „szukaj” w Zdjęciach np. „stanik”, „kąpiel” lub „rower”. Zdjęcia wyświetlą fotografie bardzo zbieżne z wyszukiwanym tekstem, bo iPhone sam bez kontaktu z internetem potrafi za pomocą funkcji nauczania maszynowego i AI skojarzyć treść fotografii.
Dokładnie tak samo ma działać funkcja wykrywania nagich zdjęć w wysyłanych i otrzymywanych wiadomościach w iPhone’ach z „dziecięcymi” kontami iCloud. Odpowiedni iPhone (podejrzewam, że z procesorem A12 lub lepszym) w czasie rzeczywistym przeanalizuje zdjęcie i jeżeli dopasuje „wzorce nagości”, to zasłoni je i wyświetli stosowne ostrzeżenie. Jeżeli opiekunowie dziecka włączą odpowiednią funkcję w ustawieniach chmury rodzinnej, to dostaną powiadomienie, że dziecko jednak zdecydowało się wysłać lub obejrzeć nagie zdjęcie. O tym „donosie” dziecko też będzie uprzedzone. To wszystko wewnątrz iPhone’a bez wysyłania czegokolwiek do analizy na jakichkolwiek serwerach. Jasne?
Szkoda tylko, że taka ochrona będzie działać jedynie we Wiadomościach Apple. Dużo większe ryzyko czai się w innych komunikatorach i systemach, których producenci za nic mają dobro dzieci. Szkoda również, że nie ochroni dorosłych przez niechcianymi zdjęciami „penisów”, bo będzie działać tylko na kontach dziecięcych.
Uwaga: ta funkcja jest całkiem niezależna od wyżej opisanej ochrony dzieci przed nagością we wiadomościach.
To jest już bardziej drażliwa kwestia. Jednak domniemania, jakoby „Apple grzebał nam w zdjęciach” są mocno na wyrost. Zacznę od tego, że o ile sam iPhone (iPad itp.) jest „naszą twierdzą”, to dane wysyłane poza niego już nie i Apple wyraźnie o tym pisze między innymi tu: Omówienie kwestii bezpieczeństwa w usłudze iCloud.
Zdjęcia (i niektóre inne dane z iCloud, ale nie wszystkie) mogą być na żądanie uprawnionych instytucji posiadających odpowiednie nakazy np. sądowe odszyfrowane. Jest to możliwe, bo są kodowane kluczem, który jest przechowywany na serwerach Apple, a nie wyłącznie w naszych urządzeniach. W przypadku nowych funkcji wykrywających pornografię dziecięcą zmieni się to, że jeżeli dobrze opisany w dostępnych opracowaniach algorytm dopasuje wzorzec zakazanego zdjęcia z bazy CSAM, to doda stosowną sygnaturę do niego TYLKO, gdy będzie wysyłane do iCloud. Gdy konto nazbiera zbyt wiele ostrzeżeń, to oznaczone jako podejrzane zdjęcia, mogą zostać zweryfikowane przez ludzi. I to jest rzeczywiście coś, co może budzić pewne kontrowersje. Zaznaczam, że w tym przypadku nie są stosowane ogólne algorytmy rozpoznawania zdjęć, a specjalne stworzone tak, aby pomyłek było mniej niż jedna na bilion (nasz, nie ten amerykański).
Na razie funkcja oznaczania podejrzanych zdjęć wysyłanych do iCloud będzie działać tylko w USA. To może się w przyszłości zmienić, jeżeli Apple znajdzie odpowiednich partnerów.
Są przynajmniej dwa proste sposoby. Zrezygnować z gromadzenia takich zdjęć lub zrezygnować z iCloud. Dla tych, którzy, choć nie można im nic zarzucić, czują się źle z faktem, że jednak ktoś raz na kilka bilionów może im zajrzeć w zdjęcie, pozostaje zrezygnować z iCloud. Można np. używać zdjęć Google i nie zastanawiać się, czy ktoś lub coś je skanuje, a mniej lub bardziej anonimowe dane pozyskane w ten sposób przekaże do służb, lub sprzeda. Tam mamy pewność, że tak jest.
Nie każdy musi się znać na wszystkim i zresztą nie ma takiej możliwości. Jednak, zanim zaczniemy ferować wyroki, warto zapoznać się, choć z materiałem dowodowym. Jeżeli sam czegoś nie potrafisz zrozumieć, szukaj wiedzy w sprawdzonych źródłach. Pamiętaj też, że nawet autorytetom zdarza się coś chlapnąć. Zanim przyłączysz się do chóru oskarżycieli, poczekaj trochę, niech pojawi się więcej rzetelnych analiz.
Gdzie znaleźć wiedzę na temat funkcji ochrony dzieci w nadchodzących systemach Apple?
Można u samego Apple, ale jest coraz więcej wyważonych i poważnych analiz z innych źródeł np. w Tech Crunch, czy iMore.
Jeżeli będzie taka potrzeba, to mogę streścić wspomniane wyżej artykuły i dokumenty niebawem.
Nie idźcie na łatwiznę, bo zostaniecie Elojami!
Markę Synology kojarzycie zapewne z urządzeniami NAS. Te świetne dyski sieciowe dają możliwość przechowywania bezpiecznie…
Na rynek wchodzą dwa nowe głośniki marki Sonos: Era 100 i Era 300. Model Era…
Akcesoriów, które możemy dodać do naszego inteligentnego domu jest coraz więcej. Do tego zacnego grona…
Wiecie, że jedna z najlepszych baz danych - FileMaker (obecnie zmieniana jest nazwa na Claris),…
Elon Musk wszedł na Twittera i zrobił rewolucje. Ostateczną ocenę jego poczynań w tym serwisie…
Ten produkt miał już nie istnieć. Kiedy pojawiły się informację, że Apple nie przedłuży życia „dużego”…
Serwis wykorzystuje pliki cookies. Korzystając ze strony wyrażasz zgodę na wykorzystywanie plików cookies.