Apple na łamach swojego Machine Learning Journal wyjaśnia, jak działa rozpoznawanie twarzy z użyciem Deep Neural Network. Kolejny raz przy tym podkreśla, że całość analizy obrazu odbywa się w urządzeniu użytkownika, bez konieczności wysyłania zdjęć gdziekolwiek. Warto o tym pamiętać, porównując ekosystem Apple z innymi.
Deep Neural Network jest używane do rozpoznawania twarzy od iOS 10. Programiści mają do niego dostęp za pomocą Vision framework. Poprzednio do rozpoznawania twarzy Apple używał metody Viola-Jones. Coraz większa moc obliczeniowa mobilnych urządzeń Apple pozwoliła przejść na dokładniejsze, ale również bardziej złożone i wymagające metody wykorzystujące algorytmy sieci neuronowych oraz maszynowego uczenia. Jednak nie było to łatwe.
W Machine Learning Journal inżynierowie Apple wyjaśniają, z jakimi wyzwaniami musieli się zmierzyć, aby analiza zdjęć mogła być wykonana bez potrzeby wysyłania ich na serwery. Po pierwsze: Biblioteka zdjęć iCloud, jeżeli z niej korzystamy, wysyła na serwer zdjęcia zaszyfrowane naszym prywatnym kluczem i w tej postaci są one przechowywane. Mogą być odszyfrowane tylko na urządzeniach przypisanych do naszego konta, za pomocą naszego klucza. Apple nie robi tu żadnych wyjątków.
Rozpoznawanie twarzy przy użyciu algorytmów uczących się i sieci neuronowych wymaga sporych zasobów pamięci RAM i mocy obliczeniowej procesora oraz układów graficznych. Użytkownik nie chce i nie powinien odczuwać spowolnienia pracy, czy nadmiernego zużycia baterii, gdy analizy odbywają się w tle. Jednocześnie chce, aby twarze na zdjęciach zostały rozpoznane jak najszybciej.
Inżynierowie Apple musieli zastosować wiele metod optymalizacji. Od odpowiedniego podziału i przeskalowania danych wejściowych np. 64 megapikslowej panoramy, po łączenie zasobów dla kilku jednocześnie pracujących sieci neuronowych.
Jeżeli chcecie dowiedzieć się szczegółowo jakich metod użyto, przeczytajcie wpis: An On-device Deep Neural Network for Face Detection.
Dzięki wysiłkowi inżynierów nie odczuwamy podczas normalnego używania iPhone’a lub iPada, że w tle sieci neuronowe wykonują setki miliardów operacji zmiennoprzecinkowych na sekundę, aby analizować zdjęcia i wykonywać inne procesy wymagające użycia sztucznej inteligencji. W najnowszych iPhone’ach większość operacji sieci neuronowych wykonuje Neural engine. Ta nowa jednostka w układach A11 Apple pracuje szybciej i energooszczędniej, jednocześnie pozwala na użycie procesora i układów graficznych do innych celów.
A wszystko to aby jeszcze lepiej chronić naszą prywatność.
Markę Synology kojarzycie zapewne z urządzeniami NAS. Te świetne dyski sieciowe dają możliwość przechowywania bezpiecznie…
Na rynek wchodzą dwa nowe głośniki marki Sonos: Era 100 i Era 300. Model Era…
Akcesoriów, które możemy dodać do naszego inteligentnego domu jest coraz więcej. Do tego zacnego grona…
Wiecie, że jedna z najlepszych baz danych - FileMaker (obecnie zmieniana jest nazwa na Claris),…
Elon Musk wszedł na Twittera i zrobił rewolucje. Ostateczną ocenę jego poczynań w tym serwisie…
Ten produkt miał już nie istnieć. Kiedy pojawiły się informację, że Apple nie przedłuży życia „dużego”…
Serwis wykorzystuje pliki cookies. Korzystając ze strony wyrażasz zgodę na wykorzystywanie plików cookies.