Do WWDC 2019 pozostał niewiele ponad miesiąc. Jednak już docierają do nas przecieki z informacjami o prawdopodobnych udoskonaleniach w tegorocznych dużych aktualizacjach systemów.
Według „dobrze poinformowanych źródeł”, do których dotarł 9to5mac udoskonalenia „wewnętrzne” będą znaczące i atrakcyjne dla deweloperów, a użytkownicy szybko będą mogli odczuć zmiany.
Rzeczywistość rozszerzona otrzyma napisane w całości w Swift nowe biblioteki. Dodatkowo AR będzie w stanie rozpoznać ludzkie postacie i ich pozy.
Taptic Engine. Pewnie zauważyliście, jak różne mogą być systemowe „smyrania” i inne drgania wywołane przez Taptic Engine w iPhone i zegarku. Taptic Engine jest obsługiwany przez dodatkowy przetwornik i wzmacniacz audio oraz potrafi dostarczyć doznań w szerokim zakresie częstotliwości i amplitudy. Niestety deweloperzy mieli dostęp tylko do kilku zdefiniowanych przez system „tapnięć”. Teraz będą mogli komponować własne dotykowe melodyjki. Osobiście bardzo mnie to cieszy, bo haptyczną informację zwrotną bardzo sobie cenię.
NFC. Jak już pisałem, większy dostęp do NFC „załatwił” nam rząd brytyjski, a w zasadzie brexit lub przynajmniej tak się Brytyjczycy chwalą. Obecnie programiści mogą odczytywać jedynie tagi NFC NDEF. W następnym systemie dostaną również dostęp do ISO7816, FeliCa oraz MiFare. Pozwoli to na tworzenie aplikacji, które będą mogły odczytywać informacje z dokumentów (są one odpowiedni kodowane, sam czytnik nie wystarczy, potrzebny jest jeszcze np. klucz i algorytm), wielu urządzeń, etykiet i „zaczipowanych” zwierzaków.
Nieszczęsny Marcepan. O ile obecnie bardzo psioczę na tę technologię uniwersalnych aplikacji dla iOS (iPad) i macOS, to mam nadzieję, że Apple podciągnie jakość tej części systemu, zanim odda go w ręce deweloperów. UIKit (część systemu odpowiedzialna w iOS i Marzipan za interfejs) uzyska dostęp na macOS do Touch Baru, paska menu oraz własnych skrótów klawiszowych. Ważnym dodatkiem będzie możliwość otwarcia kilku okien jednej marcepanowej aplikacji. Jest to zbieżne z plotkami obiecującymi możliwość uruchomienia jednej aplikacji na kilku ekranach na iPadzie. Jeżeli mamy już aplikację zgodną z iPadem, to dostosowanie jej dla macOS ma polegać na „włączeniu” takiej opcji w Xcode. Oczywiście, będzie nożna dodać skróty klawiszowe i własne polecenia menu, jeżeli deweloper będzie miał taką fantazję.
CoreML. To część systemów odpowiedzialna za „sztuczną inteligencję”, a dokładniej za użycie danych z nauczania maszynowego. Do tej pory wzorce, które CoreML używał podczas analizowania danych np. kategoryzowania zdjęć były po wcześniejszym przygotowaniu za pomocą specjalnych narzędzi, „na sztywno” wgrywane w aplikację. Teraz wzorce będą mogły być modyfikowane w urządzeniu na podstawie „lekcji” odebranych podczas używania aplikacji. Dużym ułatwieniem, będzie wbudowanie narzędzi do kategoryzowania zdjęć wprost w API Vision. Zdolność do inteligentnej analizy otrzyma też API odpowiedzialne za dźwięk.
Deweloperzy otrzymają bezpośredni dostęp do urządzeń odczytujących zdjęcia i filmy z kart, czy aparatów. Nie będzie konieczne ich wcześniejsze wgranie do Zdjęć.
Opisane nowości dotyczą „wnętrza” systemu. Na pewno na WWDC 2019 pojawi się też sporo zmian w systemach, widocznych na pierwszy rzut oka typowego użytkownika.
Markę Synology kojarzycie zapewne z urządzeniami NAS. Te świetne dyski sieciowe dają możliwość przechowywania bezpiecznie…
Na rynek wchodzą dwa nowe głośniki marki Sonos: Era 100 i Era 300. Model Era…
Akcesoriów, które możemy dodać do naszego inteligentnego domu jest coraz więcej. Do tego zacnego grona…
Wiecie, że jedna z najlepszych baz danych - FileMaker (obecnie zmieniana jest nazwa na Claris),…
Elon Musk wszedł na Twittera i zrobił rewolucje. Ostateczną ocenę jego poczynań w tym serwisie…
Ten produkt miał już nie istnieć. Kiedy pojawiły się informację, że Apple nie przedłuży życia „dużego”…
Serwis wykorzystuje pliki cookies. Korzystając ze strony wyrażasz zgodę na wykorzystywanie plików cookies.