Apple przywiązuje szczególną wagę do dostępności swoich produktów – jak mówi sam Tim Cook, „ułatwienia dostępu są częścią DNA firmy Apple”. W maju 2025 r. firma ogłosiła szereg nowych narzędzi, które mają uczynić korzystanie z iPhonów, iPadów, Maców czy Apple Watch jeszcze prostszym dla osób z różnymi niepełnosprawnościami. Najnowsze rozwiązania wykorzystują moc nowych procesorów oraz sztucznej inteligencji na urządzeniu, by podnieść komfort użytkowania w całym ekosystemie Apple. Wśród zapowiedzianych zmian znalazły się m.in. etykiety dostępności w App Store, Lupa na Maca, funkcja Braille Access czy Accessibility Reader. Przyjrzyjmy się najważniejszym z tych nowości – ich działaniu i praktycznemu zastosowaniu w codziennym życiu.
Etykiety dostępności w App Store
Apple wprowadza w App Store nową sekcję „Accessibility Nutrition Labels” (etykiety dostępności), która na stronach aplikacji i gier pokaże, jakie udogodnienia dostępności zostały w nich zaimplementowane. Dzięki temu każdy użytkownik będzie mógł przed pobraniem sprawdzić, czy dana aplikacja obsługuje na przykład VoiceOver (czytnik ekranu dla niewidomych), Sterowanie głosowe, Większy tekst, Wystarczający kontrast czy napisy. Deweloperzy natomiast zyskają możliwość jasnego opisania, z jakich funkcji korzysta ich aplikacja. Praktycznie oznacza to na przykład, że osoba niedowidząca już na etapie wyboru aplikacji zobaczy informację, że program pozwala na powiększenie czcionki albo korzysta z narracji głosowej. Dzięki etykietom dostępności każdy będzie mógł lepiej dopasować narzędzia do własnych potrzeb – na przykład użytkownik głuchy sprawdzi, czy w aplikacji są napisy.
Lupa na Macu
Dotychczas znana z iPhona i iPada aplikacja Lupa (Magnifier) trafia także na komputery Mac. Nowa aplikacja Lupa na Macu łączy się z wbudowaną kamerą komputera (lub nawet z iPhonem przez funkcję Continuity Camera) oraz z kamerami podłączonymi przez USB. Dzięki temu użytkownik może powiększać obraz otoczenia – na przykład ekran innego urządzenia, tablicę na ścianie czy obiekty na biurku – i czytać wyrazy, które wcześniej były dla niego niedostrzegalne. Aplikacja pozwala jednocześnie na otwarcie kilku okien Lupy (by śledzić np. powiększony fragment książki i ekran komputera), a także na dostosowanie jasności, kontrastu czy filtrów kolorystycznych, by lepiej widzieć tekst i obraz.
Ułatwieniem jest też tzw. Widok blatu – gdy położymy dokument lub książkę na biurku i skierujemy na niego kamerę, Lupa specjalnie czyta leżące na płaskiej powierzchni strony, wyraźnie je wyświetlając. Przydatne będzie to np. dla ucznia z wadami wzroku czy osoby starszej czytającej menu restauracyjne – pozwoli skierować kamerę na obiekt i od razu zobaczyć powiększone litery na ekranie komputera. Co ważne, zapisane ustawienia (ulubione widoki) można zapisać i łatwo przywrócić przy kolejnych użyciach.
Braille Access – nowy sposób korzystania z pisma Braille’a
Jedną z najbardziej przełomowych nowości jest Braille Access, która pozwoli zamienić iPhone’a, iPada, Maca czy Apple Vision Pro w wirtualny notatnik brajlowski. Oznacza to, że użytkownik może pisać Braille’em bezpośrednio na ekranie (korzystając z wbudowanej klawiatury Braille Screen Input) lub podłączyć zewnętrzny wyświetlacz brajlowski. Funkcja umożliwia szybkie tworzenie notatek w kodzie Braille’a oraz wykonywanie obliczeń matematycznych za pomocą kodu Nemeth, który używany jest w szkole przy nauce matematyki i nauk ścisłych.
Użytkownicy mogą także wczytywać w Braille Access pliki w formacie BRF (Braille Ready Format), np. wcześniej zapisane notatki czy książki brajlowskie, i czytać je na monitorze brajlowskim. System został dodatkowo zintegrowany z funkcją Napisy na żywo – dzięki temu rozmowy czy wykłady mogą być automatycznie transkrybowane i wyświetlane w czasie rzeczywistym na brajlowskim ekranie. Przykładowe zastosowanie: niewidoma uczennica może używać iPhone’a jako cyfrowego notatnika Braille’a podczas lekcji, szybko zapisywać równania matematyczne czy czytać podręczniki zapisane w brajlu – wszystko bez konieczności dodatkowych urządzeń, bo Apple zapewnia pełną integrację.
Accessibility Reader – czytanie bez barier
Funkcja Accessibility Reader to nowy tryb czytania dostępny w całym systemie i wszystkich urządzeniach Apple (iPhone, iPad, Mac, Vision Pro). Został stworzony z myślą o osobach z dysleksją lub problemami ze wzrokiem. Umożliwia użytkownikom pełną personalizację tekstu – można zmieniać czcionkę (na przykład na bardziej bezszeryfową), dostosować kolory tła i tekstu oraz zwiększyć odstępy między wierszami, by litery były bardziej czytelne. Dodatkowo Reader potrafi przeczytać na głos tekst za pomocą funkcji mówionego czytania („text-to-speech”).
Accessibility Reader można włączyć w dowolnej aplikacji – czy to w przeglądarce internetowej, e-booku, czy aplikacji z gazetą – a także w aplikacji Lupa, by odczytywać teksty sfotografowane przez kamerę. Na przykład osoba z dysleksją, czytając artykuł, może zmienić czcionkę i włączyć podświetlanie czytanego wiersza, co ułatwi skupienie się na tekście. Dzięki temu tradycyjna lektura staje się bardziej przyjazna – to trochę jak zoptymalizowana przeglądarka tekstu, która „wie”, że czytelnik ma inne potrzeby wizualne.
Live Listen i Napisy na Apple Watch
Apple rozszerza także możliwości Live Listen – funkcji dla osób z problemami słuchu – o obsługę na Apple Watch. Teraz zegarek może kontrolować mikrofon iPhone’a i wyświetlać napisy na żywo podczas gdy dźwięk płynie do słuchawek AirPods lub aparatów słuchowych. W praktyce wygląda to tak: nie słyszący użytkownik uruchamia na iPhonie sesję Live Listen (iPhone działa jak zdalny mikrofon). Każde słowo, które padnie do iPhone’a, jest równocześnie wysyłane do słuchawek, a na ekranie Apple Watch pojawiają się transkrypcje mówionych słów. Zegarek służy przy tym jako pilot – użytkownik może jednym dotknięciem na zegarku włączać i wyłączać sesję Live Listen lub cofać się o kilka sekund, aby nic nie przegapić.
Dzięki temu np. osoba niesłysząca na wykładzie może śledzić wypowiedź prelegenta zarówno za pomocą wzroku (czytając napisy na zegarku), jak i – w razie potrzeby – akustycznie przez słuchawki. Funkcja działa w połączeniu z urządzeniami „Made for iPhone” (np. AirPods Pro 2 z funkcjami ochrony słuchu), co dodatkowo poprawia jej użyteczność dla osób z dysfunkcjami słuchu.
Udoskonalenia w Apple Vision Pro
Nadchodzą też istotne aktualizacje w systemie visionOS dla Apple Vision Pro, dedykowane osobom niewidomym i słabowidzącym. Jedną z nich jest zaawansowany Zoom, który pozwoli powiększać obraz całego otoczenia uchwyconego kamerą główną gogli. Użytkownik może wyciągnąć rękę z gogle, skierować kamerę na dowolny przedmiot lub tekst (np. strony książki) i jednym gestem powiększyć wybrany fragment, by lepiej go zobaczyć.
Drugą dużą nowością jest Live Recognition – funkcja oparta na sztucznej inteligencji, która dynamicznie opisuje obraz z kamery głównej. Użytkownik korzystający z VoiceOver usłyszy wówczas informacje o tym, co znajduje się przed nim – np. przeczytane będzie to, co jest napisane na dokumentach, zidentyfikowane przedmioty lub opowiedziane elementy sceny (podobnie jak robi to aplikacja Be My Eyes). Deweloperzy otrzymają specjalne API, by korzystać z obrazu kamery w swoich aplikacjach dostępnościowych – dzięki temu np. asystent na żywo może rozpoznać więcej kontekstowych sygnałów dla użytkownika. Przykład zastosowania: użytkownik Vision Pro może skierować głowę na przyprawy w kuchni, a urządzenie poda nazwę każdej przyprawy, albo powiększyć krótki fragment przepisu na ścianie, by łatwiej go przeczytać.
Inne nowości i usprawnienia
Poza głównymi funkcjami Apple przygotowało szereg mniejszych, ale ważnych usprawnień w całym systemie.
-
- Dźwięki w tle – to tło akustyczne (np. biały szum, odgłosy deszczu, lasu itp.) pomagające się zrelaksować lub skupić. Apple doda nowe ustawienia korektora EQ oraz opcję automatycznego wyłączania dźwięków po określonym czasie, co ułatwi dopasowanie ich do osobistych potrzeb.
- Personal Voice (Osobisty Głos) – umożliwia osobom zagrożonym utratą mowy szybkie wygenerowanie syntetycznego głosu naśladującego ich własny. Teraz wystarczy nagrać zaledwie 10 krótkich fraz, a system w mniej niż minutę utworzy naturalnie brzmiący głos użytkownika. Dodano także obsługę języka hiszpańskiego (Meksyk) dla tej funkcji.
- Sygnalizacja ruchu pojazdu (Vehicle Motion Cues) – pomaga redukować dolegliwości choroby lokomocyjnej (np. mdłości w samochodzie). Do tej pory dostępna tylko w CarPlay, teraz trafi także na Maca – przy czym pojawią się nowe opcje personalizacji działania tego trybu.
- Śledzenie wzroku i ruchu głowy – ulepszone algorytmy umożliwią sterowanie niektórymi funkcjami urządzeń za pomocą ruchu oczu lub głowy. Ułatwi to osobom z ograniczeniami ruchowymi nawigowanie iPhone’em, iPadem czy nawet Vision Pro.
- Sterowanie przełącznikami (BCI) – w systemach iOS, iPadOS i visionOS pojawi się nowy protokół do współpracy z interfejsami mózg-komputer (BCI), co wspiera rozwój technologii sterowania urządzeniami bez użycia rąk.
- Rozpoznawanie imienia (sound recognition) – rozszerzono funkcję rozpoznawania dźwięków o powiadamianie użytkownika, gdy ktoś wypowie jego imię. Dzięki temu osoba niesłysząca zostanie powiadomiona, że np. ktoś ją woła, co wcześniej mogłoby umknąć jej uwadze.
- CarPlay – w interfejsie samochodowym wprowadzono obsługę dużego tekstu oraz nowe powiadomienia dźwięków. Kierowca lub pasażer z uszkodzonym słuchem może więc otrzymywać alerty o ważnych odgłosach (np. płacz dziecka w tylnej kanapie, klakson innego auta czy syrena karetki).
- Udostępnianie ustawień dostępności – ułatwi szybkie skopiowanie preferencji dostępności (np. powiększony tekst, odwrotny kontrast, sposoby wejścia itp.) z jednego iPhone’a czy iPada na inny. Dzięki temu np. nauczyciel może w klasie szybko sklonować ustawienia ucznia na szkolnym iPadzie.
Pojawią się też inne funkcje, takie jak Assistive Access (uproszczona aplikacja dla Apple TV), synchronizacja poleceń głosowych między urządzeniami, nowe tryby w Sterowaniu głosem, czy muzyka z haptyką – pozwalająca wyczuć wibracje zgodne z rytmem odtwarzanej melodii. Wszystkie te drobiazgi razem wzięte sprawiają, że Apple jeszcze bardziej poszerza zakres swoich ułatwień dostępu, kierując technologię „dla wszystkich”.
Nowe funkcje dostępności od Apple zadebiutują w 2025t. w późniejszych aktualizacjach systemów iOS, macOS, visionOS i innych.