JAWS kontra NVDA w profesjonalnym dostępie do informacji

Profesjonalny dostęp do informacji polega na możliwości zapoznania się z informacją w taki sposób, który pozwala poprawnie zrozumieć sens tego przekazu. Profesjonalizm polega więc na:

  • przekazie bez niepotrzebnych opóźnień,
  • przekazie treści koniecznych i wystarczających do ich prawidłowego zrozumienia,
  • przekazie wolnym od dodatkowych czynności, koniecznych do uzupełnienia informacji w celu ich prawidłowego zrozumienia.

Dostęp do informacji za pomocą czytników ekranów polega na odszukiwaniu najważniejszych informacji oraz informacji z nimi powiązanych i takim ich przetworzeniu i zaprezentowaniu, by niewidomy użytkownik mógł je zrozumieć.

Różne czytniki realizują to zadanie na różne sposoby. Program JAWS prezentuje informacje z ekranu komputera w sposób naśladujący pozyskiwanie informacji przez osoby widzące. Dzięki temu niewidomi użytkownicy otrzymują zwięzłą, klarowną i kompletną informację, w której zawarte są jednocześnie treści główne i kontekstowe, uzupełniające. Komunikat jest szybki i kompletny.

Program NVDA dostęp do informacji realizuje odmiennie. Automatycznie przedstawia treść główną, natomiast informacje uzupełniające użytkownik musi samodzielnie odszukać i odczytać za pomocą dostarczanych funkcji, uruchamianych skrótami klawiszowymi.

Oba czytniki wyposażone są w wiele funkcji do ręcznego przeglądania ekranu i odczytywania zawartych na nim informacji. Jednak NVDA wymusza od użytkownika większego zaawansowania i sprawności technicznej w obsłudze. Nie każdy będzie w stanie sprawnie wykonać wszystkie czynności, by odnaleźć wszystkie potrzebne informacje.

JAWS, dając więcej możliwości wykazania się taką sprawnością, nie zmusza użytkownika do wysiłku. JAWS prezentuje informacje tak, by użytkownik nie musiał wykonywać dodatkowych czynności, by zrozumieć informacje. Pozwala też dostosować sposób prezentacji informacji tak, jak życzą sobie poszczególni użytkownicy. Takie dostosowanie wykonuje się raz i korzysta stale. Można dostosować działanie czytnika w konkretnej aplikacji, w konkretnym dokumencie lub na konkretnej stronie internetowej. NVDA w znacznie mniejszym stopniu pozwala zindywidualizować sposoby prezentowania informacji. Zmusza to użytkownika do odsłuchania wielu niepotrzebnych informacji i wykonania wielu dodatkowych działań.

Generalnie praca z JAWS polega na wykonywaniu podstawowej pracy, a nie na obsłudze czytnika. W innych czytnikach, wykonując jakąś pracę, zajmujemy się obsługą czytnika, realizując jednocześnie wykonywane zadanie.

Ważnym argumentem przemawiającym za dostępem oferowanym przez JAWS jest też oszczędność czasu. JAWS umożliwia pracę szybszą i bardziej efektywną, bez tracenia czasu i energii na dodatkowe czynności.

Pismo czy mowa? Interfejsy nowoczesnych urządzeń

Małymi krokami, ale nieustannie postępuje rozwój dostępności interfejsów nowoczesnych urządzeń. Napisałem „małymi krokami”, bo choć bywają kroki milowe, to nie zawsze są od razu tam, gdzie powinny. Czasami postęp jest wielki, lecz wykonanej pracy nie widać, bo to co najważniejsze zostało wykonane w kodzie programu lub systemu operacyjnego.

Najnowsze urządzenia wyposażone są w interfejsy dostępności, o których jeszcze 10 lat temu tylko rozmawialiśmy. Jako pierwsze powstały interfejsy mówione i brajlowskie. Obecnie mamy możliwość obsługi ekranów dotykowych za pomocą gestów, wpisywania treści za pomocą różnych klawiatur dotykowych – zwykłych i brajlowskich, a nawet dyktowania i używania poleceń głosowych, dostosowywania kolorów, kontrastów i wielkości czcionek itp. Trzeba przy tym jasno powiedzieć, że technologie te działają dobrze i są skutecznymi sposobami obsługi smartfonów, odtwarzaczy, tabletów i wielu innych urządzeń.

W niniejszym artykule chciałbym zająć się najstarszym sposobem komunikacji z urządzeniami. Chodzi mi oczywiście o komunikację za pomocą pisma, które dla użytkowników niewidomych realizowane jest z wykorzystaniem pisma Braille’a i monitorów brajlowskich.

Monitory brajlowskie są najczęściej oddzielnymi urządzeniami, wyspecjalizowanymi tylko do wyświetlania informacji tekstowych, choć jest kilka modeli, na których można wyświetlać także grafikę. Najnowsze modele wyposażone są w klawiatury brajlowskie, umożliwiające także wpisywanie tekstu i sterowanie urządzeniami za pomocą poleceń brajlowskich. Istnieje też grupa urządzeń, które mają wbudowane monitory brajlowskie na stałe. Są to notatniki brajlowskie, smartwatche i smartfony.

Monitory komunikują się z urządzeniami najczęściej za pomocą bezprzewodowego połączenia Bluetooth lub za pomocą połączenia przewodowego USB. Mają taką lub inną klawiaturę brajlowską, przyciski przywoływania kursora, przyciski sterujące, możliwość dostosowania sztywności punktów. Mogą pracować bez przerwy na akumulatorze ponad 20 godzin. Oczywiście są między poszczególnymi monitorami pewne różnice, które sprawiają, że użytkownicy wybierają te, a nie inne. Jednak monitor to tylko monitor. Cała wartość interfejsu opartego na piśmie zawarta jest w oprogramowaniu sterującym pracą monitora, no i „tu zaczynają się schody”. Producenci czytników ekranów, edytorów do składu i drukowania publikacji brajlowskich, producenci drukarek brajlowskich używają tzw. translatorów, czyli programów wyspecjalizowanych do zamiany tekstu na zapis brajlowski. Najbardziej znaną i powszechnie używaną biblioteką translującą teksty na brajla jest biblioteka „biblouis”, która jest aktualnie we wszystkich znanych mi czytnikach ekranów oraz brajlowskich edytorach tekstów. Jej zaletą jest fakt, że może tłumaczyć teksty na dowolny język według określonego zestawu znaków i reguł. Cóż z tego, jeśli jest to tylko teoria.

W Polsce od 2010 w programie JAWS, firma Altix zaimplementowała własne biblioteki, które umożliwiały translację na polski brajl literacki, polskie ortograficzne skróty brajlowskie pierwszego i drugiego stopnia. W pozostałych czytnikach jedynym możliwym trybem pracy z brajlem jest brajl komputerowy.

O co w tym chodzi? Na czym polega problem? Problem zaczyna się od samego brajla. Pismo punktowe zostało wymyślone jako zestaw znaków zbudowanych z sześciu punktów. Sześć punktów pozwala utworzyć zbiór 64 różnych znaków. Zatem nawet nie jest on równy liczbie liter polskiego alfabetu, który posiada 34 małe i 34 wielkie litery. Pismo Braille’a jest więc systemem, w którym odpowiednim znakom graficznym odpowiada jeden, dwa lub więcej znaków brajlowskich. Osoba niewidoma musi nauczyć się tych wszystkich znaków i zasad ich stosowania.

Problem nr 1. Utworzenie nowego zapisu zwanego brajlem komputerowym. W tym trybie nie ma translacji. Znak brajlowski rozbudowano o dwa dodatkowe punkty, rozszerzając zbiór wszystkich znaków do liczby 256, co pozwala uzyskać jednoznaczne odwzorowanie rozszerzonego zestawu kodów ASCII. Nie ma tu wieloznaków. Każda litera, niezależnie mała czy wielka, ma przypisany jeden znak, swój własny odpowiednik. Podobnie jest z cyframi, znakami interpunkcyjnymi, znakami matematycznymi i informatycznymi. Jest to bardzo proste przekształcenie znaków graficznych na znaki wypukłe. Jednak jest to inne pismo niż to, którego uczą się dzieci w szkołach, inne niż to używane w podręcznikach i książkach. W szkołach polskich i w oficjalnych publikacjach używamy brajla sześciopunktowego.

Problem nr 2. Błędy w trybach brajla sześciopunktowego. Brajla sześciopunktowego używamy do różnorodnych zapisów. Mamy zapis literacki (tzw. integrał), polskie ortograficzne skróty brajlowskie pierwszego i drugiego stopnia, notację matematyczną, notację fizyczną, chemiczną oraz notację muzyczną. Wszystkie notacje wykorzystują ten sam zestaw sześćdziesięciu czterech znaków brajlowskich. Znaki te w różnych kombinacjach mogą się powtarzać, ale zależnie od notacji mogą oznaczać różne treści. Człowiek znający te notacje świetnie sobie radzi z ich użyciem. Trudno je jednak zaimplementować do programów, w których treści graficzne nie są ściśle i jednoznacznie określone.

Problem nr 3. Słaba znajomość brajla komputerowego i brajla sześciopunktowego. Brak świadomości o istnieniu tych różnych trybów brajla, pomimo istnienia tego pierwszego od samego początku, a brajla komputerowego już prawie od pół wieku, wprowadza wiele zamieszania. Nawet nauczyciele brajla, którzy bardzo dobrze znają brajla sześciopunktowego, jeśli nie pracują na komputerach, nie mają praktycznej wiedzy o konfiguracji programów i co, gdzie i komu zaproponować.

Problem nr 4. Brak umiejętności tworzenia dostępnych dokumentów elektronicznych. Jedynie znikoma liczba użytkowników komputerów potrafi dobrze napisać dokument. Widzący użytkownicy bazują jedynie na formatowaniu wizualnym, zupełnie ignorując formatowanie logiczne. Brak świadomości i umiejętności na temat dostępności dokumentów jest powszechny. Wielu użytkowników używa bardzo zaawansowanych edytorów tekstowych, ale najczęściej używa go na poziomie mechanicznej maszyny do pisania. Użytkownicy ci nie tylko nie wykorzystują oznaczania treści znacznikami, które umożliwiają odpowiednie formatowanie, automatyczne tworzenie spisów treści, spisów obrazów, przypisów itp., ale potrafią nawet zepsuć zwykłe akapity, dzieląc pojedyncze zdanie na wiele linii i wiele akapitów. Nie mają przy tym świadomości, że formatowanie wizualne jest niejednoznaczne i że żaden program nie jest w stanie takiego tekstu odpowiednio przetworzyć. Nie potrafią go też przetworzyć poprawnie translatory brajla, a takie próby wprowadzają więcej niepewności niż pożytku. Bo niewidomy użytkownik nie mogąc odczytać wyniku translacji nie wie w czym tkwi błąd i zaczyna wątpić w swoje własne umiejętności.

Problem nr 5. Brak zainteresowania producentów czytników ekranów poprawną implementacją pisma brajla we własnych produktach. Najczęściej obsługa brajla jest funkcją dodatkową, która ma działać tak, by produkt nie odróżniał się od innych programów. Niewielkie liczebnie grupy użytkowników pisma brajla, rozdzielone na mniejsze grupy użytkowników poszczególnych programów stanowią zbyt słabą siłę nacisku, by uzyskać od producentów dobrze działającą funkcję. A producenci, którzy dbają o tę funkcjonalność, są najczęściej firmami komercyjnymi i ich produkty zwyczajnie trzeba kupić. Takim wyjątkiem wśród producentów jest firma Freedom Scientific, która wraz z lokalnymi dystrybutorami swojego flagowego czytnika ekranu JAWS, ciągle udoskonala obsługę brajla. Może jest to związane z tym, że jest jednocześnie producentem monitorów brajlowskich z serii Focus i jest żywo zainteresowana poprawną współpracą obu produktów?

Problem nr 6. Pisanie brajlem. Dzieci w szkołach uczą się pisać na mechanicznych maszynach brajlowskich, używając brajla sześciopunktowego. Przy takim pisaniu na papierze wytłoczone zostaną dokładnie takie znaki, jakie dziecko wpisze przy użyciu klawiatury brajlowskiej. W takim przypadku dziecko jest translatorem. Samo tworzy zapis i samo go odczytuje. Nikt obcy lub nic obcego nie interpretuje jego zapisu pomiędzy naciśnięciem klawiszy a uwypukleniem się punktów. W przypadku pisania na urządzeniach komputerowych wyposażonych w klawiaturę QWERTY, wpisywane są graficzne znaki tekstu. Gdy piszemy używając klawiatury brajlowskiej, wciskamy znak zbudowany z punktów brajlowskich, który musi być rozpatrywany wraz z sąsiednimi znakami i zgodnie z regułami przekształcony na znak tekstu. Jeśli program poprawnie tłumaczy wpisywane znaki, to na ekranie komputera wyświetlają się właściwe znaki. Jeśli jednak translator źle przekształca wpisywane znaki, to otrzymujemy zupełnie inne treści niż wpisujemy. Na przykład: by napisać liczbę 123, należy wpisać trzy cyfry „1”, „2” i „3”. Jeśli używamy klawiatury QWERTY nie ma problemu, wciskamy trzy kolejne klawisze z tymi cyframi. Na klawiaturze brajlowskiej musimy wpisać najpierw znak liczby, następnie odpowiednie znaki cyfr brajlowskich, które jak wiemy są takie same jak znaki liter. Jeśli więc translator źle tłumaczy wpisywany tekst, to na ekranie zamiast liczby 123 zostanie wyświetlony ciąg „#abc”. Obecnie jedynie program JAWS umożliwia pisanie przy pomocy klawiatury brajlowskiej.

Problem nr 7. Brak wiedzy wśród użytkowników, która umożliwia samodzielną ocenę poprawności działania translatora. Użytkownik posługujący się pismem brajla musi umieć samodzielnie ocenić, czy wpisał to, co zamierzał. Dopiero wtedy będzie w stanie używać tej techniki i wymagać od producenta lub dystrybutora poprawienia błędów.

Problem nr 8. Różnice pomiędzy pismem analogowym a pismem cyfrowym. Używając komputera, możemy używać dowolnych znaków, zarówno z alfabetu naszego podstawowego języka, jak i spoza niego oraz w zasadzie dowolnego znaku typograficznego. Natomiast manualne pismo brajlowskie ograniczało się do określonych zbiorów znaków. Jednak program tłumaczący może otrzymać dowolny tekst. Użytkownik może chcieć odczytać stronę internetową, książkę, a w nich mogą być dowolne znaki typograficzne. Zatem translator musi wiedzieć jak zinterpretować poszczególne znaki i je odpowiednio przetłumaczyć. Stąd też istnieje potrzeba rozszerzenia reguł notacji brajlowskich.

Problem nr 9. Nasze – niewidomych – zaniedbania. Nikt inny niż my sami możemy zaproponować i stworzyć reguły translacji. Nie trzeba przy tym wymyślać zupełnie nowych zasad. Należy jedynie zebrać obecnie używane, przejrzeć je i zastanowić się czy w erze tekstów komputerowych spełniają swoje zadania i albo je doprecyzować, albo odrzucić, a w końcu opracować kilka nowych, które uwzględnią nowe potrzeby. Nie jest to nic trudnego, nie wymaga napisania wniosków o dotacje, lecz spokojne prace związane z testowaniem wdrożonych rozwiązań.

Pora chyba na konkluzję. Pismo jest bardzo wygodnym i chyba koniecznym sposobem komunikacji pomiędzy ludźmi, także przy użyciu urządzeń elektronicznych. Pismem można posługiwać się w jego pełnym zakresie, pisząc i czytając lub wykorzystując nowoczesne urządzenia komputerowe tylko pośrednio odsłuchując wygenerowaną na podstawie tekstu mowę. W tym drugim przypadku rezygnujemy z wielu wartościowych cech pisma. Rezygnujemy z dokładności, dyskrecji, możliwości dostosowania tempa czytania do własnych potrzeb oraz wykluczamy się z grupy osób posługujących się pismem. Istnieje także różnica pomiędzy pisaniem na klawiaturze QWERTY a pisaniem na klawiaturze brajlowskiej. Klawiatura QWERTY nie daje możliwości kontroli wpisywanych znaków poza ich fonetycznym brzmieniem, a to, jak wiemy, bywa zawodne. Pisanie na klawiaturze brajlowskiej wymaga wpisywania konkretnych kształtów znaków, co jest bardzo zbliżone do tworzenia znaków graficznych przy pisaniu ręcznym. Pora więc na zastosowanie i używanie poprawnie działających funkcji brajlowskich zarówno do czytania, jak i pisania. Powinniśmy oczekiwać i wymagać dopracowania tych funkcji w naszych urządzeniach i programach. Skoro jest to możliwe i jest tylko kwestią wiedzy, świadomości, staranności z naszej strony oraz wysiłku programistów z drugiej strony, to możliwość używania pisma jest jak najbardziej pożądana.

Jeszcze jedna sprawa. W tytule tego artykułu zadałem pytanie: „Pismo czy mowa?”. Chciałbym, by Czytelnicy nie zastanawiali się, która z metod jest lepsza, lecz jak i co zrobić, by móc korzystać z nich obu. W taki sposób jak należy i w taki sposób jak nam wygodnie. Chodzi o to, by nie rezygnować z pisma tylko dlatego, że tak dużo zamieszania wokół pisma Braille’a zrobiono. Jestem pewien, że producenci urządzeń i oprogramowania bardzo chętnie zajmą się udoskonalaniem tej funkcjonalności, jeśli tylko zorientują się, że jest zainteresowanie tym tematem.

Rola tyflografiki w przybliżaniu sztuki

Zastanawiając się nad dostępnością sztuki dla osób niewidomych, przychodzi mi do głowy najtrudniejsza do przedstawienia forma, jaką jest malarstwo. Malarstwo, czyli obrazy płaskie, w których podstawową rolę odgrywa gra barw, światła i kształtów. Natomiast myśląc o tyflografice, wyobrażam sobie obraz wypukły, który będzie odbierany za pomocą dotyku. Wykorzystując nowoczesne technologie, możemy przygotować specjalnie zaadaptowaną grafikę. Potrafimy w ten sposób uzyskać wypukłe obrazy, na których można dotykiem rozpoznać kształty przedstawianych obiektów. Jednak nie mamy możliwości przekazania informacji o barwach i światłocieniach.

Czy pomimo braku tych ważnych elementów warto tworzyć rozwiązania, które pozwolą osobom niewidomym poznawać sztukę?

Jest to moim zdaniem problem złożony. Zahacza o wiedzę z wielu dziedzin, od socjologii i psychologii poznawczej do estetyki i etyki.

Najpierw zajmijmy się metodami poznawczymi. Tym, co różni poznawanie wzrokowe lub dotykowe obiektów przez człowieka, od ich poznawania za pomocą opisów mówionych lub pisanych, jest wykorzystywanie innych mechanizmów wyobraźni. Opisy uruchamiają indywidualne zdolności intelektualne człowieka i tworzą wyobrażenia subiektywne. Ten sam opis będzie inaczej rozumiany przez prawie każdego z odbiorców. Inaczej zrozumie go dziecko, a inaczej osoba dorosła, inaczej osoba wykształcona, a inaczej człowiek bez wykształcenia. Opis może być też obarczony nadmierną interpretacją autora.

Poznawanie dotykowe, podobnie jak wzrokowe, daje kontakt z konkretem. Poznanie konkretu jest bardziej obiektywne. Dotykiem poznajemy wielkość, kształty, wzajemne położenie elementów na obrazie, odległości pomiędzy tymi elementami oraz relacje pomiędzy nimi. Wyczuwamy też strukturę powierzchni. Dotyk – oglądanie obrazu ma charakter ciągły i nie jest ograniczony czasowo. Dzięki temu łatwiej jest wyobrazić sobie całość obrazu i go zapamiętać.

Jeśli dodatkowo wzbogacimy to poznanie o opis werbalny, odbiorca będzie mógł dopasować poszczególne elementy opisu do obiektów obrazu. Jego poznanie będzie pełniejsze i bliższe oryginałowi.

Nie musimy przy tym oczekiwać, że niewidomy odbiorca dozna wszystkich wrażeń, ani nawet, że w pełni zrozumie dane dzieło. Wszakże zdarzają się osoby widzące, które widzą, ale nie potrafią zrozumieć dzieła, ani się nim zainteresować.

Ważne jest aktywne uczestnictwo osoby w poznawaniu dzieła i próba jego zrozumienia.

Jeśli obudzimy dzięki temu ciekawość poznawczą osoby niewidomej i chęć poznawania kolejnych dzieł, osiągamy sukces, bo osoba ta zaczyna czynnie uczestniczyć w życiu społecznym i kulturalnym. Wzbogaca się także intelektualnie, bo pozyskuje wiedzę, która bez odpowiedniej adaptacji jest dla niej niedostępna.

Wydaje mi się, że nie ma innego sposobu pozyskania tego rodzaju wiedzy, jak tylko bezpośredni kontakt z konkretnym, dostępnym dotykowo obiektem wzbogaconym o ciekawy opis.

Ponadto, umiejętności czytania dotykiem trzeba się nauczyć. Im więcej mamy doświadczeń i zapamiętanych wrażeń, tym łatwiej poznajemy świat i jego artystyczne odwzorowania oraz potrafimy je lepiej zrozumieć.

Odbiór sztuki to nie tylko poznanie obiektu, ale być może głównie odbiór wrażeń estetycznych.

Czy można więc pogodzić ograniczone możliwości poznawcze osób niewidomych ze sztuką docierającą do człowieka za pomocą wzroku?

Wszyscy wiemy, że nie da się opowiedzieć jak wygląda barwa. Osoby niewidome, które nigdy nie widziały, nie są w stanie poznać kolorów. A jednak warto pokazywać osobom niewidomym wszystko, także dzieła sztuki. Warto też z nimi o sztuce rozmawiać. To, co dla człowieka jest najcenniejsze to to, czego mu brakuje. Dając osobom niewidomym nawet bardzo skromną możliwość poznawania sztuki i obcowania z nią, dajemy im to, co dla nich najcenniejsze.

Metody i technologie, dzięki którym można przybliżać sztukę osobom niewidomym.

Firma Altix wykorzystuje cztery różne technologie. Główne różnice polegają na stosowanych materiałach, kosztach produkcji oraz trwałości produktu końcowego.

Technologia termoformowania polega na uzyskiwaniu wypukłych kształtów na plastikowej folii. Jest ona stosunkowo tania, pozwala wyprodukować wiele egzemplarzy tego samego obrazu. Jest stosowana najczęściej do użytku przez indywidualnych użytkowników. Produkty te są odporne na warunki atmosferyczne, ale łatwo je zniszczyć mechanicznie.

Technologia odlewów. Stosowanymi materiałami są masy plastyczne oraz stopy metali. Technologia jest stosunkowo droga. Produkty są trwałe i można ich używać w różnych warunkach atmosferycznych.

Technologia obróbki mechanicznej. Stosowanymi materiałami są tworzywa sztuczne lub metal. Produkcja takich obrazów trwa dość długo. Produkty, podobnie jak w poprzedniej technologii, są trwałe i można je prezentować w przestrzeni otwartej. Są też odporne na warunki atmosferyczne.

Technologia druku 3D. Pozwala tworzyć stosunkowo trwałe produkty, odporne na warunki atmosferyczne. Jednak produkty są mniej trwałe niż uzyskane przy zastosowaniu w dwóch poprzednich technologiach.

Jednym z najważniejszych aspektów tyflografiki jest dostępność, czyli możliwość poprawnego jej odczytywania dotykiem. Na każdym etapie produkcji powstające modele są oceniane przez specjalistów z zakresu tyflologii i posiadających duże doświadczenie praktyczne. Przy adaptacji dzieł sztuki warto do takiego zespołu zaangażować osobę o dużej wiedzy merytorycznej z danego tematu.

Pierwszym etapem tworzenia tyflografiki jest adaptacja oryginału do postaci cyfrowej. Cyfrowe wzorce muszą uwzględniać specyfikę czytania dotykiem. Model cyfrowy jest podstawą do dalszych etapów. Już od samego początku graficy współpracują ze specjalistami, którzy pomagają koncepcyjnie zaprojektować model cyfrowy.

Kolejnym etapem jest produkcja form, które często są poprawiane zgodnie z uwagami specjalistów. Dopiero po akceptacji wzorców można wykonać produkt końcowy. Akceptacją wzorców zajmują się osoby niewidome o dużym doświadczeniu tyflologicznym i praktycznym w zakresie czytania tyflografiki.

Moim zdaniem najlepszymi rozwiązaniami, które można wykorzystywać do prezentacji dzieł sztuki, są odlewy oraz produkty obróbki mechanicznej. Mimo stosunkowo dużych nakładów czasowych i kosztów, uzyskane w ten sposób produkty spełniają wszystkie wymagania stawiane produktom publicznie dostępnym.

Produkty te należy od czasu do czasu czyścić, trzeba dbać, by żadne zanieczyszczenia nie utrudniały czytania, ani nie zniechęcały do ich dotykania.

Także druk 3D wydaje się być bardzo obiecującą technologią.

Poza tyflografiką istnieje też możliwość produkcji obiektów przestrzennych. Stosuje się tu odlewy, obróbkę mechaniczną oraz druk 3D.

Wierność odwzorowania ułatwia technologia skanowania 3D. Trójwymiarowe modele cyfrowe są następnie adaptowane przez grafików i w podobnym cyklu produkcyjnym jak tyflografika wytwarzane. Warto udostępnić taką przestrzenną kopię wszystkich eksponatów, które są zbyt małe lub zbyt duże, aby je poznać dotykiem lub zbyt cenne i z tego powodu niedostępne.

Materiały wykorzystywane do produkcji tyflografiki mogą być barwione lub malowane. Można uzyskać w ten sposób nie tylko dostępny dotykowo obiekt, ale też atrakcyjny wizualnie.

SmartVision – co to jest, do czego służy, jakie ma zalety

Wielokrotnie odbywały się dyskusje na temat wyższości urządzeń powszechnie używanych nad urządzeniami dedykowanymi dla konkretnej grupy odbiorców. Dyskusje takie będą toczyć się nadal, bo trudno będzie uzyskać zgodę wszystkich respondentów na to, że któreś podejście jest lepsze. I chociaż wszyscy możemy się zgodzić z tezą, że byłoby idealnie, gdyby wszystkie urządzenia były dostępne dla wszystkich, to rzeczywistość pokazuje, że idealnych rozwiązań nie ma i że zawsze znajdą się osoby, którym łatwiej będzie obsłużyć sprzęt specjalnie dostosowany do ich potrzeb.

Wprowadzenie na rynek smartphonów zmieniło wiele w zakresie dostępności tego typu urządzeń. Zastosowanie ekranów dotykowych, których niewidomi użytkownicy obawiali się najbardziej paradoksalnie zwiększyło możliwości wykorzystania innych niż związane z rozmowami funkcji tych telefonów. Zaawansowani użytkownicy niewidomi, młodzi i sprawni, nie mają żadnych problemów z obsługą urządzeń z ekranami dotykowymi. Są jednak osoby z dysfunkcją narządu wzroku, dla których dotykowa obsługa, wymagająca kontroli słuchowej i sprawnych dłoni jest trudna. Dodatkową przeszkodą jest stres powodowany tym, że uaktywnimy funkcję, której uruchomić nie zamierzaliśmy, a która niezamknięta zużyje nam baterię lub narazi nas na otwarcie naszego osobistego telefonu na dostęp osób trzecich, niepożądanych.

Ciekawą odpowiedzią na te wymagania jest smartphone o nazwie SmartVision firmy Kapsys. To urządzenie, które możemy obsługiwać za pomocą tradycyjnej, fizycznej klawiatury, za pomocą poleceń głosowych lub gestów na ekranie dotykowym. Daje to możliwość wyboru tego ze sposobów, który jest najwygodniejszy dla użytkownika. Daje to też możliwość łączenia tych elementów z każdego z interfejsów, które użytkownik będzie w danej chwili wolał użyć.

SmartVision to nie tylko zwykły smartfon z trzema różnymi interfejsami użytkownika. Poza funkcjami i programami wbudowanymi w system Android, może też pełnić rolę podręcznego powiększalnika, nawigatora, urządzenia rozpoznającego tekst z wykonanego zdjęcia i odczytującego ten tekst, identyfikatora obiektów, czytnika etykiet MFC, testera kolorów, odtwarzacza książek i muzyki, radia FM i kilku innych. Każda z tych funkcji jest możliwa do obsłużenia w dostępny i wygodny sposób. Jeśli ktoś nie potrzebuje wszystkich tych funkcji, to producent, firma Kapsys, proponuje też wersję SmartVision Lite, w której nie ma niektórych elementów. Nie ma między innymi programu rozpoznającego tekst, nie ma też programu do nawigacji i innych. SmartVision Lite jest za to tańszy o 1/3 ceny wersji podstawowej.

Dużą zaletą SmartVision jest możliwość konfiguracji jego ustawień. Dzięki temu można przygotować urządzenie tak, by to, co najczęściej używane i to, co potrzebne, było dostępne w jednym miejscu, a te aplikacje i funkcje, których nie używamy, były ukryte i zabezpieczone przed przypadkowym otwarciem. Osoby mniej sprawne mogą w ten sposób poprawić uruchamianie programów, ograniczając liczbę pomyłek do minimum. Osoby z obniżoną sprawnością manualną, które nie są w stanie obsłużyć ekranu dotykowego, a nawet nie mogą użyć fizycznej klawiatury, mogą skorzystać ze sterowania głosowego. W tym celu wystarczy wcisnąć pojedynczy przycisk, umieszczony osobno na bocznej ścianie telefonu i po usłyszeniu sygnału dźwiękowego wypowiedzieć polecenie. Na przykład, żeby połączyć się telefonicznie z osobą, której numer mamy zapisany w kontaktach, wciskamy przycisk polecenie głosowe i mówimy „połącz Jan Kowalski”. W podobny sposób możemy zapytać o godzinę, stan baterii, odczytać wiadomość itp. Możemy w ten sposób uruchomić kalkulator, program wiadomości i podyktować adresata oraz treść itd.

Można też przypisywać kontakty do fizycznych klawiszy. Wtedy przytrzymanie wciśniętego skojarzonego klawisza, na przykład klawisza z cyfrą 2, spowoduje wybranie tego kontaktu i nawiązanie połączenia głosowego. Można też ograniczyć połączenia do wybranych numerów, dzięki czemu osoby starsze mogą czuć się bezpieczniej. Można skonfigurować SmartVision tak, by odbierać połączenia naciskając dowolny klawisz numeryczny.

Nie sposób w krótkim artykule opisać wszystkich możliwości. SmartVision można konfigurować tak, jak powszechnie używane telefony. Posiada on bogaty zbiór opcji dostępności. Opcje te pozwalają dostosować sposób czytania czytnika ekranu, dostosować tempo, głośność i ilość wypowiadanych informacji. Dla osób niedowidzących można dostosować kontrast wyświetlanych na ekranie informacji, ich rozmiar oraz ograniczyć ich ilość. Konfigurując dostępne w SmartVision ustawienia można dostosować telefon do indywidualnych potrzeb każdego użytkownika.

Poczucie bezpieczeństwa można zwiększyć korzystając z funkcji przycisku SOS. Po uaktywnieniu tej funkcji, jednym naciśnięciem specjalnie zaprojektowanego klawisza na tylnej ścianie smartphona, możemy wysłać powiadomienie z danymi o naszej lokalizacji lub zadzwonić do wybranego wcześniej kontaktu, prosząc o pomoc. Można w ten sposób zaalarmować do 10 zaprogramowanych kontaktów.

Inną ciekawą i bardzo przydatną aplikacją może okazać się program Kapten. Jest to specjalnie przygotowany program do nawigacji, wykorzystujący nawigację satelitarną GPS. Jego autorzy opracowali specjalny system komunikatów głosowych, który wspiera użytkownika w podróży pieszej lub samochodowej. Wskazówki głosowe i duże kontrastowe symbole informują o kierunku w jakim należy podążać, by dojść do celu. Aplikacja umożliwia zapisywanie własnych punktów, dzięki czemu można podróżować według tych specjalnych punktów. Adres docelowy można wpisać lub podać go głosem. Aplikacja Kapten pozwala wybierać trasy, przeglądać ich poszczególne składniki i uczyć się drogi na pamięć. Informuje o napotykanych miejscach. Bardzo ważne jest, że mapy i punkty własne zapisywane są na karcie pamięci. Dzięki temu podróżowanie z nawigacją nie wymaga połączenia z Internetem do pobierania danych. Nawet na pustkowiu, gdzie nie ma zasięgu, można wspierać się tą nawigacją. Jeśli pomylimy drogę, to aplikacja automatycznie ponownie wyznaczy nową trasę do celu. Możemy też wybrać tryb swobodnej nawigacji, w którym przemieszczamy się według własnego pomysłu, a aplikacja informuje nas o otoczeniu, w którym się aktualnie znajdujemy. Aplikacja ta pozwala też nawigować z wykorzystaniem kompasu.

Zdalna pomoc to kolejna bardzo przydatna funkcja. Umożliwia uzyskanie pomocy technicznej za pośrednictwem prywatnego i bezpiecznego połączenia przez serwer VPN, które otwiera czasowy dostęp do naszego telefonu i umożliwia zmianę ustawień lub wsparcie przy aktualizacji. Jak to działa? Po uruchomieniu aplikacji, wybieramy kontakt lub wpisujemy numer telefonu lub adres e-mail osoby, którą chcemy poprosić o pomoc. Aplikacja wysyła SMS lub e-mail z danymi, które posłużą do nawiązania połączenia z naszym telefonem. Osoba ta pobiera oprogramowanie zdalnej kontroli i instaluje je na swoim komputerze. Po wpisaniu danych przesłanych w SMS lub w wiadomości e-mail, może nawiązać połączenie z naszym telefonem. Za pomocą tej aplikacji może dokonać zmian ustawień w telefonie i pomóc nam rozwiązać problem.

Technologia NFC (ang. Near Field Communication) pozwala smartphonom i innym urządzeniom na komunikację z etykietami NFC.

SmartVision udostępnia tę funkcję, dzięki czemu możemy konfigurować i odczytywać etykiety NFC. Różne opcje dostępne w tej aplikacji pozwalają przypisać akcję lub informację do etykiety NFC, która może następnie zostać automatycznie wykonana, gdy odczytamy etykietę. W śród tych opcji są między innymi:

  • „Rozmowa” przypisuje numer telefonu do kontaktu i wybiera ten numer.
  • „Ustawienie profilu” przypisuje tryb telefonu (Wi-Fi, Bluetooth, tryb samolot, dzwonek) i uaktywnia go.
  • „Aplikacja” przypisuje aplikację, która może zostać automatycznie uruchomiona.
  • „Zakładka Internet” przypisuje łącze do strony internetowej i wczytuje tę stronę do przeglądarki.
  • „Tekst” przypisuje tekst i odczytuje go używając syntezatora mowy.
  • „Ustawienie Wifi” przypisuje szczegóły logowania Wi-Fi (nazwę użytkownika i hasło) i automatycznie loguje się.
  • „Etykieta głosowa” przypisuje etykietę głosową i odtwarza ją.

Aby zapisać lub odczytać etykietę NFC, przykładamy smartphon tylną ścianą blisko do etykiety, aż uzyskamy informację dźwiękową, że akcja została zarejestrowana.

Funkcja powiększalnika pozwala obejrzeć jakiś drobny obiekt lub przeczytać tekst powiększając go do 4 razy. Można też zmieniać kontrasty lub wykonać zdjęcie, by obejrzeć je na spokojnie w wygodnych warunkach.

SmartVision jest to ładnie wyglądający telefon ze wszystkimi funkcjami smartphone. Nawet zaawansowani użytkownicy smartphonów będą doceniać jego możliwości. Dużą frajdę mogą dostarczyć funkcje muzyki, radio FM, rejestrator dźwięku i odtwarzacz książek zgodnych z DAISY. Wszystkie te programy można uruchomić i obsłużyć za pomocą poleceń głosowych.

Nowy JAWS

JAWS 16.0 pojawił się jesienią 2014 roku. Jak zwykle z niecierpliwością czekałem na informacje o nowych funkcjach i usprawnieniach, jakie miały pojawić się w tej wersji najbardziej zaawansowanego czytnika ekranu. I choć ostatnio coraz trudniej wymyślić jakąś funkcję, która zaskoczy użytkowników swoją przydatnością i oryginalnością, to Freedom Scientific – producent JAWS – spełnił pokładane w nim oczekiwania. Znów otrzymaliśmy program, który pozwoli niewidomym pokonać kolejne stopnie na drodze do samodzielności. Ze względu na ograniczoną długość tego artykułu, wymienię te z nowości JAWS 16, które moim zdaniem zasługują na wyróżnienie.

Do najbardziej nowatorskich funkcji należy zaliczyć możliwość czytania wyrażeń matematycznych. Wyrażenia te są poważnym problemem, gdyż ich wizualny zapis nie nadaje się do czytania liniowego. Program czytający musi umiejętnie zinterpretować liczniki i mianowniki, podstawy i wykładniki potęg i pierwiastków oraz wiele innych przestrzennie pisanych elementów. Program musi wiedzieć, jak nazwać całą strukturę, które z jej elementów przeczytać najpierw, a które później. JAWS 16 potrafi rozpoznać wyrażenia zapisane w języku MathML umieszczone w dokumentach HTML i właściwie je odczytać. Umożliwia przy tym nawigację po wyrażeniu oraz przechodzenie po elementach i zagłębianie się w ten sposób w strukturze wzoru. Dzięki możliwości czytania wizualnej postaci wzoru matematycznego, niewidomy uczeń może czynnie brać udział w pracach wykonywanych w czasie lekcji. Nauczyciel może wzrokowo kontrolować poprawność wyrażenia, a uczeń może usłyszeć jego treść.

Inną ciekawą i bardzo przydatną funkcją jest możliwość rozpoznawania i czytania graficznych plików PDF. Do tej pory można było rozpoznawać tekst graficzny wyświetlony na ekranie. W JAWS 16, w szybki i wygodny sposób można otworzyć plik PDF i jeśli okaże się niedostępny, bo zawiera jedynie fotografie stron, to użytkownik bez otwierania innych programów może uruchomić przetwarzanie OCR. Przetwarzaniu można poddać albo cały dokument, albo tylko część wyświetlaną na ekranie. Rozpoznany tekst jest systematycznie dodawany do przeglądarki wyników. Użytkownik w prosty sposób może przeglądać ten tekst na bieżąco lub włączyć czytanie całego dokumentu. Rozpoznany tekst można też zaznaczać i kopiować, by wykorzystać go w innych programach.

Dla większej wygody użytkowników stworzono funkcję, która pozwala wyszukiwać skróty klawiszowe. Wszyscy mamy dość konieczności pamiętania różnych ważnych kodów, pinów i haseł. Po co jeszcze obciążać naszą pamięć skrótami, które być może użyjemy raz na jakiś czas. Firma Freedom Scientific wyszła naprzeciw naszym potrzebom. Od JAWS 16 możemy włączyć funkcję wyszukiwania, a następnie wpisać słowo lub frazę opisujące potrzebną funkcję. JAWS na podstawie wpisanego terminu odnajdzie i wyświetli wszystkie funkcje oraz ich skróty klawiszowe. Wystarczy wtedy wybrać ten element, którego szukaliśmy i albo wcisnąć na nim Enter, albo zapamiętać skrót klawiszowy, by wykorzystać go we właściwej chwili.

Dla użytkowników, którzy pracują z dokumentami wielojęzycznymi, stworzono możliwość dostrajania parametrów głosów mówiących w różnych językach i zapisywania ich jako profile głosowe. Dzięki temu syntezatory mogą mówić w obrębie jednego dokumentu różnymi głosami, w wielu językach, w dowolnym, wybranym przez użytkownika tempie i w dowolny sposób informować o interpunkcji, wyróżnieniach tekstu, czy wielkości liter. Poprawi to zrozumiałość czytanych tekstów, niezależnie od używanego syntezatora i głosu. Usunie też konieczność ciągłego przełączania głosów syntezatorów lub zmieniania ich parametrów.

Usprawniono także obsługę aplikacji systemowych Windows 8. Udoskonalono obsługę urządzeń z ekranami dotykowymi. Postawiono na niezawodność naszego czytnika ekranu. Stworzono funkcję, która w razie zablokowania JAWS przez inną aplikację, automatycznie zrestartuje JAWS.

To najważniejsze moim zdaniem nowości wprowadzone w JAWS 16. Otrzymaliśmy program, który pozwala nam nie tylko obsługiwać pocztę, czy serfować po Internecie, ale przede wszystkim umożliwia nam wykonywać samodzielnie pracę, również tę zawodową. JAWS 16 pozwala pracować każdemu na takim poziomie zaawansowania, jaki mu odpowiada. Posiada także bardzo duże możliwości i tylko od nas zależy, czy zechcemy je wykorzystać.

Skoro widzę, to czy mogę widzieć więcej? Refleksje ze szkolenia na temat dostępności stron internetowych

W ostatnim czasie miałem okazję przeprowadzić kilka szkoleń na temat dostępności treści na stronach internetowych. Spotkałem się na tych szkoleniach z wieloma ciekawymi ludźmi. Ich wiedza na temat dostępności była bardzo zróżnicowana. I choć byli na tych szkoleniach także ludzie o dużej wiedzy w tym zakresie, którzy wiele rozumieją i potrafią zapewnić niemal pełną dostępność na swoich stronach, to odnoszę wrażenie, że powszechna wiedza o innych niż wizualnych sposobach funkcjonowania w życiu, jest niewielka. Generalnie można postawić tezę, że mało ludzi rozumie ten problem, jeszcze mniej z nich widzi potrzebę wdrażania dostępności i nadal są tacy, którzy nie wiedzą nic o sposobach funkcjonowania osób niewidomych, głuchych, niesprawnych manualnie itp. Ta ostatnia kwestia jest najbardziej zadziwiająca, bo przecież każdy spotyka się z osobami starszymi, mniej sprawnymi. Mimo to nadal nic nie wiemy o nich samych i ich sposobach samodzielnego radzenia sobie w życiu. Społeczeństwo już rozumie potrzebę budowania podjazdów dla osób poruszających się na wózkach, ale nadal nie widzi nic złego w stawianiu słupów na środku chodników, wieszaniu na nich znaków drogowych i to na najbardziej „złośliwej” wysokości głowy człowieka, co dokucza niewidomym w stopniu nieskrępowanym, czy parkowaniu samochodów na chodnikach, utrudniając przejście wszystkim, ale zwłaszcza osobom, które wymagają więcej miejsca i to z bardzo naturalnych powodów, bądź ściszaniu zapowiedzi przystanków w pojazdach komunikacji miejskiej, co ułatwia wielu ludziom nie dojechać tam, gdzie zamierzali. Mimo tylu akcji wyjaśniających, nadal nie wiemy, że niewidomi wykorzystują komputery do pozyskiwania informacji. Nie wiemy, że dla osób niewidomych mówiący i ubrajlowiony komputer stał się najważniejszym urządzeniem rehabilitacyjnym. Nie wyobrażamy sobie też, że można pracować z komputerem nie widząc. A jednak jest to możliwe. Co więcej, z uwagi na wspólny dla wszystkich użytkowników cyfrowy zapis informacji, jest to najdoskonalszy sposób komunikowania się między ludźmi. Każdy z nas może odczytać cyfrową informację w dostępny dla siebie sposób, pod jednym wszakże warunkiem, że informacja cyfrowa będzie utworzona zgodnie ze standardami i wytycznymi dostępności opisanymi w dokumencie WCAG (ang. Web Content Accessibility Guidelines).

Choć ogólna konstatacja wybrzmiewa w moim artykule ponuro, jednak są inne przykłady, które spróbuję tutaj przytoczyć. Jest bowiem wiele ciekawych pomysłów na temat dostępności rozważanej w jej szerokim ujęciu. Takimi pomysłami i wartościowymi spostrzeżeniami podzielili się ze mną uczestnicy szkoleń.

Gdy poprosiłem o przytoczenie przykładów zapamiętanych przez nich z ich własnych stron, które odnosiłyby się do omawianego zagadnienia, jeden z uczestników opowiedział o swoich spostrzeżeniach na temat oznaczeń węzłów autostradowych w Polsce i za granicą. Przykład nie odnosił się bezpośrednio do budowania stron internetowych, również strony, którą on tworzył i wykorzystywał, ale do sposobu odczytywania informacji za pomocą czytników ekranów. Jest on dobrą analogią do tzw. list udawanych. Listy udawane to takie, które nie zostały opisane jako listy w kodzie strony. Są to listy, w których jedynie wypisuje się elementy w kolejnych liniach, wstawiając przed nimi grafikę symulującą znak punktora. Oczywiście wizualnie elementy te wyglądają jak lista, ale gdy spróbujemy odczytać ją bezwzrokowo, tj. przy pomocy czytników ekranu, to jest to tylko ciąg elementów. Podobnie udawanymi listami są listy, w których każdy element jest listą jednoelementową. Ktoś, kto wstawia treści na stronę, nie zdaje sobie sprawy, że tworzy nie jedną listę zbudowaną z wielu elementów, lecz wiele jednoelementowych list. Dzieje się tak, ponieważ autor takiej strony opiera się jedynie na wizualnej postaci wstawianych treści. Obok każdego z elementów widzimy punktor, ale nie zdajemy sobie sprawy, że nie jest tak, jak być powinno. Opowiedziany przykład odnosił się do węzłów autostrad, które też są ciągiem kolejno następujących po sobie elementów. W Polsce do nazywania węzłów wykorzystywane są nazwy miejscowości, przy których się one znajdują. Kierowca, jadąc, na każdym z nich musi uważać, by nie przeoczyć informacji z tą nazwą. W Niemczech węzły są oznaczane numerami. Kierowca widząc numer wcześniejszego węzła, może jechać bez stresu dalej, i może przewidzieć, kiedy będzie musiał przygotować się do zjazdu z autostrady. Łatwiej też identyfikować numery niż nazwy, zwłaszcza kierowcom zamieszkałym w innych częściach kraju lub obcokrajowcom. Przykład tego prostego rozwiązania nazewnictwa jest bardzo przekonujący, gdyż każdy może wczuć się w taką sytuację i docenić jego wartość.

Na stronie nawet udawaną listę użytkownik widzi w całości. Może nawet nie zdawać sobie sprawy, że to, co widzi, nie jest listą. Może policzyć jej elementy i spokojnie się z nimi zapoznać. Na autostradzie kierowcy poznają informacje sekwencyjnie, muszą najpierw dojechać do jakiegoś punktu, aby odczytać umieszczone przy nim nazwy i opisy. Osoby niewidome odczytują informacje w podobny, sekwencyjny sposób. Nie widzą całej listy, lecz czytają słowo po słowie, element po elemencie. Jeśli czytnik ekranu nie rozpoznaje listy, to nie informuje użytkownika, że wymieniane elementy tworzą listę i nie informuje też ile w tej liście jest elementów, ani który z nich aktualnie czytamy. Jeśli na stronie nie ma właściwie oznakowanych i uporządkowanych treści, to łatwo można przeoczyć jakąś ważną informację i jej nigdy nie odnaleźć.

Podobnie ciekawą analogią jest kolejny przykład z autostrad. Tablica z informacją za ile kilometrów znajduje się najbliższa stacja benzynowa, może przekazywać informację uboższą lub bogatszą. Zazwyczaj spotykamy tablice z tą uboższą informacją. Nie mówi nic poza odległością do najbliższej stacji benzynowej. Jeśli jednak dodamy do tej tablicy informację o odległości do następnej stacji po najbliższej i informację o firmie, do której dana stacja należy, to kierowca dostaje dużo więcej istotnych dla niego danych. Może lepiej zaplanować godziny postoju i odpoczynku, może też zdecydować, czy zatankuje na najbliższej stacji, czy uda mu się dojechać do stacji, na której zawsze tankuje i ma ulgi stałego klienta. Jeśli popatrzymy na opisy obrazów na stronach internetowych, to jeśli autorzy stron w ogóle dodają do nich opisy alternatywne, to najczęściej są to opisy bardzo ubogie. A przecież wystarczy je trochę rozszerzyć, by przekazać dokładniejszą informację. Opis alternatywny fotografii zawierający słowa „zdjęcie Prezydenta RP”

jest zdecydowanie zbyt ubogi w stosunku do opisu „zdjęcie Prezydenta RP, Bronisława Komorowskiego, podpisującego ustawę emerytalną”. Pierwszy opis informuje wyłącznie, że fotografia przedstawia jednego z prezydentów RP. Rozszerzony informuje, o którego prezydenta chodzi i w jakiej sytuacji zdjęcie zostało wykonane, przy jakiej czynności.

Opisy alternatywne to rzeczywiście duży problem. O ile łatwo przychodzi zrozumienie potrzeby zamieszczania opisu alternatywnego z jakąkolwiek zawartością, to potrzeba dodania dokładnego opisu obrazów czy dodania do nagrania audio z przemówienia pełnej jego treści w postaci tekstowej, jest już trudniejsza do przyjęcia.

Innym problemem, sprawiającym bardzo duży kłopot osobom niewidomym, jest brak poprawnie oznakowanych nagłówków. Są one tworzone tylko pozornie, w sposób wizualny. Osoba widząca łatwo je odnajduje i odczytuje, lecz dla programów technologii wspomagających, takich jak czytniki ekranów, są one tylko akapitami, podobnymi do wszystkich innych. Nie można więc przeskoczyć do nich bezpośrednio, pomijając wiele nieistotnych treści. Osoba niewidoma musi czytać wszystko, linię po linii, by ich nie przeoczyć.

Wielu użytkowników zwróciło uwagę na problem braku przekazywania wiedzy o dostępności, ba – na brak przekazywania wiedzy o poprawnym tworzeniu dokumentów w edukacji szkolnej. Ludzie po wielu latach różnych zajęć edukacyjnych związanych z komputerami i informatyką, jeśli sami nie nauczyli się tworzenia dokumentów o poprawnej konstrukcji technicznej i logicznej, to w niewielu przypadkach mogli się o tym dowiedzieć w szkole. Czasami wystarczy przekazać kilka podstawowych zasad, by chętnie z nich korzystali, zwłaszcza, że dzięki tym zasadom znacznie ułatwiają sobie pracę.

Wśród tych zasad można wymienić między innymi: formatowanie dokumentów wyłącznie za pomocą stylów, oddzielanie warstwy danych od warstwy prezentacji, no i to co najważniejsze – zachowywanie zgodności ze standardami. Przestrzegając tych zasad ułatwiamy pracę, bo nasze dane, chociaż są przeważnie tekstem, otrzymują dodatkowe znaczenie. To, co ma być listą jest listą, a to, co ma być nagłówkiem jest nagłówkiem. Akapit, który jest definicją, jest oznaczany jako definicja. Akapit zawierający adres jest oznaczany jako adres. Dane tabularyczne zapisane są jako dane tabeli i są dodatkowo powiązane z nagłówkami kolumn i wierszy. Nawet informacje graficzne zapisujemy jako pełne informacje, które można przeszukać. Wystarczy tylko każdą elementarną informację oznaczyć i w przypadku informacji nietekstowych dodać do nich alternatywę w postaci tekstu. Tekst jest tu najważniejszy. Bo każdy użytkownik może przetworzyć go do wygodnej dla siebie postaci i może się z nim zapoznać. Osoba niewidoma może przetworzyć tekst na postać brajlowską lub mowę syntetyczną. Osoba niedowidząca może powiększyć tekst i zmienić jego kolor. Osoba niesłysząca może przeczytać tekst jak każdy inny użytkownik. Natomiast informacje graficzne, filmy video i nagrania audio, które nie zostaną wyposażone w alternatywny ich opis nie tylko nie będą mogły być odczytane przez niektóre z tych osób, ale też nie będą mogły być rozpoznane przez programy, wyszukiwarki.

Nasze nawyki i przyzwyczajenia w dużej mierze wpływają na tworzone przez nas strony internetowe. Oglądając strony jedynie wizualnie, zapominamy nie tylko o zapewnieniu dostępności, ale nawet o logicznym formatowaniu. Zapominamy, że strony internetowe są przetwarzane przez różne programy, które je przeszukują i pomagają internautom odnaleźć potrzebne im informacje. Zapominamy o programach, które umożliwiają odczytanie stron użytkownikom o różnych sposobach percepcji. To wszystko składa się na to, że nasze dokumenty są trochę byle jakie. Płacimy za różnego rodzaju sposoby pozycjonowania stron, ale nie tworzymy na stronie mechanizmów umożliwiających odnajdywanie informacji. Postępujemy zbyt tolerancyjnie wobec popełnianych na naszych stronach błędów i przez zwykłe zaniedbania potrafimy wykluczyć wiele osób z możliwości pozyskania informacji.

Wszystko to dzieje się tylko dlatego, że nie doceniamy tego, co jest niewidoczne. Sytuacja, w której zaniedbujemy zasady dostępności, przypomina budowanie pięknego pałacu na piasku. Z wierzchu pięknie, ale lepiej do niego nie wchodzić. Warto więc poznać zasady dostępności, poświęcić trochę więcej pracy i budować poprawne strony. Może wówczas uda nam się zobaczyć coś więcej niż tylko to, co widzimy? Przecież nasze strony to nie tylko zwykłe dokumenty, ale przede wszystkim kolejne rekordy olbrzymiej bazy danych.

„JAWS a system informacji prawnej Lex”

System informacji prawnej Lex to program zawierający kodeksy, ustawy i inne związane z prawem dokumenty. Interfejs programu zawiera wiele różnych mechanizmów wyszukiwania dokumentów oraz sposobów ich przeglądania. I chociaż to potężne narzędzie doskonale służy widzącym prawnikom, to niewidomym użytkownikom sprawia wiele kłopotów. Korzystając z języka skryptowego zaimplementowanego w czytniku ekranu JAWS, można wiele z elementów Lex’a udostępnić w taki sposób, by zupełnie samodzielnie mogli z nich korzystać niewidomi prawnicy.

Język skryptowy JAWS jest dość łatwym językiem programowania. Pisanie skryptów wiąże się jednak z dużym nakładem pracy. Aby były one dobrze przygotowane, należy bardzo dokładnie zapoznać się z programem komputerowym, dla którego chcemy stworzyć skrypty JAWS. Badanie to polega na zapoznaniu się ze strukturą programu, ponieważ jego udostępnienie może odbywać się na wielu poziomach. Poziom najniższy, to zwykłe oglądanie okna programu i zawartych w nim kontrolek przy pomocy kursora myszy. Typowe dla interfejsu Windows kontrolki są odczytywane przez JAWS i nie ma problemu z dostępem do zawartych w nich informacji. Jednak programiści projektując zaawansowane oprogramowanie, tworzą i używają również kontrolek niestandardowych. To właśnie one sprawiają czytnikom ekranu najwięcej problemów. Dlaczego? Informacje zawarte w takich kontrolkach mogą zostać przedstawione w sposób, który dla programów udźwiękawiających nie będzie oczywisty. Przykładowo przedstawienie tekstu w postaci kolumn. Pomimo tego, że JAWS czyta treść, informacje odczytywane liniami, a nie kolumnami, stają się mało zrozumiałe i niewygodne.

Taki najniższy poziom dostępności polegający na wykorzystywaniu kursora myszy jest raczej przeznaczony do jednorazowego użycia. Do pracy najlepiej stworzyć takie sposoby, które pozwalają użytkownikowi skupić się nad merytorycznym aspektem pracy, a nie na technicznym czytaniu treści. To właśnie tutaj skrypty ujawniają swoje najpraktyczniejsze oblicze.

JAWS – w odróżnieniu od pozostałych czytników ekranu – jest tak skonstruowany, by nie trzeba było używać kursora JAWS (kursora myszy), ale by swobodnie i wygodnie udostępniać pełną i zrozumiałą informację. Zaczynając tworzenie skryptów od najniższego poziomu przechodzimy do coraz wyższych poziomów dostępności. Dostępność na średnim poziomie polega na możliwości odczytywania zrozumiałych i kompletnych informacji. Poziomy te wymagają już nie tylko samych umiejętności programowania, ale także ścisłej współpracy z użytkownikami końcowymi. To dla nich tworzone są skrypty, więc komunikacja programista-użytkownik jest tutaj kluczowa. Na tych prawie najwyższych poziomach, bo skrypty można ciągle poprawiać i zawsze da się zrobić coś jeszcze lepszego, dostępność jest już równoważna użyteczności programu. Częściej tworzy się już takie funkcje, które zwiększają wygodę użytkowania programu.

W taki też sposób zostały i były tworzone skrypty do programu Lex. Użytkownicy mogą wyszukiwać konkretne dokumenty. Mogą wybierać je według kategorii i swobodnie je odczytać. Można je także otworzyć w edytorze tekstu i wybrać odpowiednie fragmenty do swoich potrzeb. Mimo, że nie wszystkie elementy zostały udostępnione, to, co najważniejsze działa i niewidomi prawnicy mogą już z powodzeniem korzystać z tej aplikacji. Możemy więc mówić już o średnim poziomie dostępności programu Lex. Wyższe poziomy zostaną wykonane przy ścisłej współpracy z użytkownikami i według ich sugestii.

Plextalk Pocket. Kieszonkowy lektor

Kieszonkowy lektor, czyli odtwarzacz książek DAISY, audio i tekstowych oraz odtwarzacz muzyki i świetny rekorder dźwięku

Ostatnimi czasy furorę zrobiły urządzenia o niewielkich rozmiarach służące do odtwarzania muzyki. Ich producenci prześcigają się w projektowaniu coraz mniejszych, z coraz bardziej pojemną pamięcią gadżetów tego typu. Urządzenia te są także bardzo popularne wśród niewidomych użytkowników. Świetnie nadają się do słuchania książek audio w podróży, czy na spacerze. Jednak wraz z minimalizacją tych urządzeń i ze wzrostem liczby zaimplementowanych w nich funkcji stają się coraz trudniejsze do obsługi metodami bezwzrokowymi. Tworzy się więc nisza na tego typu odtwarzacze dostępne dla niewidomych. Jednym z najlepszych takich urządzeń jest kieszonkowy lektor firmy Shinano Kenzi LTD. O nazwie Plextalk Pocket PTP1. W obudowie o wymiarach zbliżonych do telefonu komórkowego mieści się wiele różnych urządzeń, każde z nich można bardzo łatwo i wygodnie obsłużyć metodami bezwzrokowymi. Mamy tu więc odtwarzacz książek i publikacji w formacie DAISY. Mamy odtwarzacz książek audio i odtwarzacz muzyki. Jest bardzo dobry rejestrator dźwięku, który umożliwia nagrywanie w formacie DAISY z wstawianiem znaczników sekcji i stron zarówno w trakcie nagrywania jak i odtwarzania oraz edycję nagrań. Jakość nagrywanego dźwięku należy do najwyższych spotykanych w urządzeniach tej klasy. Kolejnym elementem bardzo przydatnym osobom niewidomym jest odtwarzacz dokumentów tekstowych. PTP1 posiada wbudowany syntezator mowy, dzięki czemu możemy odczytać nazwy plików, przeczytać dokumenty tekstowe w formatach TXT, DOC i DOCX oraz HTML, BRF itd. Użytkownicy mają do wyboru dwa głosy syntezatora: z językiem polskim i angielskim. Parametry głosów można dostrajać. Możemy zwiększać lub zmniejszać tempo czytania, wysokość tonu i poziom głośności.

Dwa kolejne odtwarzacze wykorzystują wbudowaną w urządzenie bezprzewodową kartę sieciową. Dzięki bezprzewodowej łączności z Internetem możemy korzystać z radia internetowego i odtwarzacza podkastów. Karta sieciowa umożliwia także bezprzewodową transmisję danych pomiędzy komputerem a Plextalkiem. Wówczas karta pamięci staje się folderem sieciowym. Funkcja ta jest bardzo użyteczna w bibliotekach, gdyż bez wyjmowania urządzenia z kieszeni bibliotekarz może wgrać nam wypożyczaną książkę na kartę pamięci odtwarzacza. Dzięki temu nie ma problemu z połączeniami kablowymi, chociaż zawsze możemy podłączyć naszego kieszonkowego lektora do komputera przy pomocy kabla USB.

Dużym udogodnieniem w PTP1 jest system nawigacji. Umożliwia on we wszystkich typach odtwarzanych danych nawigację według tego, co jest udostępnione w tych publikacjach. W książkach DAISYmożemy nawigować po nagłówkach rozdziałów, stronach, akapitach, frazach, a w tekstowych publikacjach DAISY także po ekranach, akapitach, liniach, zdaniach, słowach i znakach. Ilość elementów, po jakich możemy nawigować jest więc zależna od typu danych i od tego jak dana publikacja została oznakowana przez wydawcę. Inny poziom będziemy mieli dostępny w muzyce i książkach audio, inny w dokumentach tekstowych, a inny w publikacjach DAISY.

Na uwagę zasługuje także system informacji o stanie urządzenia i wykonywanej operacji. W trakcie odtwarzania książki otrzymamy informacje o czasie, jaki upłynął od początku do bieżącego miejsca, jaki pozostał, w którym jesteśmy rozdziale, ile jest wszystkich rozdziałów, jak długo trwa cała książka itp. W czasie nagrywania otrzymamy informacje adekwatne do nagrywania. Dowiemy się więc ile czasu trwa nagranie, ile możemy jeszcze nagrać, w jakiej jakości nagrywamy, jaki jest poziom kompresji dźwięku itp. Inne potrzebne informacje otrzymamy podczas czytania dokumentów tekstowych, a inne podczas pobierania danych z Internetu.

Urządzenie posiada wbudowane mechanizmy oszczędzania energii, potrafi wyłączyć urządzenie sieciowe i samo przejść w tryb uśpienia, gdy upłynie określony czas, w którym poszczególne elementy lub samo urządzenie nie jest używane. Jego ponowne przywrócenie do stanu pełnej gotowości do pracy trwa dosłownie chwilę. PTP1 po obudzeniu podaje bieżący czas i wczytuje do pamięci informacje o ostatnio wykonywanej operacji.

Inną funkcją jest wstawianie różnego rodzaju zakładek do odsłuchiwanych danych. Możemy samodzielnie oznaczać interesujące nas miejsca w książkach za pomocą znaczników numerowanych lub używając znaczników głosowych. Znaczniki głosowe pozwalają oprócz samego oznaczenia danego fragmentu także nagranie krótkiej nazwy tego miejsca lub komentarza. Zakładki można następnie wykorzystywać do bezpośredniego przechodzenia do oznaczonego miejsca w pliku lub książce, a zakładki głosowe pozwalają ponadto odsłuchać nagrany komentarz. Są też zakładki automatyczne, które są wstawiane przez samo urządzenie w miejscu, w którym zakończyliśmy odtwarzanie danego materiału. Dzięki temu możemy słuchać wielu różnych publikacji, dokumentów tekstowych, książek audio i nie martwić się, że po zmianie tytułu będziemy musieli odszukiwać miejsca, w którym skończyliśmy ostatnio odtwarzanie danego tytułu.

Plextalk Pocket to naprawdę niewielkie urządzenie, ale wymiary nie ograniczają jego możliwości. Możemy podłączyć zewnętrzny napęd CD/DVD i albo odtworzyć nagrane na płycie materiały audio lub tekstowe, albo przenieść je na kartę pamięci kompresując muzykę w formacie CD-audio do postaci MP3. Możemy podłączyć także do portu USB pamięć flash typu Pen Drive lub zewnętrzny dysk. Możemy też kopiować dane w obu kierunkach z karty pamięci na nośnik zewnętrzny lub z nośnika zewnętrznego na kartę pamięci. W ten sposób możemy zarówno zabezpieczyć swoje dane wykonując kopię bezpieczeństwa na innym nośniku, jak również przenosić dane na kartę pamięci, by łatwiej było z nich korzystać poza domem.

Plextalk Pocket wyróżnia się także przemyślanym szczegółach wyglądem. Wszystkie klawisze zostały podzielone na grupy pod względem wykonywanych funkcji. Każda z tych grup została wyróżniona kształtem klawiszy oraz ich rozmieszczeniem. Bez trudu można rozpoznać każdą z grup i w intuicyjny sposób zapamiętać działanie poszczególnych grup oraz poszczególnych klawiszy. Nie trzeba więc uczyć się na pamięć klawiszy i funkcji przez nie wykonywanych. Nie trzeba zapamiętywać żadnych kombinacji skrótów, chociaż jeśli użytkownik chciałby sobie taką kombinację przypisać do konkretnej funkcji, to może to wykonać. Funkcja klawiszy skrótów umożliwia przypisywanie do poszczególnych klawiszy numerycznych konkretnych funkcji standardowo uruchamianych przy pomocy menu systemowego.

Plextalk Pocket PTP1 jest urządzeniem przeznaczonym do celów lektorskich. Posiada w jednym urządzeniu wiele różnych odtwarzaczy i funkcji. Jednak został tak zaprojektowany, by wszystkie było tak łatwo obsłużyć jak to tylko możliwe i by niewidomi użytkownicy mieli wreszcie takie urządzenie, jakie chcieliby mieć.

Plextalk Pocket dofinansowywany jest w programie „Aktywny Samorząd” jako urządzenie lektorskie!

Focus Blue – nowe modele!

Firma Freedom Scientific wprowadziła na rynek dwa nowe modele monitorów brajlowskich z rodziny Focus Blue. Są to czterdziesto- i czternastoznakowe urządzenia wyposażone w 8-klawiszową klawiaturę brajlowską, kciukowe przyciski nawigacyjne i przyciski manipulacyjne. Nowe Focusy Blue są dużo mniejsze i dużo lżejsze niż poprzednio. Zostały wykonane z dużą starannością o wygląd i ergonomię pracy, kolorystycznie utrzymane w tonacji szaro-niebieskiej. Wszystkie jego elementy i powierzchnie są przyjemne w dotyku. Pod punktami brajlowskimi jest zupełnie jednolita, gładka powierzchnia, przypominająca zwykłą kartkę papieru. Są to typowe monitory brajlowskie z klawiaturą brajlowską. Można je używać jako brajlowskie terminale do komputerów, ale ich przeznaczeniem jest współpraca z urządzeniami mobilnymi typu smartphone lub tablet. Mniejszy, 14 znakowy Focus Blue, to zupełnie kieszonkowa konstrukcja. Można ją nosić zawsze z sobą i wykorzystywać jako bardzo sprawny i dyskretny interfejs mobilnych urządzeń.

Dane techniczne Focus Blue 14:

  • Wymiary: 16 cm x 8,2 cm x 1,9 cm.
  • Waga: 230 g.
  • USB 2.0 lub Bluetooth 2.0.
  • Regulowana siła sztywności punktów brajlowskich.
  • Przy użyciu z JAWS, Focus 14 Blue obsługuje Tryb nauki brajla – interaktywne narzędzie do nauki brajla.
  • Akumulator litowo-jonowy wystarczający na 20 godzin typowej pracy.
  • W komplecie znajduje się ładowarka i etui.

Focus Blue 40 bez problemu został wykryty i połączony przez Bluetooth z Iphone 4s i telefonem Nokia E71 wyposażonym w Mobile Speak oraz z komputerem łącząc się przez Bluetooth albo przez USB.

Klawiatura jest wygodna i bardzo szybka. Można ją wykorzystywać do wprowadzania tekstów jak i sterowania telefonem czy komputerem.

Z informacji, które docierają do mnie nieoficjalnie, Freedom Scientific – producent Focusa Blue – zamierza zaproponować dobre ceny dla polskich użytkowników. Wykonane przeze mnie testy potwierdzają zalety tych monitorów.

Focus dostępny jest w programie „Aktywny Samorząd” jako urządzenie brajlowskie!

Dostępność czy wykluczenie?

Słowa „dostępność” i „wykluczenie” są często używane. Potoczne ich znaczenie jest zrozumiałe, jednak są one używane w wielu dziedzinach i są specjalnie definiowane. Zacznijmy od przypomnienia ich najbardziej podstawowego znaczenia.

Dostępność to cecha rzeczy użytkowej (produktu), umożliwiająca korzystanie z niej.

Wykluczenie jest zjawiskiem polegającym na uniemożliwieniu pewnej grupie ludzi skorzystania z usługi lub rzeczy powszechnie dostępnej. Może być spowodowane czynnikami ekonomicznymi, społecznymi lub politycznymi.

Można na podstawie tych definicji znaleźć pewne elementy łączące oba pojęcia. W definicji pierwszego pojęcia możemy zwrócić uwagę na słowo możność, w drugiej na uniemożliwienie. Można z tego wyciągnąć wniosek, że brak dostępności pociąga za sobą wykluczenie. Czy zatem pytanie postawione w tytule tego artykułu jest zasadne? Szukając odpowiedzi przeanalizuję kilka przykładów.

Dostępność stron internetowych

Strony internetowe służą do przekazywania informacji, komunikacji i do korzystania z oferowanych usług. Często konstruowane są w sposób uniemożliwiający ich odczytanie lub skorzystanie z usług osobom, które nie posługują się myszą, posiadają monochromatyczne monitory i nie mogą odczytać strony wzrokowo. Istnieją możliwości wykonania strony internetowej tak, by każdy mógł z niej skorzystać. Jeśli mimo to nie można z tej strony skorzystać, strona ta nie posiada cechy dostępności. Dobrym przykładem są osoby z dysfunkcją wzroku. Nie mają możliwości posługiwania się wzrokiem, więc z dużym trudem i przy wysokich nakładach finansowych zdobywają programy i urządzenia pozwalające im korzystać z informacji usług cyfrowych. Jednak ich wysiłki nie przynoszą pożądanego skutku, ponieważ ktoś przez zaniedbanie przygotował produkt „bubel”. Odpowiedzialność za niedostępność produktów ponoszą ich twórcy. Najważniejszym winowajcą jest inwestor. Jeśli przy składaniu zamówienia nie określi warunku dostępności, to nie ma sposobu na wyegzekwowanie tej cechy. Stąd też strony internetowe urzędów oraz instytucji publicznych, które nie spełniają warunków dostępności. Ograniczają możliwość skorzystania z informacji i usług wielu uprawnionym do tego osobom. Czy więc nie nosi to znamion „wykluczenia”?

Architektura

Kolejnym przykładem są nowo budowane budynki, w których nie przewidziano potrzeby korzystania z windy. Przykładem są stacje metra lub dworce kolejowe. Projektanci nie są w stanie przewidzieć różnych sposobów korzystania z ich projektu. Projektując dostępność do aparatów telefonicznych dla osób na wózkach wieszają je na odpowiedniej wysokości, często zapominając, że wystające budki, osłaniające aparaty telefoniczne, mogą być zagrożeniem dla osób niewidomych. Brakuje wyraźnych oznaczeń krawędzi peronów. Zdarza się tak, że same perony są dostępne, ale nie pomyślano, że droga dojścia do peronów może być niedostępna.

Infrastruktura drogowa

Dużym problemem dla osób niewidomych są przeszkody stawiane na chodnikach. Słupy oświetleniowe, znaki drogowe, kosze na śmieci są utrudnieniem, a nawet zagrożeniem. Idąc do pracy lub wracając do domu, ciągle zastanawia mnie, jakie argumenty sprawiają, że dwa słupy zostały postawione obok siebie w odległości 2 metrów. Dlaczego nie można postawić 1 słupa, który zastąpi te 2? Ciągle przypominam sobie poniemieckie chodniki w jednym z dolnośląskich miast. Chodniki te były budowane z trzech różnych rodzajów kostki brukowej. Kostki te różniły się kolorem i wielkością. Budowane były w następujący sposób. Na całej długości chodnika wyznaczony był metrowej szerokości pas ułożony z najgrubszej kostki. Była to kostka kamienna szarego koloru. Na tym środkowym pasie nie było słupów, latarni, znaków drogowych. Był to pas wolny od przeszkód. Po obu jego stronach z drobniejszej kostki i innego koloru, były ułożone pasy, które uwzględniały zwężenia chodnika, przeszkody w postaci drzew, słupów, koszy na śmieci. Nie wiem, czy zamiarem projektanta było stworzenie chodników przeznaczonych dla niewidomych, ale myślę, że można by je uznać za wzorzec. W całym mieście tak właśnie zbudowano chodniki. Mogłyby być wzorem, jak budować wygodne i dostępne chodniki. Muszę przy tym zauważyć, że nie było problemów ze zbyt wysokimi krawężnikami. Osoby niewidome wyczuwały rodzaj kostki, a słabowidzący widzieli różnice kolorów. Dlaczego dziś nie można budować takich chodników?

Podręczniki szkolne

Kolejny przykład to tworzenie podręczników do szkół. Określono ramy programowe, ale zlekceważono dostępność. Mamy więc duży wybór podręczników niedostępnych. Rząd wydaje publiczne pieniądze na zaadoptowanie tych podręczników, które jutro mogą być wycofane i niewykorzystane. Adaptuje się coś, co powinno być dostępne. Gdyby dostępność była elementem wymaganym, być może twórcy użyliby innych, równie atrakcyjnych sposobów prezentacji, które bez trudu można by przedstawić w wersji dla niewidomych, czy słabowidzących.

Wnioski

Przedstawione przykłady stanowią namiastkę. Skupiłem się tu jedynie nad niedostępnością, czy wykluczeniem, z jakimi spotykają się osoby niewidome. A przecież grup narażonych na wykluczenie w naszym społeczeństwie jest więcej. Przedmiotów, które można uniedostępnić, jest mnóstwo. Wszystkie te produkty są finansowane przez nas bezpośrednio, gdy jesteśmy zmuszeni je kupić lub ze środków publicznych, czyli z naszych podatków, które ktoś źle wydaje. Czy nas jako społeczeństwo stać na produkowanie niedostępnych, bezużytecznych przedmiotów? Czy stać nas na pozbawianie licznych grup naszego społeczeństwa dostępu do rzeczy wspólnych? W końcu, czy jest moralnym godzenie się na takie traktowanie współobywateli? Czy wykluczenie pewnych grup nie jest zawinione przez rządzących? Zawsze brak dostępności jest elementem niekorzystnym, to odpowiedź jest okrutna. Jest to albo świadome działanie, albo wynik głupoty decydentów.