JAWS kontra NVDA w profesjonalnym dostępie do informacji

Profesjonalny dostęp do informacji polega na możliwości zapoznania się z informacją w taki sposób, który pozwala poprawnie zrozumieć sens tego przekazu. Profesjonalizm polega więc na:

  • przekazie bez niepotrzebnych opóźnień,
  • przekazie treści koniecznych i wystarczających do ich prawidłowego zrozumienia,
  • przekazie wolnym od dodatkowych czynności, koniecznych do uzupełnienia informacji w celu ich prawidłowego zrozumienia.

Dostęp do informacji za pomocą czytników ekranów polega na odszukiwaniu najważniejszych informacji oraz informacji z nimi powiązanych i takim ich przetworzeniu i zaprezentowaniu, by niewidomy użytkownik mógł je zrozumieć.

Różne czytniki realizują to zadanie na różne sposoby. Program JAWS prezentuje informacje z ekranu komputera w sposób naśladujący pozyskiwanie informacji przez osoby widzące. Dzięki temu niewidomi użytkownicy otrzymują zwięzłą, klarowną i kompletną informację, w której zawarte są jednocześnie treści główne i kontekstowe, uzupełniające. Komunikat jest szybki i kompletny.

Program NVDA dostęp do informacji realizuje odmiennie. Automatycznie przedstawia treść główną, natomiast informacje uzupełniające użytkownik musi samodzielnie odszukać i odczytać za pomocą dostarczanych funkcji, uruchamianych skrótami klawiszowymi.

Oba czytniki wyposażone są w wiele funkcji do ręcznego przeglądania ekranu i odczytywania zawartych na nim informacji. Jednak NVDA wymusza od użytkownika większego zaawansowania i sprawności technicznej w obsłudze. Nie każdy będzie w stanie sprawnie wykonać wszystkie czynności, by odnaleźć wszystkie potrzebne informacje.

JAWS, dając więcej możliwości wykazania się taką sprawnością, nie zmusza użytkownika do wysiłku. JAWS prezentuje informacje tak, by użytkownik nie musiał wykonywać dodatkowych czynności, by zrozumieć informacje. Pozwala też dostosować sposób prezentacji informacji tak, jak życzą sobie poszczególni użytkownicy. Takie dostosowanie wykonuje się raz i korzysta stale. Można dostosować działanie czytnika w konkretnej aplikacji, w konkretnym dokumencie lub na konkretnej stronie internetowej. NVDA w znacznie mniejszym stopniu pozwala zindywidualizować sposoby prezentowania informacji. Zmusza to użytkownika do odsłuchania wielu niepotrzebnych informacji i wykonania wielu dodatkowych działań.

Generalnie praca z JAWS polega na wykonywaniu podstawowej pracy, a nie na obsłudze czytnika. W innych czytnikach, wykonując jakąś pracę, zajmujemy się obsługą czytnika, realizując jednocześnie wykonywane zadanie.

Ważnym argumentem przemawiającym za dostępem oferowanym przez JAWS jest też oszczędność czasu. JAWS umożliwia pracę szybszą i bardziej efektywną, bez tracenia czasu i energii na dodatkowe czynności.

Braille i Chopin – bohaterowie panelu dyskusyjnego w Pałacu Kultury i Nauki

Podczas panelu dyskusyjnego, zorganizowanego przez przyjaciół z Fundacji Szansa dla Niewidomych, po raz pierwszy w życiu z nikim nie musiałem się spierać. Mogłem, co najwyżej dziękować Panu Bogu i tej Fundacji za udostępnienie mojej książki o Chopinie w wersji brajlowskiej przeznaczonej dla niewidomych.

Od dawna miałem w tym środowisku wielu przyjaciół, wielu słuchaczy, a obecnie mam także czytelników. Moje związki z niewidomymi datują się od dawna i mają charakter bardzo osobisty. W latach osiemdziesiątych ubiegłego stulecia moja matka prawie zupełnie straciła wzrok. Nie mogła czytać książek, co przez wiele lat było jej ulubioną rozrywką. Na naukę brajla w podeszłym wieku było już za późno, korzystała tym chętniej z nagrań kasetowych, które wypożyczała z biblioteki dla niewidomych przy ulicy Konwiktorskiej.

Mieszkałem już wówczas w Paryżu i miałem szczęście pracować w Radiu Wolna Europa, jako komentator polityczny rozgłośni. Działałem intensywnie, z trzema wejściami antenowymi dziennie. Przede wszystkim co wieczór, często z sobotami włącznie wygłaszałem komentarze w szeroko słuchanej audycji „Fakty, wydarzenia, opinie”. Nigdy już, ani ja, ani żaden inny dziennikarz radiowy nie będziemy mieli równie licznego audytorium. Wolnej Europy słuchali wszyscy. Statystyki mówią o 20 do 30 milionów każdorazowych odbiorców. Radio cieszyło się ogromnym autorytetem i miało wielką siłę rażenia. Któregoś dnia, tuż po porozumieniach Okrągłego Stołu, przejściu Polski z ustroju komunistycznego na kapitalistyczny, z własności państwowej na własność prywatną, zatelefonowała moja matka z alarmującą wiadomością: – Biblioteka Związku Niewidomych ma zostać zlikwidowana! Zasięgnąłem języka u naszych warszawskich informatorów. Rzeczywiście. Jakiś nowy kapitalista, zapewne wczorajszy działacz partyjny zapragnął wejść w posiadanie pałacyku przy Konwiktorskiej. Solidnie udokumentowany, poświęciłem aferze w nadchodzących dniach dwa komentarze interwencyjne. Moje wystąpienie w programie „Fakty, wydarzenia, opinie” trwało siedem do ośmiu minut. Prawdziwa audycja radiowa. Podziałało. Wygraliśmy. Decyzja o likwidacji została cofnięta. Prezes Związku Niewidomych przysłał list dziękczynny do mego dyrektora, pana Leszka Gawlikowskiego z prośbą o taśmy z nagraniami.

W wiele lat później w Gdańsku, po prapremierze „Przedpiekla sławy” w Sopocie, moja żona, Marysia zwróciła mi uwagę na zdumiewającą książkę z planami Dworu Artusa wydaną w systemie brajlowskim, z pięknymi wypukłymi ilustracjami. Spisała referencje. Na kiedyś, jak powiedziała. Byłem więc zachwycony, kiedy w Radiu Wnet, w Warszawie los zetknął mnie niespodziewanie z inicjatorem wydania, które obudziło mój podziw, z panem Markiem Kalbarczykiem. Marysia wspomniała o Dworze Artusa. „A, to my !” wykrzyknął Prezes. Poznałem krzepkiego mężczyznę, kipiącego energią i obdarzonego talentem jasnego formułowania myśli. Mówiłem wtedy w Radiu Wnet o losach mojej książki o Chopinie. Opinia profesora Andrzeja Nowaka, że jest to „książka fenomenalna”, nie była jeszcze wówczas sformułowana, ale kilku innych uczonych uniwersyteckich – profesorów historii wypowiedziało się publicznie o „Przedpieklu sławy” z entuzjazmem. Kalbarczyk zainteresował się książką i postanowił ją wydać w systemie brajlowskim. Natychmiast zdecydowałem prawa autorskie przekazać wydawnictwu bezpłatnie. Do akcji włączyła się Marysia sugerując książkę ilustrowaną. Pracowała nad tym już dawno, w Cité des Sciences w Paryżu, gdzie w jej mediatece trzydzieści lat temu powstała pierwsza we Francji „Salle Louis Braille”. Popchnęła więc energicznie sprawę i służyła wielokrotnie pomocą wydawcom z Szansy. Co Kalbarczyk postanowił, to zostało wykonane – powiedziałem w Pałacu Kultury, dodając: „teraz jestem oto tutaj z wami, a przede mną leżą tomy książki, której nie mogę przeczytać, ale mogę dotknąć tych pięknych stronic, które się czyta dotykiem”.

W dyskusji, pan Marek Bykowski, były kanclerz Uniwersytetu Muzycznego im. Fryderyka Chopina w Warszawie na Okólniku dodał informacje dotyczące wydanej książki, których ja, przez skromność, nie uwzględniłem. Zabierając głos, dr Bykowski podkreślił, że „Przedpiekle sławy” zawiera arcyważne dla szopenologii ustalenia. Odkrycie koncertu, który zapoczątkował paryską, ergo światową karierę kompozytora zmienia całkowicie perspektywę życia i twórczości naszego genialnego rodaka. Pokazuje, iż triumf i powodzenie poprzedziło wiele miesięcy biedy i wyrzeczeń, kiedy kompozytor był bliski załamania.

Niektórzy uczestnicy panelu dotarli do Pałacu Kultury z pewnym opóźnieniem. Poprzednio uczestniczyli we Mszy Świętej w katedrze i droga zabrała im nieco czasu. Przybył najważniejszy uczestnik tego panelu, pan Marek Kalbarczyk, którego prosiliśmy o przedstawienie historii wydawnictwa. Prezes Fundacji Szansa dla Niewidomych uczynił to z właściwą sobie klarownością. Wydanie mogło się ukazać dzięki szczodrej dotacji Ministerstwa Kultury, które pokryło 75% kosztów. 25% dołożyła Fundacja Szansa dla Niewidomych. W relacji Marka Kalbarczyka przedsięwzięcie wydało się łatwe i proste w realizacji, ale każdy, kto zetknął się z produkcją wydawniczą zwyczajnej książki, która ma swoje od dawna wytarte koleiny wie, na ile trudności do pokonania natyka się wydawca. Cóż dopiero, gdy idzie o wydawnictwo brajlowskie w systemie wymagającym specjalnych rozwiązań technicznych.

Pan Kalbarczyk przypomniał następnie sylwetkę Louisa Braille’a i zwrócił uwagę na jego zdumiewające powinowactwa z Chopinem. Dobroczyńca ludzkości, dzięki któremu niewidomi mogą czytać, był współczesny kompozytorowi, a jeśli uznać, że Chopin przyszedł na świat o rok wcześniej niż podaje akt chrztu, co dzisiaj wydaje się nie budzić wątpliwości, to nasz rodak byłby dokładnie rówieśnikiem wynalazcy alfabetu dotykowego urodzonego również w 1809 roku. Co więcej, Braille był równie jak Chopin muzykiem – organistą. Do Paryża przybył jako dziesięcioletni chłopiec. Pismo Braille’a powstało w oparciu o system korespondencji używany przez armię francuską do przekazywania rozkazów bez słów, w ciemności. System wojskowy oparty był na 12 wypukłych punktach, brajlowski na 6.

Braille przeżył Chopina o 3 lata. Zmarł w 1852 roku i jest pochowany w Panteonie. Biorąc pod uwagę współczesność obu geniuszów Marek Kalbarczyk postawił intrygujące pytanie, czy jest możliwe, że zetknęli się kiedyś w mieście, którego obaj byli mieszkańcami. Pytanie, na które niżej podpisany szuka od tego czasu odpowiedzi.

Na spotkaniu, które odbyło się w dniu symbolicznym dla Chopina, bowiem nazajutrz po rocznicy Jego śmierci, uczestnicy mieli „Szanse” wysłuchać również kilku fragmentów wersji dźwiękowej książki „Przedpiekle sławy” wraz z ariami z opery Otella Rossiniego, ulubionego kompozytora naszego muzyka.

Od wczoraj polskie wydanie brajlowskie w siedmiu tomach, jest dostępne w Bibliotece Narodowej.

Referencje

Wersja drukowana, w języku polskim

Witt, Piotr : „Przedpiekle sławy: rzecz o Chopinie”. Wyd. przejrzane i poprawione, z przed¬mową Rafała Blechacza – Warszawa Wydawnictwo DiG 2015 . (Wyd. 1sze – MKiDN 2010. 368 s.) ISBN 978-83-7181-919-3

Wydania dźwiękowe: czyta Marcin Popczyński

W momencie ukazania się książki drukowanej wyszła również pierwsza wersja dźwię¬kowa. Larix, 2015 dostępna za pośrednictwem dekodera „Czytak”. Wyd. następne, niezależne od dekodera, 2017 (dystryb. Audioteka i Storybox) ISBN 978-83-7927-798-8 (1 CD) ; MP3 do nabycia na https://audioteka.com/pl/audiobook/przedpiekle-slawy-rzecz-o-chopinie

Wyd. w alfabecie Braille’a Warszawa: Altix, 2017. ISBN: 978-83-61326-98-4. Premiera na Międzynarodowej Konferencji REHA FOR THE BLIND IN POLAND w Warszawie, 17-18 pazdziernika 2017 r.

Wersję francuską eseju Piotra Witta „Les débuts fastueux de Chopin ? Paris” można odczytywać również w Brailu i w syntezie głosowej, w bibliotece dla niewidomych frankofońskich Biblioth?que Numérique Francophone Accessible http://www.bnfa.fr, od czasu jej założenia pięć lat temu.

Your Way – brakujące ogniwo

Nawigacja na przęsłach przesiadkowych takich jak stacje PKP, stacje metra, przystanki tramwajowe lub nawigacja wewnątrz budynków, jak muzea, biblioteki czy biura nigdy nie była łatwa dla osób z dysfunkcją wzroku. Od kilku lat w Polsce, ale i na świecie, widać ogromne zmiany w tym zakresie. Zdano sobie sprawę, że dostępność architektoniczna komunikacji publicznej i instytucji nie może ograniczać się jedynie do ułatwień dla osób na wózkach.

Obserwujemy boom na rozwiązania takie jak: linie naprowadzające i oznaczenia ostrzegawcze, mapy tyflograficzne z kolorowym poddrukiem dla widzących czy napisy brajlowskie, np. na poręczach. Użyte wszystkie naraz rozwiązują większość problemów w poruszaniu się osób niewidomych w opisanych powyżej przestrzeniach. Jednak nadal można i trzeba zrobić więcej. W testach z ekspertami i osobami niewidomymi znaleźliśmy 2 główne problemy: niewidomi nie wiedzą, które miejsca są dostępne i gdzie będą mogli skorzystać z ww. pomocy, niewidomi nie znajdą map tyflograficznych lub opisów brajlowskich, jeżeli nie doprowadzają do nich linie naprowadzające – a przecież nie zawsze jest możliwość ich poprowadzenia.

Rozwiązaniem zarysowanych powyżej problemów jest bezpłatna aplikacja stworzona na smarfony YourWay. To po pierwsze baza danych, którą tak jak Wikipedię tworzą sami użytkownicy. Poprzez stronę internetową yourway.szansadlaniewidomych.org lub przez aplikację można dodawać miejsca, które są dostępne i opisać w jaki sposób zostało to wykonane. W tej chwili zostało dodanych kilkadziesiąt miejsc i mamy nadzieję, że w z biegiem czasu miejsc będzie przybywać. Moderacją zajmują się wolontariusze Fundacji, ale głównie liczymy na użytkowników, którzy samodzielnie będą wpisywać nowe miejsca. Dzięki temu, wybierając się np. do Warszawy, będziemy mogli sprawdzić, które muzea, kina, teatry, dworce czy przystanki są dostępne i na jakiego typu rozwiązania możemy tam liczyć. W ten sposób będziemy mogli zaplanować trasę.

YourWay to po drugie aplikacja, która dzięki komunikacji Bluetooth potrafi uruchomić mapy, bazy dźwiękowe i inne, które są z nią kompatybilne. Dzięki temu, jeżeli jesteśmy w pobliżu jakieś mapy, a nie wiemy gdzie ona jest, będziemy mogli ją odnaleźć dzięki aplikacji YourWay. Taka funkcjonalność jest zaimplementowana np. na stacji Młociny. Oprócz funkcji wywoływania Map, aplikacja potrafi odczytać informacje, które znajdują się w mapie, takie jak rozkład przystanków, układ najbliższych ulic czy historię danego miejsca. Funkcjonalności zostaną w przyszłości rozbudowane, aplikacja będzie mogła współpracować z beaconami, służyć jako prosta nawigacja wewnątrz budynków, a już niebawem będzie kompatybilna z systemem Virtualna Warszawa.

Fundacja Szansa dla Niewidomych ma jeszcze jeden ważny cel, dla którego powstała aplikacja. Wierzymy, że dzięki budowaniu bazy dostępnych miejsc, instytucje, które są niedostępne, nie będą miały wyboru i będą musiały pod naporem społecznym stać się otwarte dla wszystkich!

Pismo czy mowa? Interfejsy nowoczesnych urządzeń

Małymi krokami, ale nieustannie postępuje rozwój dostępności interfejsów nowoczesnych urządzeń. Napisałem „małymi krokami”, bo choć bywają kroki milowe, to nie zawsze są od razu tam, gdzie powinny. Czasami postęp jest wielki, lecz wykonanej pracy nie widać, bo to co najważniejsze zostało wykonane w kodzie programu lub systemu operacyjnego.

Najnowsze urządzenia wyposażone są w interfejsy dostępności, o których jeszcze 10 lat temu tylko rozmawialiśmy. Jako pierwsze powstały interfejsy mówione i brajlowskie. Obecnie mamy możliwość obsługi ekranów dotykowych za pomocą gestów, wpisywania treści za pomocą różnych klawiatur dotykowych – zwykłych i brajlowskich, a nawet dyktowania i używania poleceń głosowych, dostosowywania kolorów, kontrastów i wielkości czcionek itp. Trzeba przy tym jasno powiedzieć, że technologie te działają dobrze i są skutecznymi sposobami obsługi smartfonów, odtwarzaczy, tabletów i wielu innych urządzeń.

W niniejszym artykule chciałbym zająć się najstarszym sposobem komunikacji z urządzeniami. Chodzi mi oczywiście o komunikację za pomocą pisma, które dla użytkowników niewidomych realizowane jest z wykorzystaniem pisma Braille’a i monitorów brajlowskich.

Monitory brajlowskie są najczęściej oddzielnymi urządzeniami, wyspecjalizowanymi tylko do wyświetlania informacji tekstowych, choć jest kilka modeli, na których można wyświetlać także grafikę. Najnowsze modele wyposażone są w klawiatury brajlowskie, umożliwiające także wpisywanie tekstu i sterowanie urządzeniami za pomocą poleceń brajlowskich. Istnieje też grupa urządzeń, które mają wbudowane monitory brajlowskie na stałe. Są to notatniki brajlowskie, smartwatche i smartfony.

Monitory komunikują się z urządzeniami najczęściej za pomocą bezprzewodowego połączenia Bluetooth lub za pomocą połączenia przewodowego USB. Mają taką lub inną klawiaturę brajlowską, przyciski przywoływania kursora, przyciski sterujące, możliwość dostosowania sztywności punktów. Mogą pracować bez przerwy na akumulatorze ponad 20 godzin. Oczywiście są między poszczególnymi monitorami pewne różnice, które sprawiają, że użytkownicy wybierają te, a nie inne. Jednak monitor to tylko monitor. Cała wartość interfejsu opartego na piśmie zawarta jest w oprogramowaniu sterującym pracą monitora, no i „tu zaczynają się schody”. Producenci czytników ekranów, edytorów do składu i drukowania publikacji brajlowskich, producenci drukarek brajlowskich używają tzw. translatorów, czyli programów wyspecjalizowanych do zamiany tekstu na zapis brajlowski. Najbardziej znaną i powszechnie używaną biblioteką translującą teksty na brajla jest biblioteka „biblouis”, która jest aktualnie we wszystkich znanych mi czytnikach ekranów oraz brajlowskich edytorach tekstów. Jej zaletą jest fakt, że może tłumaczyć teksty na dowolny język według określonego zestawu znaków i reguł. Cóż z tego, jeśli jest to tylko teoria.

W Polsce od 2010 w programie JAWS, firma Altix zaimplementowała własne biblioteki, które umożliwiały translację na polski brajl literacki, polskie ortograficzne skróty brajlowskie pierwszego i drugiego stopnia. W pozostałych czytnikach jedynym możliwym trybem pracy z brajlem jest brajl komputerowy.

O co w tym chodzi? Na czym polega problem? Problem zaczyna się od samego brajla. Pismo punktowe zostało wymyślone jako zestaw znaków zbudowanych z sześciu punktów. Sześć punktów pozwala utworzyć zbiór 64 różnych znaków. Zatem nawet nie jest on równy liczbie liter polskiego alfabetu, który posiada 34 małe i 34 wielkie litery. Pismo Braille’a jest więc systemem, w którym odpowiednim znakom graficznym odpowiada jeden, dwa lub więcej znaków brajlowskich. Osoba niewidoma musi nauczyć się tych wszystkich znaków i zasad ich stosowania.

Problem nr 1. Utworzenie nowego zapisu zwanego brajlem komputerowym. W tym trybie nie ma translacji. Znak brajlowski rozbudowano o dwa dodatkowe punkty, rozszerzając zbiór wszystkich znaków do liczby 256, co pozwala uzyskać jednoznaczne odwzorowanie rozszerzonego zestawu kodów ASCII. Nie ma tu wieloznaków. Każda litera, niezależnie mała czy wielka, ma przypisany jeden znak, swój własny odpowiednik. Podobnie jest z cyframi, znakami interpunkcyjnymi, znakami matematycznymi i informatycznymi. Jest to bardzo proste przekształcenie znaków graficznych na znaki wypukłe. Jednak jest to inne pismo niż to, którego uczą się dzieci w szkołach, inne niż to używane w podręcznikach i książkach. W szkołach polskich i w oficjalnych publikacjach używamy brajla sześciopunktowego.

Problem nr 2. Błędy w trybach brajla sześciopunktowego. Brajla sześciopunktowego używamy do różnorodnych zapisów. Mamy zapis literacki (tzw. integrał), polskie ortograficzne skróty brajlowskie pierwszego i drugiego stopnia, notację matematyczną, notację fizyczną, chemiczną oraz notację muzyczną. Wszystkie notacje wykorzystują ten sam zestaw sześćdziesięciu czterech znaków brajlowskich. Znaki te w różnych kombinacjach mogą się powtarzać, ale zależnie od notacji mogą oznaczać różne treści. Człowiek znający te notacje świetnie sobie radzi z ich użyciem. Trudno je jednak zaimplementować do programów, w których treści graficzne nie są ściśle i jednoznacznie określone.

Problem nr 3. Słaba znajomość brajla komputerowego i brajla sześciopunktowego. Brak świadomości o istnieniu tych różnych trybów brajla, pomimo istnienia tego pierwszego od samego początku, a brajla komputerowego już prawie od pół wieku, wprowadza wiele zamieszania. Nawet nauczyciele brajla, którzy bardzo dobrze znają brajla sześciopunktowego, jeśli nie pracują na komputerach, nie mają praktycznej wiedzy o konfiguracji programów i co, gdzie i komu zaproponować.

Problem nr 4. Brak umiejętności tworzenia dostępnych dokumentów elektronicznych. Jedynie znikoma liczba użytkowników komputerów potrafi dobrze napisać dokument. Widzący użytkownicy bazują jedynie na formatowaniu wizualnym, zupełnie ignorując formatowanie logiczne. Brak świadomości i umiejętności na temat dostępności dokumentów jest powszechny. Wielu użytkowników używa bardzo zaawansowanych edytorów tekstowych, ale najczęściej używa go na poziomie mechanicznej maszyny do pisania. Użytkownicy ci nie tylko nie wykorzystują oznaczania treści znacznikami, które umożliwiają odpowiednie formatowanie, automatyczne tworzenie spisów treści, spisów obrazów, przypisów itp., ale potrafią nawet zepsuć zwykłe akapity, dzieląc pojedyncze zdanie na wiele linii i wiele akapitów. Nie mają przy tym świadomości, że formatowanie wizualne jest niejednoznaczne i że żaden program nie jest w stanie takiego tekstu odpowiednio przetworzyć. Nie potrafią go też przetworzyć poprawnie translatory brajla, a takie próby wprowadzają więcej niepewności niż pożytku. Bo niewidomy użytkownik nie mogąc odczytać wyniku translacji nie wie w czym tkwi błąd i zaczyna wątpić w swoje własne umiejętności.

Problem nr 5. Brak zainteresowania producentów czytników ekranów poprawną implementacją pisma brajla we własnych produktach. Najczęściej obsługa brajla jest funkcją dodatkową, która ma działać tak, by produkt nie odróżniał się od innych programów. Niewielkie liczebnie grupy użytkowników pisma brajla, rozdzielone na mniejsze grupy użytkowników poszczególnych programów stanowią zbyt słabą siłę nacisku, by uzyskać od producentów dobrze działającą funkcję. A producenci, którzy dbają o tę funkcjonalność, są najczęściej firmami komercyjnymi i ich produkty zwyczajnie trzeba kupić. Takim wyjątkiem wśród producentów jest firma Freedom Scientific, która wraz z lokalnymi dystrybutorami swojego flagowego czytnika ekranu JAWS, ciągle udoskonala obsługę brajla. Może jest to związane z tym, że jest jednocześnie producentem monitorów brajlowskich z serii Focus i jest żywo zainteresowana poprawną współpracą obu produktów?

Problem nr 6. Pisanie brajlem. Dzieci w szkołach uczą się pisać na mechanicznych maszynach brajlowskich, używając brajla sześciopunktowego. Przy takim pisaniu na papierze wytłoczone zostaną dokładnie takie znaki, jakie dziecko wpisze przy użyciu klawiatury brajlowskiej. W takim przypadku dziecko jest translatorem. Samo tworzy zapis i samo go odczytuje. Nikt obcy lub nic obcego nie interpretuje jego zapisu pomiędzy naciśnięciem klawiszy a uwypukleniem się punktów. W przypadku pisania na urządzeniach komputerowych wyposażonych w klawiaturę QWERTY, wpisywane są graficzne znaki tekstu. Gdy piszemy używając klawiatury brajlowskiej, wciskamy znak zbudowany z punktów brajlowskich, który musi być rozpatrywany wraz z sąsiednimi znakami i zgodnie z regułami przekształcony na znak tekstu. Jeśli program poprawnie tłumaczy wpisywane znaki, to na ekranie komputera wyświetlają się właściwe znaki. Jeśli jednak translator źle przekształca wpisywane znaki, to otrzymujemy zupełnie inne treści niż wpisujemy. Na przykład: by napisać liczbę 123, należy wpisać trzy cyfry „1”, „2” i „3”. Jeśli używamy klawiatury QWERTY nie ma problemu, wciskamy trzy kolejne klawisze z tymi cyframi. Na klawiaturze brajlowskiej musimy wpisać najpierw znak liczby, następnie odpowiednie znaki cyfr brajlowskich, które jak wiemy są takie same jak znaki liter. Jeśli więc translator źle tłumaczy wpisywany tekst, to na ekranie zamiast liczby 123 zostanie wyświetlony ciąg „#abc”. Obecnie jedynie program JAWS umożliwia pisanie przy pomocy klawiatury brajlowskiej.

Problem nr 7. Brak wiedzy wśród użytkowników, która umożliwia samodzielną ocenę poprawności działania translatora. Użytkownik posługujący się pismem brajla musi umieć samodzielnie ocenić, czy wpisał to, co zamierzał. Dopiero wtedy będzie w stanie używać tej techniki i wymagać od producenta lub dystrybutora poprawienia błędów.

Problem nr 8. Różnice pomiędzy pismem analogowym a pismem cyfrowym. Używając komputera, możemy używać dowolnych znaków, zarówno z alfabetu naszego podstawowego języka, jak i spoza niego oraz w zasadzie dowolnego znaku typograficznego. Natomiast manualne pismo brajlowskie ograniczało się do określonych zbiorów znaków. Jednak program tłumaczący może otrzymać dowolny tekst. Użytkownik może chcieć odczytać stronę internetową, książkę, a w nich mogą być dowolne znaki typograficzne. Zatem translator musi wiedzieć jak zinterpretować poszczególne znaki i je odpowiednio przetłumaczyć. Stąd też istnieje potrzeba rozszerzenia reguł notacji brajlowskich.

Problem nr 9. Nasze – niewidomych – zaniedbania. Nikt inny niż my sami możemy zaproponować i stworzyć reguły translacji. Nie trzeba przy tym wymyślać zupełnie nowych zasad. Należy jedynie zebrać obecnie używane, przejrzeć je i zastanowić się czy w erze tekstów komputerowych spełniają swoje zadania i albo je doprecyzować, albo odrzucić, a w końcu opracować kilka nowych, które uwzględnią nowe potrzeby. Nie jest to nic trudnego, nie wymaga napisania wniosków o dotacje, lecz spokojne prace związane z testowaniem wdrożonych rozwiązań.

Pora chyba na konkluzję. Pismo jest bardzo wygodnym i chyba koniecznym sposobem komunikacji pomiędzy ludźmi, także przy użyciu urządzeń elektronicznych. Pismem można posługiwać się w jego pełnym zakresie, pisząc i czytając lub wykorzystując nowoczesne urządzenia komputerowe tylko pośrednio odsłuchując wygenerowaną na podstawie tekstu mowę. W tym drugim przypadku rezygnujemy z wielu wartościowych cech pisma. Rezygnujemy z dokładności, dyskrecji, możliwości dostosowania tempa czytania do własnych potrzeb oraz wykluczamy się z grupy osób posługujących się pismem. Istnieje także różnica pomiędzy pisaniem na klawiaturze QWERTY a pisaniem na klawiaturze brajlowskiej. Klawiatura QWERTY nie daje możliwości kontroli wpisywanych znaków poza ich fonetycznym brzmieniem, a to, jak wiemy, bywa zawodne. Pisanie na klawiaturze brajlowskiej wymaga wpisywania konkretnych kształtów znaków, co jest bardzo zbliżone do tworzenia znaków graficznych przy pisaniu ręcznym. Pora więc na zastosowanie i używanie poprawnie działających funkcji brajlowskich zarówno do czytania, jak i pisania. Powinniśmy oczekiwać i wymagać dopracowania tych funkcji w naszych urządzeniach i programach. Skoro jest to możliwe i jest tylko kwestią wiedzy, świadomości, staranności z naszej strony oraz wysiłku programistów z drugiej strony, to możliwość używania pisma jest jak najbardziej pożądana.

Jeszcze jedna sprawa. W tytule tego artykułu zadałem pytanie: „Pismo czy mowa?”. Chciałbym, by Czytelnicy nie zastanawiali się, która z metod jest lepsza, lecz jak i co zrobić, by móc korzystać z nich obu. W taki sposób jak należy i w taki sposób jak nam wygodnie. Chodzi o to, by nie rezygnować z pisma tylko dlatego, że tak dużo zamieszania wokół pisma Braille’a zrobiono. Jestem pewien, że producenci urządzeń i oprogramowania bardzo chętnie zajmą się udoskonalaniem tej funkcjonalności, jeśli tylko zorientują się, że jest zainteresowanie tym tematem.

Jaws dla Windows, czyli program nie tylko dla profesjonalistów

Często spotykam się z opiniami, że zakup drogich płatnych czytników ekranu nie ma sensu w przypadku niezaawansowanych niewidomych użytkowników komputerów, a jedynie dla profesjonalistów, którzy zajmują się programowaniem lub inną profesjonalną pracą przy użyciu Windows i narzędzi stosowanych w firmach, jak np. system SAP. Czy jest tak rzeczywiście? Otóż… nie. Program Jaws, w porównaniu z konkurencją, tak płatną od firmy Dolphin, jak i darmową w postaci NVDA oferuje funkcje, które mogą przydać się właśnie użytkownikom niezaawansowanym. Opiszę tutaj działanie jednej z nich.

Możliwość korzystania ze skrótów dostępnych na stronie sieci Web to funkcja, którą znajdziecie tylko w programie Jaws, a jest ona dostępna od wersji 16.0 i późniejszych. Moim zdaniem nie jest ona kierowana szczególnie do użytkowników zaawansowanych, ale właśnie do początkujących i średniozaawansowanych, którym trudno jest zapamiętać dużą ilość skrótów do pracy ze złożonymi stronami. Przykładem takiej strony jest klasyczna witryna portalu społecznościowego Facebook.

Jeśli chcemy przeczytać jedynie aktualności, polubić je w czasie czytania lub udostępnić post, to warto skorzystać z funkcji pozwalającej na używanie skrótów klawiszowych dostępnych na stronach internetowych. W ten sposób konieczne będzie zapamiętanie tylko kilku skrótów służących do interakcji z postami na osi czasu i ich czytaniem. Nie będzie konieczne przemieszczanie się po nagłówkach, regionach aria, przyciskach z rozwijanymi menu, czyli po tym wszystkim, co użytkownikom mniej zaawansowanym może sprawiać problem.

Jak włączyć tę funkcję? Domyślnie jest ona włączona i niczego nie trzeba zmieniać. Jeśli z jakichś względów chcecie ją jednak wyłączyć, bo na przykład wolicie standardową interakcję przy użyciu klawiszy szybkiej nawigacji, które mogą być konfliktowe ze skrótami dostępnymi na stronie, to można to zrobić w centrum ustawień. Wciskamy klawisz Jaws+j, aby otworzyć okno Jaws lub menu kontekstowe Jaws z zasobnika systemowego. Jeśli otwarte jest okno Jaws, to należy wcisnąć Alt i następnie strzałkami w lewo lub prawo odnaleźć menu narzędzia i rozwinąć je strzałką w dół lub przyciskiem Enter. Gdy Jaws skonfigurowany jest na wyświetlanie w zasobniku systemowym, to po wciśnięciu klawisz Jaws+j należy poruszać się strzałkami w górę i w dół, a następnie wybrać i rozwinąć podmenu narzędzia. W menu narzędzia trzeba odnaleźć i uaktywnić polecenie „Centrum ustawień”. Po otwarciu domyślnych ustawień Jaws trzeba klawiszem Tab przejść na drzewo ustawień, odnaleźć grupę web/html/pdf, rozwinąć ją, odnaleźć podgrupę ustawień „Różne”, a następnie wcisnąć F6, aby przejść do panelu z dostępnymi opcjami w grupie „Różne”. Teraz wystarczy już tylko odnaleźć przy użyciu tab lub shift+tab i odznaczyć pole wyboru: “Pozwól aplikacji internetowej zachować skróty klawiszowe” i powrócić klawiszem F6 do drzewa opcji, przejść tabulatorem najpierw do przycisku „zastosuj” i wcisnąć go spacją w celu zapisania zmian, a następnie do przycisku „Ok” i wcisnąć go w celu zamknięcia centrum ustawień. Co ciekawe, przy takiej kombinacji nadal będzie można korzystać ze skrótów oferowanych na stronach, wystarczy tylko wyłączyć wirtualny kursor PC skrótem klawisz Jaws+z, a strony będą mogły być obsługiwane przy użyciu skrótów na nich dostępnych.

Ustawienie to nie jest dostępne tylko w konfiguracji domyślnej default.jcf, więc można włączyć je dla jednej przeglądarki internetowej, na przykład Firefox, a wyłączyć dla innej, na przykład Chrome od firmy Google. Jak widać możliwości jest wiele.

Podsumowanie

Zalety możliwości używania skrótów na stronach są dwie, ale bardzo znaczące. Pierwszą opisaną wyżej jest uproszczenie obsługi do funkcji, które użytkownika interesują, wystarczy zapamiętać kilka skrótów, żeby wykonać to, co się chce.

Druga zaleta ma charakter bardziej przyszłościowy i może przydać się do korzystania ze złożonych aplikacji takich jak webowe wersje Office, dokumenty Google itp. Jeżeli inne czytniki wprowadzą możliwość używania skrótów dostępnych na stronach i w aplikacjach webowych, to będzie można uczyć się wielu skrótów dostępnych na tych właśnie stronach i w aplikacjach internetowych, a potem używać ich niezależnie od czytnika ekranu, jaki będzie używany, tak jak dziś ma to miejsce w klasycznych aplikacjach użytkowych w systemie Windows posiadających swoje skróty.

Co oznacza dostępność

Nowe technologie, internet i media społecznościowe wpisały się w naszą codzienność do tego stopnia, że wielu ludzi nie wyobraża sobie bez nich życia. Aplikacje mobilne zainstalowane w smartfonach czy na tabletach ułatwiają naukę, pracę oraz kontakt ze znajomymi, którzy przebywają za granicą. Zalet tych aplikacji jest wiele więcej. W wyniku rosnącej liczby użytkowników z niepełnosprawnościami i ich wzrastającego zapotrzebowania na cyfryzację pojawiło się pojęcie „dostępność”. O dostępności zaczęto mówić jakiś czas temu, ale słowo to nie wszyscy rozumieją jednakowo.

Ostatnio, w internecie właśnie, przeczytałam pewną anegdotę na temat dostępności. Użytkownik z niepełnosprawnością zgłosił administratorowi, że strona jest niedostępna. Ten zaś odpowiedział, że to niemożliwe, bo w tym samym czasie wchodził na stronę i działała. Jedni przez dostępność rozumieją wyłącznie prawidłowe wyświetlanie strony na ekranie urządzenia, inni definiują to pojęcie znacznie szerzej, czyli w kontekście wdrażania odpowiednich dostosowań ułatwiających korzystanie z serwisu osobom z dysfunkcjami narządu ruchu, wzroku, słuchu, słabiej wykształconym czy ludziom starszym. Niestety, do tej ostatniej grupy wciąż zalicza się zbyt mało osób, dlatego niezbędne jest systematyczne upowszechnianie wiedzy w tym temacie.

Dostępność stron internetowych (w języku angielskim web accessibility) to wiedza dotycząca projektowania stron internetowych w taki sposób, aby mogły z nich korzystać osoby z różnymi niepełnosprawnościami. Z zagadnieniem dostępności serwisów www wiąże się skrót WCAG (w języku angielskim Web Content Accessibility Guidelines), co w tłumaczeniu na język polski oznacza wytyczne dotyczące dostępności treści internetowych. Często te kilka liter budzi niechęć spowodowaną niewiedzą, co zrobić i w jaki sposób zaprojektować stronę, by była zgodna z wyżej wymienionymi wytycznymi.

Należy pamiętać o tym, że na dostępność strony internetowej składa się nie tylko szablon zawierający u góry okrągłą ikonkę służącą do zmiany kontrastu z zamieszczonymi obok symbolami: A A+ A++ umożliwiającymi powiększanie czcionki, ale również poprawność i zrozumiałość tekstu. Nie pomogą udogodnienia takie jak możliwość powiększania czcionki, jeżeli treść umieszczona w serwisie będzie pełna skomplikowanych pojęć, czy napisana żargonem charakterystycznym dla danej dziedziny. Użytkownikami internetu są nie tylko osoby z wykształceniem wyższym, ale także nie posiadające żadnego wykształcenia lub takie, które swoją edukację zakończyły na zasadniczej szkole zawodowej. Te właśnie w największym stopniu są narażone na wykluczenie cyfrowe, głównie z powodu problemów ze zrozumieniem treści umieszczanych na stronach www.

Poszerzając swoją wiedzę w temacie wdrażania udogodnień na stronach internetowych miałam okazję spotkać się z czterema kluczowymi zasadami dotyczącymi dostępności, czyli: funkcjonalnością, percepcją, zrozumiałością i rzetelnością. Zasady te są zawarte we wspomnianych wytycznych WCAG. Zasada funkcjonalności mówi między innymi o tym, że nie wolno projektować treści w sposób zwiększający ryzyko ataku epilepsji (padaczki). Prawdopodobieństwo ataku, jak informuje Fundacja „Widzialni” na swojej stronie internetowej (www.widzialni.org), zwiększają błyski świetlne, dlatego trzeba unikać tworzenia treści migających więcej niż 3 razy na sekundę. Z kolei zasada zrozumiałości ukierunkowuje myślenie twórców serwisów w stronę tworzenia jasnych i czytelnych komunikatów. Mówi między innymi o tym, że nieznane słowa (np. charakterystyczne dla danego zawodu) powinny być wytłumaczone. Dokładne wytyczne co do projektowania dostępnych stron internetowych pomagają zmniejszać bariery. Niestety, nie wszyscy administratorzy serwisów przejawiają chęć zgłębiania wiedzy w tej kwestii. Miałam okazję współpracować z osobami, które niewystarczająco poważnie lub wręcz niepoważnie traktują sprawę wdrażania udogodnień dla użytkowników z niepełnosprawnościami na stronach internetowych. Wydaje im się, że ci użytkownicy stanowią tak nieliczną grupę, że nie warto podejmować wysiłku w kierunku umożliwiania im swobodnego dostępu do treści w internecie. W artykule pt. „Zobaczyć niewidomych” opublikowanym w 23 numerze „Helpa” na str. 39 i 40 wspomniałam między innymi o utrudnionym dostępie do informacji i przedstawiłam wnioski z badania dostępności serwisów internetowych, które pokazują na jak niskiej pozycji plasują się strony www, między innymi placówek medycznych w całym kraju, jeśli chodzi o dostępność dla użytkowników z niepełnosprawnościami. Nie inaczej jest na różnego rodzaju forach internetowych, których twórcy chyba zapomnieli, że w toczących się tam dyskusjach mogą brać udział osoby z niepełnosprawnościami, choćby słabowidzące i niewidome. Na żadnym z forów, które znam, nie znalazłam przycisku zmiany kontrastu ani oznaczeń umożliwiających powiększanie czcionki. O braku innych udogodnień nie wspomnę.

Prym w internecie wiodą, wspomniane we wstępie artykułu, media społecznościowe, inaczej social media. Nazwy jak Facebook, Twitter, You Tube czy Instagram praktycznie nikomu już nie są obce. Liczba użytkowników internetu na całym świecie przekroczyła 4 miliardy, zaś z social mediów na całym świecie korzysta przeszło 2,7 miliarda użytkowników. Internet stał się powszechnie dostępny. Aby z niego korzystać, nie trzeba posiadać komputera stacjonarnego czy laptopa. Do tego celu wystarczy niewielkie urządzenie przenośne jak smartfon z dostępem do WiFi lub z pakietem internetu wykupionym u operatora sieci komórkowej. Niestety, nie wszyscy słabowidzący, a szczególnie całkowicie niewidomi i głuchoniewidomi, mogą korzystać z tych wirtualnych dobrodziejstw. Weźmy pod lupę na przykład Instagram. To aplikacja, za pomocą której użytkownicy dzielą się zdjęciami ilustrującymi wrażenia z wakacji czy ze spotkań rodzinnych. Takich fotografii na „Insta”, bo tak właśnie nazywają portal jego użytkownicy, jest mnóstwo. Osoby całkowicie niewidome ich nie zobaczą, gdyż aplikacja ta nie daje możliwości dodawania tzw. opisów alternatywnych wyjaśniających niewidomemu, co dokładnie znajduje się na zdjęciu. Nikt zresztą o tym nie myśli. Na „Insta” komunikatów tekstowych nie ma prawie wcale, są tylko „hasztagi” przy zdjęciach, czyli pojedyncze wyrazy poprzedzone znakiem „#”. Z kolei Facebook dosłownie zalewa użytkowników mnóstwem linków do stron nieprzystosowanych do potrzeb osób z niepełnosprawnościami. Niewidomym i głuchoniewidomym trudno z niego korzystać, posługiwać się różnego rodzaju ustawieniami oraz uczestniczyć w dyskusjach na grupach. Podobnie sytuacja wygląda w przypadku innych serwisów społecznościowych. Nie oznacza to jednak, że są one całkowicie niedostępne dla użytkowników z niepełnosprawnościami. Fakt, czy dana osoba będzie w stanie korzystać z Facebooka czy Twittera, jest uzależniony od indywidualnych potrzeb, a często i rodzaju niepełnosprawności.

Dźwięk pod kontrolą – fascynująca wyprawa do laboratorium Akademii Górniczo-Hutniczej w Krakowie

Kiedy nasz nauczyciel od realizacji nagrań powiedział nam, że długo oczekiwane wyjście do laboratorium AGH na dniach dojdzie do skutku, wszyscy byliśmy zachwyceni. Komora pogłosowa, komora bezechowa… Odliczałam dni do wycieczki, bo byłam niezmiernie ciekawa jak tam jest.

Nareszcie nadszedł ów wyczekiwany przez nas dzień. Z ośrodka wyszliśmy koło dwunastej. Akademię Górniczo-Hutniczą dzieli od naszej szkoły zaledwie kilka przystanków. Na miejscu powitała nas pani Dorota.

Pomieszczeniem, do którego udaliśmy się najpierw, była komora pogłosowa. Moje pierwsze wrażenie, no cóż – rozczarowanie. To ma być komora pogłosowa? – myślałam. Pogłos co prawda bardzo wyraźny, ale wchodząc tam wyobrażałam sobie, że będzie on olbrzymi – taki jak w katedrze, hali targowej, czy w jakimś obiekcie sportowym. Moje rozczarowanie trwało bardzo krótko, bo nasz nauczyciel wraz z panią Dorotą, cierpliwie wytłumaczyli nam, dlaczego to pomieszczenie, szumnie nazwane komorą pogłosową, jest właśnie takie, a nie inne.

– Ten pogłos wydaje wam się dziwny, bo nie jest on taki, jaki słyszycie na co dzień. Jest on równomierny, to znaczy, że wszystkie częstotliwości zanikają w tym samym czasie. Naturalny pogłos, taki z jakim stykacie się w życiu, jest nierównomierny, a przez to przyjemniejszy dla naszego ucha. Ten pogłos tutaj jest bardzo duży, a świadczy o tym fakt, że jeśli któreś z was stanęłoby na środku pomieszczenia i wygenerowało jakiś krótki, głośny impuls dźwiękowy np. wystrzał czy pęknięcie balonu, mogłoby dojść do utraty przytomności, a nawet śmierci, bo dźwięk odbijający się od ścian, dokładnie z każdej strony powracałby do tej osoby, a na dodatek jeszcze się dublował.

– Jest również kolejna ciekawa sprawa związana z pogłosem, nie tylko tym sztucznym – przejął inicjatywę pan Paweł. Umówmy się teraz, że przez około dwie minuty wszyscy będziemy mówić jednocześnie.

Podeszłam do najbliższej osoby i zaczęłam z nią rozmawiać. Reszta grupy zrobiła to samo i już po chwili okazało się, że hałas, jaki generujemy naszą rozmową wciąż narasta. Kiedy nauczyciel nakazał ciszę, powiedział:

– Jak widzicie, gdy zaczynaliście do siebie mówić, przeszkadzał wam pogłos, więc wszyscy automatycznie zaczęliście mówić coraz głośniej, więc i pogłos narastał, wy znów głośniej. A teraz spróbujcie mówić do siebie szeptem.

Zastosowaliśmy się do polecenia nauczyciela i rzeczywiście – o wiele łatwiej było nam się ze sobą porozumieć. Pan Paweł dodał jeszcze na koniec, że to właśnie pogłos, a nie duża ilość osób sprawia, iż po dłuższym przebywaniu w jakimś większym pomieszczeniu robi się tak męczący dla nas hałas.

Nadszedł wreszcie czas na najbardziej wyczekiwane przez wszystkich miejsce – komorę bezechową. Było to naprawdę niezwykle ciekawe pomieszczenie. Już sama jego budowa była bardzo specyficzna, bowiem to pomieszczenie nie było osadzone na ziemi, ale jak pudełko w pudełku. Cała komora bezechowa jest żelbetonową kostką osadzoną na warstwie wibroizolacyjnej tak, by nie docierały tam żadne dźwięki. W tym przypadku chodzi o te najniższe, np. przejazd tramwajów czy innych pojazdów oraz wszelkiego rodzaju drgania. Już od samego początku komora bezechowa wywarła na mnie niesamowite wrażenie. Samo to, że nie było tam zwykłej podłogi, ale sprężynowa siatka przypominało o tym, że bynajmniej nie znajdujemy się w zwykłym, świetnie wygłuszonym pokoju czy nawet studiu nagrań.

Zaraz na początku pobytu w komorze jednemu z moich kolegów zdarzyła się ciekawa przygoda. Pani Dorota poprosiła nas, byśmy nie dotykali ścian, dlatego Maciek chcąc uniknąć jakichkolwiek nieprzyjemnych sytuacji próbował mniej więcej zlokalizować najbliższą mu ścianę. Wyciągnął więc ręce i powoli posuwał się do przodu. Nagle z zaskoczeniem odskoczył lekko, bo dotknął palcami ściany. Powodem tej sytuacji było zaburzenie poczucia przestrzeni. Po przygodzie Maćka pani Dorota opowiedziała nam, że ci, którzy odwiedzają to pomieszczenie, dzielą się na dwie grupy. Jedni mają klaustrofobiczne lęki, drudzy zaś uważają, że jest tu za dużo przestrzeni. Teraz już widać jak niezwykła musi być ta komora, że ludzie odczuwają zupełnie przeciwne wrażenia dotyczące jednego i tego samego pomieszczenia. Ja nie miałam tam żadnych lęków. Najbardziej byłam ciekawa tej niezmąconej, wszechobecnej ciszy, bo słyszałam, że można usłyszeć nawet bicie własnego serca. Gdy pani Dorota poprosiła nas o absolutną ciszę, zamarłam na chwilę, by chłonąć dźwięki otoczenia, a raczej ich brak.

Muszę wam przyznać szczerze, że bicia serca nie słyszałam, ale jakby lekki szum. Taki szum ciszy. Pani Dorota wyjaśniła tym nieco rozczarowanym, że na usłyszenie bicia serca często trzeba trochę dłużej poczekać, a ile, to już zależy indywidualnie od każdego człowieka. Podkreśliła też, że najlepiej byłoby przebywać w komorze samemu, albo najwięcej w trzy osoby, a nie w piętnaście, jak to miało miejsce w naszej grupie. Na zakończenie pan Paweł pokazał jeszcze jedno doświadczenie. W czasie kolejnej chwili ciszy podchodził do każdego z nas i ogólnie przemieszczał się po całej komorze. Wtedy odkryliśmy, jak bardzo kierunkowy jest dźwięk w tym pomieszczeniu. Kiedy ktoś stał do nas przodem, jego głos był dobrze słyszalny, ale jeżeli się odwrócił – było go słychać bardzo słabo. To zjawisko również zrobiło na mnie wrażenie. Na koniec zrobiliśmy sobie parę zdjęć i wymieniliśmy się swymi osobistymi odczuciami. Po wyjściu z komory bezechowej słyszałam wszystko niezwykle wyraźnie i jaskrawie, może trochę tak, jak po porządnym płukaniu uszu u laryngologa. Oba pomieszczenia bardzo mi się podobały, choć bezechowa nie ma sobie równych. Na pewno chciałabym ją jeszcze raz odwiedzić, tym razem z mniejszą liczbą osób, albo najlepiej samemu, by wsłuchać się w jej ciszę, której nie znajdziemy nigdzie indziej, nawet w środku nocy i nawet w nie wiem jak odizolowanym miejscu.

Naprawdę polecam wszystkim odwiedzenie pomieszczeń należących do krakowskiej Akademii Górniczo-Hutniczej, zwłaszcza komory bezechowej. Miejcie uszy otwarte, by poznać te – jakże pomocne dla nas, niewidomych – zjawiska dźwiękowe.

Kody kreskowe, QR teoria i zastosowanie w praktyce

W niniejszym artykule przedstawię szeroką gamę możliwości i korzyści związanych z wykorzystywaniem kodów kreskowych i kodów QR przez osoby niewidome. Po krótkim wyjaśnieniu czym jest kod, w jaki sposób działa i jakie może mieć zastosowania, opiszę zastosowanie kodów w praktyce, a ponadto przyjrzę się funkcjom i aplikacjom szczególnie przydatnym z perspektywy osób niewidomych.

Czym jest kod? Jak działa?

Kod to system umownych symboli, znaków, skrótów, który służy do przekazywania informacji. Może być wykorzystywany w żegludze, lotnictwie, telekomunikacji, jak i w dziedzinach nam przyziemnych, np. zwykłe pismo, czy alfabet brajla. W tym przypadku kodowane są słowa za pomocą znaków graficznych lub wypukłych punktów. Kod kreskowy, zwany inaczej paskowym to kod, którego zapis składa się z czarnych kresek różnej grubości rozdzielonych białymi polami. W handlu stosuje się kody kreskowe w celu szybkiej identyfikacji produktu przez czytniki kodów. Innymi słowy, kod paskowy to graficzne odzwierciedlenie cyfr, liter i znaków specjalnych takich samych, jakich używamy w komputerze do znakowania produktów.

Patent dotyczący sposobu kodowania cyfr został przyznany w 1952 roku, a w 1973 oficjalnie zatwierdzono kod kreskowy. Pierwszym towarem, oznaczonym kodem kreskowym, była guma do żucia „Wrigley’s”, która przeszła przez kasę w domu towarowym Marsh w Troy, w stanie Ohio. Obecnie najlepsze i najbardziej zaawansowane technologicznie wydają się być kody QR wynalezione w roku 1994 przez japońską firmę Denso-Wave (z angielskiego QR Code, czyli Quick Response Code). Taki system cechuje się uzyskaniem szybkiej odpowiedzi, czyli szybkim i łatwym rozkodowaniem zakodowanej informacji. Wystarczy tylko skierować aparat fotograficzny naszego urządzenia na kod, a dzięki odpowiedniej aplikacji informacja po chwili pojawia się na ekranie lub jest odtwarzana głosowo. System ten pozwala na kodowanie znaków Kanji/Kana, co pozwoliło na popularność kodu w Japonii. Prócz tego możemy kodować w alfabecie arabskim, greckim, hebrajskim, cyrylicy, a także zapisywać inne symbole. Kody QR umożliwiają zapisanie dużej ilości danych na stosunkowo małej powierzchni. Przykładowo, jeśli chodzi o znaki alfanumeryczne, to w kodzie QR może zmieścić się ich 4296. Modułem w kodzie QR jest kwadrat jasny lub ciemny. Większa ilość modułów to tak zwane słowa kodowe, w których zapisana jest informacja o poszczególnych znakach. Wymiar modułu i kodu jest zmienny. Zależy od ilości kodowanej informacji, a także od sposobu korekcji kodu. Krótko mówiąc, kod QR to udoskonalona wersja kodu kreskowego, ponieważ może przechować więcej informacji na mniejszej powierzchni, a na dodatek dostajemy szybciej rozkodowaną informację i nie musimy się trudzić, by idealnie skierować czytnik na kod.

W jaki sposób kody kreskowe mogą ułatwić życie osobom niewidomym?

Zastosowanie w praktyce ściśle powiązane jest z wykorzystaniem odpowiednich aplikacji, w tym przypadku w systemie IOS. Chociaż programów tego typu jest mnóstwo, wybrałem dwa, które dobrze współpracują z Voice Over i mają dodatkowe użyteczne funkcje. Obie aplikacje odczytują zarówno zwykłe kody kreskowe na produktach dostępnych w sprzedaży, jak i kody QR. Ponadto mają funkcję audioetykietownika, czyli rozpoznawania i identyfikacji naklejanych etykiet, co warto przetestować.

Seeing Assistant Home

Seeing Assistant Home to aplikacja w języku polskim wspomagająca osoby niewidome i niedowidzące, która ma takie moduły jak: „wykryj światło”, „rozpoznaj kolor”, „lupa”. Kody możemy rozpoznawać dzięki modułowi „skanuj kod”. Aby poprawnie zeskanować kod, aplikacja musi go całego „zobaczyć” w obiektywie naszego urządzenia. Program może nam posłużyć do skanowania kodów kreskowych znajdujących się np. na produktach w marketach, szybko i bezbłędnie dając nam informację o danym produkcie. Trudne może okazać się namierzenie kodu na opakowaniu, a także precyzyjne skanowanie kodu. Łatwiej i mniej precyzyjnie skanuje się kody QR, których jednak obecnie nie stosuje się w handlu. Aplikacja sprawnie komunikuje się z Internetem, pocztą e-mail i Twitterem. Aplikacja może także być stosowana jako audioetykietownik. Wówczas najlepiej wygenerować kody ze strony internetowej, bądź z poziomu aplikacji i wydrukować je na etykietach samoprzylepnych. Po wydrukowaniu przyklejamy etykiety na interesujące nas przedmioty, a dodany do bazy kod skanujemy, klikamy „dodaj do bazy”, nadajemy mu nazwę i gdy kolejny raz zeskanujemy ten kod będzie wypowiedziana podana nazwa.

QR Voice Sticker

Drugą aplikacją, która moim zdaniem jest warta uwagi, jest QR Voice Sticker. Program występuje w języku polskim w wersji płatnej i darmowej. Wersja darmowa umożliwia nagranie tylko dziesięciu etykiet przypisanych do kodów. QR Voice Sticker to aplikacja bardzo wygodna, intuicyjna i ergonomiczna. Myślę, że każdy kto ją „weźmie do ręki”, nauczy się obsługi błyskawicznie. Aplikacja po włączeniu od razu jest gotowa do działania i automatycznie rozpoznaje kod. QR kody możemy wygenerować i wydrukować na papierze samoprzylepnym i ponaklejać na interesujące nasz przedmioty, takie jak płyty czy puszki, aby potem łatwo je rozpoznawać.

Warto zapoznać się z prostym w obsłudze generatorem znajdującym się na stronie:

http://www.pirslab.pl/qr/pl_qrvs_generator.html#poczatek

W tym generatorze podajemy liczbę wierszy i kolumn etykiet, a także marginesy w milimetrach. Nie ma tam żadnych graficznych suwaków i wszystko jest łatwo dostępne. Kody możemy także generować z pozycji aplikacji wchodząc w „ustawienia”, „generowanie etykiet”. Gdy mamy już wygenerowane, wydrukowane i naklejone etykiety na produkty, wystarczy je ponazywać. Aby nazwać etykietę najpierw skanujemy ją naszym telefonem, czyli kierujemy na nią obiektyw aparatu fotograficznego. Po rozpoznaniu QR kodu „widzianego” przez aplikację po raz pierwszy, usłyszymy specyficzny dźwięk. Pukając dwa razy palcem w pole podglądu rozpoczynamy nagrywanie notatki audio. Kończymy nagrywanie tym samym gestem. Ilekroć skierujemy obiektyw aparatu na ten kod, tyle razy będzie odtworzona nagrana wcześniej notatka. Możemy także kliknąć przycisk „edytuj opis” i nadać etykiecie opis tekstowy trwały lub tymczasowy. Program zdecydowanie lepiej sobie radzi z kodami QR niż ze zwykłymi kreskowymi.

Podsumowując, w mojej opinii kody QR są znacznie lepiej rozpoznawane od zwykłych jednowymiarowych kodów kreskowych. Aplikacja QR Voice Sticker znacznie lepiej rozpoznaje kody QR od Seeing Assistant. Wniosek nasuwa się sam – chcąc mieć niezawodny audioetykietownik najlepiej wybrać aplikację QR Voice Sticker i bazować na kodach QR.W QR Voice Sticker brakuje natomiast funkcji z Seeing Assistant umożliwiającej interakcję z zeskanowaną treścią kodu i wykonywaniem na niej operacji kopiowania do schowka, wysyłania, czy dzwonienia. Jak widać każda aplikacja ma przydatne funkcje. Pozostaje mieć nadzieję, że w QR Voice Sticker zostaną zaimplementowane funkcje służące do interakcji z kodem i stanie się ona aplikacją wiodącą, jeśli chodzi o korzystanie z kodów kreskowych. W tym przypadku rozpoznawanie QR kodów jest bardzo szybkie, bezbłędne i nie wymaga precyzji czy wysiłku ze strony użytkownika.

Zastosowanie kodów kreskowych:

Identyfikacja jednostek handlowych, czyli dowolnych produktów i usług, którym można nadać cenę.

Identyfikacja jednostek logistycznych, tworzonych dla potrzeb transportu i magazynowania, które podlegają procesom identyfikacji, śledzenia i zarządzania podczas dostawy lub przemieszczenia produktu.

Identyfikacja zasobów. Dzięki takiemu rozwiązaniu przedsiębiorstwo może w łatwy sposób sprawdzić zasoby towarów, które jeszcze posiada w magazynie.

Identyfikacja lokalizacji służy do identyfikacji obiektu, któremu można nadać nazwę, adres i zarządzać nim.

Identyfikacja relacji usługowych – są to numery nadawane usługobiorcom.

Inne zastosowania: znakowanie kuponów, przesyłek kurierskich, recept, leków, stron internetowych.

Kody QR można wykorzystać naprawdę dowolnie. Ogranicza nas tylko nasza wyobraźnia. Można je dziś spotkać np. w reklamach czy gazetach. Kody mogą promować określony produkt, np. informować nas o dostępnych zniżkach. Skanując kod w gazecie możemy zaś uzyskać szybko dostęp do strony internetowej czy treści video.

Znakowanie obiektów

W kwestii stosowania kodów, eksperci do spraw dostępności zyskują duże pole do popisu. Przy tabliczce na drzwiach możemy umieścić kod QR z informacją np. „Gabinet prezesa” czy „Sala 123”. Jeśli administracja budynku skorzysta z takiego rozwiązania, wówczas możliwe będzie odsłuchanie napisu za pomocą syntezatora mowy w naszym telefonie. Co więcej, kody QR można stosować jako wirtualne przewodniki na ścieżkach edukacyjnych w muzeach itd. Taka forma uatrakcyjnia zwiedzanie wystaw, zwłaszcza dla dzieci czy młodzieży. Atutem kodu jest to, że osoba niewidoma tak jak widząca ma natychmiastowy dostęp do tej samej informacji. Takie kody można z powodzeniem stosować w handlu jako oznaczenie i informacja o produkcie. Niestety, na razie stosowane są kody kreskowe, które mieszczą mniej informacji, a ich zeskanowanie wymaga więcej precyzji. Wreszcie w kodzie QR może być umieszczona dowolna informacja, np. dane przelewu, wizytówka, dane osobowe. Wówczas po zeskanowaniu kodu możemy od razu skontaktować się z daną osobą.

Podsumowując, szeroka gama nowych aplikacji, specjalnych urządzeń służących do oznaczania i wszechstronne zastosowanie QR kodów do etykietowania różnych przedmiotów otwiera przed osobami niewidomymi zupełnie nowe spektrum możliwości. Każdy może przetestować aplikację i wybrać najbardziej odpowiadające mu rozwiązanie, które z pewnością usprawni codzienne życie!

365 dni, czyli zobaczyć niewidzialne

Poznawanie otaczającego świata bywa dla niewidomych niełatwe. Do dzisiaj wygląd wielu zabytków i innych interesujących obiektów architektonicznych pozostaje tajemnicą. Wielkość, a czasem i charakter budynków, uniemożliwiają obejrzenie dłońmi obiektu. Dlatego łącząc przyjemne z pożytecznym, w Białymstoku stworzono unikalny tyflokalendarz na rok 2017. Jest to publikacja kierowana do osób niewidomych. Została przygotowana w specjalnej technologii wydruku transparentnego. Polega ona na tym, że na druku powiększonym, łatwym do odczytania, naniesiono napisy brajlowskie. Dzięki temu kalendarz jest dostępny zarówno dla słabowidzących, jak i niewidomych użytkowników.

Publikacja ma formę kalendarza ściennego. Każdy miesiąc oprócz informacji o dniach tygodnia, jest opatrzony wypukłą kolorową grafiką przedstawiającą zabytek lub inne dzieło sztuki (na przykład pomnik, atrakcyjny obiekt turystyczny). Dzięki tyflokalendarzowi przez najbliższe 365 dni można sprawdzić aktualną datę, zaplanować wydarzenia, a przy okazji zapoznać się z wyglądem i odrobiną historii swojego miasta.

Zadanie „365 dni, czyli zobaczyć niewidzialne – kalendarz dedykowany niewidomym i słabowidzącym mieszkańcom Białegostoku” zostało sfinansowane ze środków otrzymanych przez Fundację Szansa dla Niewidomych od Miasta Białystok oraz ze środków własnych.

Rozrywka na telefonach od Apple, część 7

Inną formą rozrywki, ciekawą dla niektórych, a nie pochwalaną przeze mnie, jest oglądanie telewizji. Tutaj z pomocą przychodzi nam darmowa aplikacja o nazwie „Videostar”. Po utworzeniu konta i zalogowaniu się tam, mamy do dyspozycji najbardziej popularne programy. Jeśli nam mało, to możemy wykupić abonament do płatnych kanałów. Aby program działał jak należy, potrzebne jest dobre połączenie z Internetem. Aplikacja jest prosta i łatwa w użyciu. Najpierw konfigurujemy konto. Ustawienia są proste. Sprowadzają się do podania maila, ustawienia hasła i wybraniu płatnego lub podstawowego pakietu. Do ustawień zawsze możemy wrócić wybierając przycisk settings. Po odpaleniu programu klikamy po prostu w nazwę stacji, która nas interesuje i powinno zacząć się odtwarzanie. Ważne, aby pstryczek wyciszania w telefonie był skierowany ku górze, czyli wyciszenie musi być wyłączone.

Aby zatrzymać odtwarzanie, trzeba kliknąć w napis „Video”. Napis jest na górze ekranu. Regulacji głośności najlepiej dokonywać przyciskami z boku telefonu.

Aplikacja po kliknięciu w przycisk anonsowany przez Voice Over jako „Gwiazdka”, znajdujący się na górze ekranu, wyświetli polecane i najbardziej popularne programy. Na koniec taka praktyczna rada dla wszystkich, którzy z telewizji korzystają bezwzrokowo; skoro duży obraz nie jest nam potrzebny, to w zupełności można zadowolić się odtwarzanym dźwiękiem z iPhona. Dźwięk, jeśli mamy dobre łącze, jest dobrej jakości, powiedziałbym nawet, że lepszy niż ze zwykłej telewizji naziemnej z anteny. Jeśli jednak nas dźwięk nie zadawala, zawsze możemy podłączyć do naszego telefonu jakiś zestaw głośnikowy. Duży ekran zaś mogą mieć do dyspozycji domownicy, którzy tego potrzebują. My zaś mamy tę przewagę, że jesteśmy bardziej mobilni, gdyż nie jesteśmy przywiązani do dużego telewizora, tylko do małego telefonu.

Jeżeli zainteresowaliśmy się już telewizją, warto wyposażyć się w aplikację, dzięki której będziemy wiedzieć kiedy emitowane są nasze ulubione programy. Aplikacji takiego typu jest bardzo dużo. Aplikacja, która jest dostępna i z której ja korzystam, to „Program TV” od WP. Jest ona oczywiście darmowa. Program ma dużo różnych możliwości. Można wyszukiwać interesujący nas materiał po nazwie. W tym celu klikamy w kartę „Szukaj”. Karty w tej aplikacji znajdują się u dołu ekranu.

Możemy dodawać alerty, żeby aplikacja przypominała nam o rozpoczęciu ulubionego programu. Kontrolować alerty możemy w karcie „Alerty”.

W karcie „polecane” mamy polecane i najbardziej popularne pozycje do obejrzenia. Prócz tego mamy jeszcze kartę „Ulubione”. Nas najbardziej interesować będzie karta „Oś Czasu”. Po jej kliknięciu u góry ekranu mamy do wyboru dni tygodnia. Domyślnie zaznaczony jest dzisiejszy. Gdy wybierzemy dzień, ukazują nam się po kolei wszystkie pozycje z wszystkich kanałów. Aby zobaczyć cały kanał, klikamy na dowolną emitowaną pozycję w tym kanale i następnie u dołu ekranu „zobacz cały dzień”. Teraz mamy w końcu to, co nas interesuje, czyli całą ramówkę kanału. Gdy jakaś pozycja nas zainteresuje, po kliknięciu w nią ukazują nam się szczegóły z krótkim streszczeniem. U dołu pod reklamą mamy przyciski: „zobacz cały dzień”, który cofa nas do ramówki kanału.

Przycisk „Podziel się” umożliwia podzielenie się interesującą pozycją ze znajomymi przez facebooka, maila, czy sms…

Przycisk „Ustaw Alert” umożliwia ustawienie przypomnienia o danej interesującej pozycji.

Przycisk „Serie Powtórki” daje dostęp do serii i powtórek danego ulubionego np. serialu.

Jako ciekawostkę trzeba napisać, że gdy jesteśmy na liście emitowanych programów i dotkniemy palcem tego, co właśnie trwa, to mamy w procentach podane ile już tej emisji się odbyło.

Myślę, że aplikacja o tyle ciekawa, że daje dostęp osobom niewidomym do ramówki telewizyjnej ze wszystkimi szczegółami i z ciekawymi funkcjami typu ustawienie przypomnienia o danym odcinku, czy podzielenie się ze znajomymi tą informacją.

Następną formą rozrywki dostępną na iPhone jest słuchanie muzyki i oglądanie filmików. Obecnie najpopularniejszym kanałem do tego służącym jest youtube. Na smartfony istnieje aplikacja o takiej samej nazwie. Program jest także darmowy. Po odpaleniu youtube mamy do wyboru trzy karty: Główna, Na Czasie i Konto. Karty znajdują się na górze ekranu.

Nad kartami mamy przycisk Szukaj. Po jego uaktywnieniu otwiera się pole edycyjne do wpisania treści, jaką chcemy znaleźć. Gdy już znajdziemy to, co nas interesuje, dwuklikiem zaczynamy odtwarzanie. Gdy chcemy zatrzymać, najlepiej zrobić dwuklik dwoma palcami. Potem tak samo można rozpocząć odtwarzanie. Aplikacja ma szereg różnych mniej lub bardziej przydatnych opcji. Najlepiej samemu je popróbować. Najbardziej przydatne w samym odtwarzaczu są opcje takie jak: u góry „udostępnij”, możemy dzięki niej podzielić się ze znajomymi odtwarzanym aktualnie linkiem. Kolejną bardzo przydatną funkcją jest przewijanie odtwarzanego materiału. Dokonujemy tego za pomocą kontrolki „miejsce w filmie”. Znajduje się ona u góry pod nagłówkiem odtwarzacza. Trzymając palec na tej kontrolce ruchem palca w górę przesuwamy do przodu, a ruchem palca w dół do tyłu.

Po wyborze karty „Główna” mamy zawsze do wyboru ostatnie odtwarzane utwory, a także przypadkowe „kawałki”, które według aplikacji mogą nam się spodobać. Wystarczy tylko na nie kliknąć i zacznie się odtwarzanie. Program po zakończeniu odtwarzania odcinka zacznie odtwarzać przypadkowe podobne utwory. Można dzięki temu poznać nowe piosenki czy filmiki. Funkcję automatycznego odtwarzania można wyłączyć z pozycji odtwarzacza.

Po wyborze karty „Na Czasie”, jak sama nazwa wskazuje, pojawiają nam się utwory, które w danym czasie są najpopularniejsze.

Karta „Konto” umożliwia zalogowanie się w aplikacji. Dzięki temu możemy dodawać własne publikacje w portalu youtube. Możemy też komentować utwory innych osób.

O aplikacjach służących do rozrywki można by pisać bez końca, ale nie o to chodzi. Celem tego długiego cyklu było tylko zainteresowanie tematem i pokazanie podstawowych możliwości smartfonu dla osób niewidomych. iPhona możemy wykorzystać w zależności od tego, czym się interesujemy. To, jak używamy telefon, zależy od nas samych i pomysłowości twórców aplikacji.

Na koniec tego długiego cyklu jedno zdanie podsumowania. Żyjemy w czasach, w jakich żyjemy. Może ekran dotykowy to nie jest wynalazek dedykowany bezpośrednio osobom niewidomym, ale należy się cieszyć i korzystać z dobrodziejstw jakie on daje. Zdaję sobie sprawę, że wszystko nie jest dla wszystkich, ale zachęcam chociaż do poczynienia prób z aplikacją, która nas najbardziej zainteresowała. Jeśli nie polubimy ekranu dotykowego, to będziemy mieli argument do dyskusji dlaczego nie polubiliśmy, bo argument „nie, bo nie” jest dziwny i nieracjonalny. A kto wie, może telefon taki nas wciągnie tak, że nie będziemy mogli się oderwać od niego, czego oczywiście nikomu nie życzę.