Wynalazki wszech czasów

Nie da się w krótkim artykule opowiedzieć całej historii rozwoju technologii dostępowych, wybrałem więc kilka „wynalazków”, które były kamieniami milowymi w tej dziedzinie i mogą dać pewien obraz sytuacji, jak było kiedyś, jak jest teraz i co może nas czekać…

Czym jest Dostępność?

Termin Dostępność odnosi się do poziomu, w jakim dany program, urządzenie lub system mogą być używane przez jak największą grupę osób. Głównym celem zwiększania Dostępności jest rozwiązywanie problemów osób niepełnosprawnych w realizacji ich prawa dostępu do informacji, usług i pracy. Realizację tych potrzeb umożliwia zastosowanie adekwatnych Technologii Dostępowych. Pełny zestaw procedur komunikacji, oprogramowania i sprzętu tworzy kompleksowe rozwiązanie, które nazywamy Systemem Dostępowym.

Jak to zapisać, a jak odczytać?

Gdy mówimy o osobach niewidomych, pierwszym takim systemem był system brajlowski. Niewidomi korzystali z różnych form wypukłego zapisu informacji, ale właśnie system stworzony przez Louisa Braille«a można nazwać jednym z pierwszych systemów dostępowych. Ludwik, który w wyniku wypadku oślepł w dzieciństwie, oparł się na wojskowym systemie umożliwiającym odczytywanie rozkazów bez użycia światła. System brajlowski powstał w 1825 r. Jego polska adaptacja dostosowująca alfabet Braille’a do naszego systemu fonetycznego została opracowana przez zakonnicę Elżbietę Różę Czacką oraz Teresę Landy. Alfabet został oficjalnie przyjęty dekretem Ministerstwa Wyznań Religijnych i Oświecenia Publicznego z dnia 25.05.1934 r. Warto wspomnieć o publikacji „Brajlowska notacja matematyczna. Jak to zapisać, a jak odczytać” – Marka Kalbarczyka i Jana Omiecińskiego, która opisuje polską notację matematyczną.

Wibrujące litery

Problemem brajla było to, że trzeba było najpierw przygotować informacje, żeby niewidomy mógł je odczytać. System jest podstawowym sposobem zapisu tekstu przez niewidomych, ale problemem stają się sytuacje, kiedy chcą przeczytać list, gazetę, książkę, które są napisane w czarnym druku. Pierwszą próbą rozwiązania tego problemu był Optacon (OPtical to TActile CONverter).

Optacon był dziełem Jana Linvilla, profesora inżynierii elektrycznej na Uniwersytecie Stanforda. W 1962 r., podczas urlopu naukowego w Szwajcarii, Linvill odwiedził laboratorium IBM w Niemczech, gdzie obserwował drukarkę wysokiej prędkości, która używała zestawu małych szpilek-młoteczków do druku liter na paskach papieru. Pomyślał: „Jeśli można poczuć młoteczki na opuszkach palców, można też z pewnością rozpoznać obraz”. I tak właśnie działał Optacon. Na tekst kładło się małą kamerę, która przekazywała obraz do jednostki centralnej. Ona rozpoznawała go i wysyłała informacje do matrycy szpileczek 24 na 6. Przykładając palec do matrycy, można było rozpoznać literkę po literce – dotykowo. W ten sposób osoby niewidome czytały całe książki!

Przełom – mówiące komputery

Komputery z początku nigdy nie miały być osobiste! Dopiero Steve Jobs, projektując komputer Apple 1 i Bill Gates sprzedając system DOS firmie IBM, zmienili bieg historii i przenieśli komputery z laboratoriów pod strzechy domów. Od tego momentu zawsze chciano wykorzystać ich moc obliczeniową, aby pomóc niepełnosprawnym. W latach osiemdziesiątych zaczęto pracować nad syntezą mowy. Okazało się, że jeśli informacje są zapisane jako dane, taki sam dostęp do nich może mieć osoba widząca, jak i niewidoma. Równolegle było prowadzonych wiele prac, a ja przedstawię dwa rozwiązania.

JAWS

JAWS został wydany w 1989 r. przez Teda Hentera, motocyklistę, który stracił wzrok w wypadku samochodowym w 1978 r. JAWS został stworzony dla systemu operacyjnego MS-DOS. Był jednym z kilku czytników ekranu. Podobny do niego był brytyjski HAL firmy Dolphin. Dawały niewidomym użytkownikom dostęp do tekstu wyświetlonego w trybie tekstowym rozmaitych aplikacji systemu MS-DOS.

Readboard

W latach osiemdziesiątych pracowano nad syntezą polskiej mowy w kilku ośrodkach, jednak na finalny efekt trzeba było jeszcze poczekać. W roku 1988 dzięki zaangażowaniu grupy informatyków stworzenie syntezatora mówiącego po polsku, dostępnego cenowo dla każdego, stało się realne. Marek Kalbarczyk zaprosił do współpracy wybitnego elektronika – Jana Grębeckiego, który nagrał próbki ludzkiego głosu. Powstał również program lektorski – Reader, który analizował pracę komputera. Bardziej dopracowana wersja tego programu została zaprezentowana przez Marka Kalbarczyka na początku 1990 r. Następnie, po kilku miesiącach pracy, program został zmodyfikowany i w ten sposób powstał Screen Reader, program o nazwie Readboard. Potem niewidomi mogli korzystać z kilku narzędzi i spierać się, które jest lepsze i wygodniejsze! To wymarzona sytuacja, gdy mają w czym wybierać osoby, dla których jest to nieodzowne.

Monitory brajlowskie

Komputery tak szybko, jak zaczęły mówić, zostały wyposażone w brajlowskie monitory, dzięki którym osoby niewidome nie tylko mogły usłyszeć tekst, ale także go „zobaczyć”, czyli dotknąć. Dzięki technologii piezoelektryków, tekst widoczny na ekranie mógł być „wyświetlony”, czyli pokazany w 6- lub 8-punkcie w linijkach od 12 do 80 znaków.

Komputerowi lektorzy

Ostatnim problemem do rozwiązania była sytuacja, kiedy osoba niewidoma musiała zapoznać się z tekstem czarnodrukowym. OPTACON nie był wystarczającym rozwiązaniem. Wykorzystano więc systemy optycznego rozpoznawania znaków OCR (Finereader, Recognita itp.), dzięki którym zamieniano zeskanowany tekst graficzny na zrozumiały dla komputera tekst cyfrowy. Potem już łatwo było odczytać go programem typu Screen Reader.

Pierwszy telefon dostępny po wyjęciu z pudełka

Telefony to tak naprawdę małe komputery od momentu, gdy pozwalały na więcej niż dzwonienie. Próbowano je więc udźwiękowić. Gdy królowała Nokia, powstał specjalny program Mobile Speak, udźwiękawiający system operacyjny Symbian. Osoby niewidome mogły zapisywać notatki w kalendarzu i odczytywać smsy. Niektórzy korzystają z takich telefonów do dziś.

Prawdziwą rewolucją był jednak IPHONE. Zmienił rynek telefonów i tak samo zmienił podejście do projektowania urządzeń dla niewidomych. Steve Jobs znowu zaskoczył wszystkich. Po pierwsze telefon był obsługiwany jedynie za pomocą dotykowego ekranu. Po drugie – od początku został zaprojektowany z uwzględnieniem potrzeb niewidomych. Nie trzeba było kupować dodatkowego programu mówiącego, gdyż on już czekał gotowy do pracy w samym telefonie. Telefon mówi. Pomimo, że nie ma wyczuwalnych klawiszy, jest obsługiwany systemem specjalnych gestów i – mimo braku wzroku – obsługuje się go świetnie. Jest to w tej chwili najczęściej wykorzystywany telefon przez niewidomych.

XXI wiek

Przez ponad 25 lat rozwoju opisanych technologii, nie ma już problemu z dostępem do informacji przez niewidomych. Mają do dyspozycji komputer, notatnik brajlowski czy udźwiękowiony telefon. To twierdzenie jest prawdziwe z jednym wyjątkiem: jest tak, dopóki osoba niewidoma nie chce pojechać w miejsce, którego nie zna. Niestety, miejsca publiczne i instytucje nie są wyposażone w urządzenia lektorskie, mówiące komputery, czy chociaż opisy brajlowskie. Miejmy nadzieję, że przyszłość przyniesie zmiany i będziemy spotykać coraz więcej dostępnych miejsc, wyposażonych w powyższe rozwiązania, w dotykowe i mówiące mapy, plany, ścieżki naprowadzające itd.

Komentarze

komentarze