Wyświetlacze i ekrany nie dla nas, część 2

Pierwszą część tego artykułu poświęciłem zmysłowi wzroku i temu, co jest z nim związane – a więc co to jest światło, jak jest zbudowane oko i cały narząd wzroku, jak odbieramy obraz oraz jakie choroby w tym przeszkadzają. Zanim przejdę do krótkiej informacji o ekranach i wyświetlaczach, także kolorowych, poświęcę jeszcze kilka akapitów naturze światła i widzenia. W gruncie rzeczy właśnie to wydaje się najważniejsze. Co by nie rzec, natura światła i nasze przygotowanie do jego odbioru we współczesnym świecie decyduje o rozwoju. Światło i zdolność jego odbierania są zjawiskami tak niesamowitymi, że na nich opiera się wiele dziedzin życia. Z tego wynika także sytuacja niewidomych i niedowidzących. Nie widzimy lub widzimy źle, więc mamy nieuchronne trudności z radzeniem sobie we współczesnym świecie. Każdy kolejny wynalazek wymaga jego dostosowania do naszych możliwości, gdy wykorzystuje najwygodniejszą ścieżkę komunikowania się, jaka jest nierozłącznie związana ze światłem i widzeniem.

Ponieważ człowiek widzi otaczającą rzeczywistość w kolorach, przez długie wieki uważano, że kolor jest cechą elementów tej rzeczywistości – przedmiotów. Nawet rozszczepienie światła w pryzmacie traktowano jako ujawnienie cechy światła, które miało się składać z różnych, kolorowych składników. Na początku XIX wieku dokonano jednak takich odkryć, które zmieniły ten pogląd. Nauką badającą wywoływanie wrażeń barwnych oraz sposób ich odbioru jest teoria koloru. Jest ona połączeniem wybranych zagadnień z zakresu fizyki, biologii i psychologii.

Co to jest barwa w znaczeniu okulistycznym, czyli medycznym? Na czym polega to, że widzimy kolory? Barwa to jedynie psychiczne wrażenie wywoływane w mózgu, gdy do oka dociera promieniowanie elektromagnetyczne o częstotliwości z zakresu światła. Główny wpływ na to wrażenie ma widmowy rozkład tego promieniowania oraz ilość docierającej do oka energii. Niebagatelny udział w odbiorze obrazu i barw ma czynnik psychologiczny: obecność innych barw w polu widzenia oraz psychiczne cechy odbiorcy, jak zdrowie, samopoczucie, nastrój, a nawet doświadczenie i wiedza w posługiwaniu się zmysłem wzroku. W szerszym znaczeniu barwa dotyczy odbioru opisywanych wrażeń, a w węższym jakościowym określeniem odbieranego światła zwanym walorem barwy, czyli porównaniem do najbliższej wrażeniowo barwy prostej. Ważną rolę pełnią dwa odrębne parametry:

  • jasność barwy, czyli udział ilości światła związanego z tą barwą w porównaniu do ogółu bieżących warunków świetlnych w otoczeniu, w którym się znajdujemy,
  • nasycenie barwy, czyli udziału achromatyczności w danej barwie.

Nazwy barw są zazwyczaj nieprzypadkowe. Określamy je za pomocą przymiotników lub rzeczowników pochodzących ze świata przyrody ożywionej lub nieożywionej, a także popularnych przedmiotów, które w powszechnej ocenie mają barwę będącą w palecie barw wzorcem. Nazwa koloru różowego pochodzi od kwiatu róży, fioletowego od fiołka, a koloru czerwonego od nazwy czerwa polskiego, który jest larwą owada zwanego czerwcem. Jak się okazuje, od średniowiecza uzyskiwano z niego koszenilę służącą do barwienia tkanin na kolor czerwony. Z kolei nazwę koloru niebieskiego utworzono dodając formant przymiotnikowy –ski, określający przynależność do czegoś. W XIV wieku „niebieski” oznaczało „przynależny do nieba”, a dopiero później wyraz ten stał się osobnym określeniem barwy niebieskiej, charakterystycznej dla koloru nieba.

W poszczególnych językach jest od dwóch do jedenastu (dwunastu) podstawowych nazw kolorów. Jeśli w danym języku jest jedenaście podstawowych nazw kolorów, oznaczają one: biały, czarny, czerwony, zielony, żółty, niebieski, brązowy, pomarańczowy, różowy, fioletowy i szary.

Barwy można podzielić na:

  • proste i złożone (w tym czyste),
  • achromatyczne, monochromatyczne i chromatyczne,
  • podstawowe (pierwszorzędowe) i wtórne (pochodne, wynikowe) (drugo-, trzecio-, czwartorzędowe itd.).

Barwa jest postrzegana dzięki komórkom światłoczułym w siatkówce oka, zwanym pręcikami i czopkami. Pręciki są wrażliwe na stopień jasności (widzenie skotopowe), a czopki także na barwę (widzenie fotopowe). Są trzy rodzaje czopków, a każdy z nich jest najbardziej wrażliwy na jeden z trzech zakresów barw: niebieskiej, zielonej i czerwonej. Zakresy te zachodzą na siebie, dzięki czemu można widzieć wszystkie barwy. Oko ma jednak ograniczoną rozdzielczość w kwestii rozpoznawania barw i czasem nie dostrzega różnicy między dwoma zbliżonymi do siebie barwami, które mają jednak inne widma. Wrażliwość na barwę jest cechą charakterystyczną ludzi, ale zależy także od częstości obcowania z daną barwą. Oko wykazuje zatem różny stopień wrażliwości na określoną barwę. Zależy to od liczby i wrażliwości czopków odbierających określoną długość fal świetlnych. Za widzenie barwy niebieskiej odpowiada około 4% czopków, za zieloną – 32%, a za czerwoną – 64%. Różnice barwy niebieskiej i ciemnoczerwonej są słabiej dostrzegane niż różnice pomiędzy innymi barwami.

W potocznym języku określenie barwa i kolor to synonimy. W piśmiennictwie specjalistycznym oraz wydawnictwach leksykalnych częściej stosowany jest termin barwa. Funkcjonuje on w językach słowiańskich od XV wieku. Towarzyszy mu słowo farba, które jest zapożyczeniem z języka niemieckiego – Farbe. Słowo kolor pochodzi z języka łacińskiego i jest znacznie późniejszym zapożyczeniem. W poligrafii panuje tendencja do stosowania pojęcia barwa zamiast koloru, traktując barwę jako wrażenie psychologiczne i jako mierzalną wielkość fizyczną o określonych parametrach. Barwa określa więc rzeczywistość obiektywną w odróżnieniu od jej subiektywnego odbioru. Dzięki temu można kontrolować barwę, tworzyć normy dotyczące druku i zawierać w umowach handlowych klauzule określające wymagane przez umawiające się strony barwy. Z kolei kolor stosuje się do określenia farb. Farbą danego koloru można jednak otrzymać wydruk o różnej barwie. Wystarczy wziąć pod uwagę wydrukowanie powierzchni różną grubością farby. W poligrafii zarządzanie barwą jest możliwe jedynie wówczas, gdy warunki oświetleniowe są znormalizowane. W skomputeryzowanej drukarni konieczne jest ustalenie parametrów pracy monitora komputera, wydruku próbnego i druku na papierze. Warunki te określa od roku 2000 norma ISO 3664.

Nie dość, że każdy inaczej odbiera bodźce świetlne i widzi nieco inaczej te same barwy, są ludzie, którzy nie odbierają różnic pomiędzy barwami, albo jest to u nich w znaczącym stopniu zaburzone. Ślepota barw zwana też zaburzeniem rozpoznawania barw, nazywana potocznie daltonizmem, jest niezdolnością do spostrzegania różnic pomiędzy niektórymi lub wszystkimi barwami, chociaż daltonizm to tak naprawdę wada nierozpoznawania dwóch barw: czerwonej i zielonej. Sama nazwa „daltonizm” pochodzi od nazwiska angielskiego chemika Johna Daltona, który w roku 1794 opublikował jej opis, a w swojej odkrywczej pracy opierał się na własnym przypadku.

Ślepota barw jest zazwyczaj wadą wrodzoną, uwarunkowaną genetycznie. Dziedziczenie tej wady jest związane z chromosomem X. Z tego powodu znacznie częściej dotyka mężczyzn, spośród których około 1,5% ma tego typu problemy. Wada ta o wiele rzadziej dokucza kobietom – 3-krotnie i dotyka 0,5% tej populacji. Na szczęście mężczyźni nie przekazują swojego chromosomu X swoim męskim potomkom, więc ojciec cierpiący na ślepotę barw nie przekaże jej swojemu synowi. Kobieta mająca dwa chromosomy X może być nosicielką genu ślepoty barw nawet o tym nie wiedząc. Jeżeli z kolei w rodzinie matki jest mężczyzna daltonista, jest duże prawdopodobieństwo, że jej dziecko odziedziczy jego gen. Przyczyni się to do ślepoty barw zazwyczaj w przypadku, gdy dziecko będzie płci męskiej. W bardzo rzadkich przypadkach matka sama również będzie miała tę wadę. Będzie to związane z tym, że posiada dwa równie wadliwe chromosomy X. Fakt, że gen ślepoty barw jest w chromosomie X, jest przyczyną, że prawdopodobieństwo wystąpienia tej choroby u mężczyzn jest od 10 do 20 razy większe niż u kobiet.

Zaburzenie rozpoznawania barw może być także związane z uszkodzeniem narządu wzroku, a mianowicie dróg wzrokowych od siatkówki po korę mózgu. Może być nawet efektem ubocznego działania leków lub związków chemicznych, z którymi miał wcześniej do czynienia daltonista.

Gdy zamieściłem już wystarczająco dużo informacji o świetle i o barwach, muszę wspomnieć o kolejnych wadach wzroku, tym bardziej, gdy są tak częste.

Krótkowzroczność (miopia – z języka greckiego myopia), potocznie krótkowidzenie, to jedna z najczęściej spotykanych wad wzroku, która polega na takiej wadliwej budowie oka, że promienie świetlne są nieprawidłowo skupiane. A jest to niezbędne dla dobrego widzenia wszelkich obiektów – dalszych i bliższych. Oko miarowe, czyli zbudowane prawidłowo, bez wysiłku, czyli bez nadzwyczajnego napięcia mięśni, które nazywamy akomodacją, skupia równoległe promienie światła dokładnie na siatkówce. Precyzyjnie – równoległe promienie świetlne to oczywiście sytuacja idealna. W rzeczywistości nie są one idealnie równoległe, ale różnica ta jest być może najmniejszą z istniejących na tym świecie. Mowa jest o tej równoległości, gdyż promienie są jej najbliższe, gdy obserwowany obiekt jest nieskończenie daleko. Dla takiego obiektu, właśnie nieskończenie odległego, na siatkówce oka pojawi się jego wyraźny (ostry) obraz. W oku krótkowzrocznym, w wyniku nieprawidłowej „transmisji” promieni, równoległe promienie są ogniskowane przed siatkówką. Trudno wtedy liczyć na to, by obraz był dobrej jakości.

Krótkowidz widzi dobrze z bliska, czyli obiekty znajdujące się niedaleko przed nim. W związku z tą wadą nosi okulary ze szkłami minusowymi, czyli soczewkami dwuwklęsłymi, rozpraszającymi promienie świetlne. Im większa krótkowzroczność, tym bardziej zmniejsza się odległość, z której można dobrze widzieć. Krótkowidz z wadą minus jednej dioptrii widzi dobrze z odległości jednego metra, a z wadą minus dziesięć dioptrii z odległości dziesięciu centymetrów.

Z kolei nadwzroczność (z łaciny hyperopia), którą potocznie nazywamy dalekowzrocznością, to druga po krótkowzroczności najczęściej spotykana refrakcyjna wada wzroku. Jest związana ze zbyt małymi rozmiarami gałki ocznej i zbyt małej jej siły, niezbędnej do załamywania światła. Może to wynikać na przykład ze zbyt płaskiej rogówki. Dalekowidz widzi dobrze z daleka, ale też do pewnej granicy. Nosi okulary plusowe, czyli w jego okularach są wypukłe soczewki skupiające promienie świetlne. Im grubsze są soczewki, czyli im są większej mocy, tym trudniej czytać z bliska. Dalekowidze z dużymi plusami, rzędu plus 3 dioptrie, potrzebują do czytania okularów wcześniej od innych osób.

Wreszcie astygmatyzm (niezborność) to wada soczewki lub rogówki, cechująca się zaburzoną symetrią obrotową oka. Elementy optyczne prawidłowego oka są symetryczne względem jego osi. Jeżeli oko ma większą szerokość niż wysokość, soczewka i rogówka zamiast skupiać światło w okrągłym obszarze siatkówki, będzie tworzyć obraz rozmazany w jednym z kierunków. Pacjent z astygmatyzmem będzie widział niewyraźny obraz w pewnych obszarach pola widzenia. Nawet dobre szkła nie są w stanie w pełni skorygować tej wady i dlatego osoba z astygmatyzmem ma problemy z wykorzystywaniem przyrządów optycznych.

Astygmatyzm to wada wzroku, a nie choroba oka. Może towarzyszyć zarówno krótko – jak i dalekowzroczności. Żeby ją zrozumieć, najlepiej wyobrazić sobie kulę ziemską z południkiem bardziej lub mniej wypukłym od reszty. Ten nierówny południk powoduje, że promienie światła nie skupiają się w jednym punkcie, lecz się rozmywają, w wyniku czego ludzkie postaci wydają się wydłużone, a koło przypomina elipsę. I tak jak w kuli ziemskiej nierówny południk oznacza się osią, tak też szkło korygujące tę wadę (może być minusowe lub plusowe) jest zawsze oznaczone pozycją osi od 0 do 179 stopni.

Tyle o naturze światła, narządzie wzroku i jego wadach. Przytoczyłem powyższe informacje także po to, by uzmysłowić Czytelnikom, jak trudno spotkać kogoś ze wzrokiem bez wad. Właśnie z tej przyczyny tak wielu ludzi zgłasza trudności z widzeniem. O ile całkowicie niewidomych jest w kraju około 15 tysięcy, ludzi, którzy mają wyraźne kłopoty ze wzrokiem, czyli osób istotnie niedowidzących jest około 100 tysięcy, osób, które nie są inwalidami wzroku, ale nie mogą zapomnieć o niedostatkach widzenia, gdy nie mogą samodzielnie czytać gazety i książek, odczytywać informacji wyświetlonych na ekranie telewizora lub komputera, jest ponad milion. Wśród nich największą grupę stanowią osoby w podeszłym wieku, ale wzrok psuje się już u pięćdziesięciolatków, a nawet wcześniej. Dochodzi więc do jawnej sprzeczności. Wzrok jest najsprawniejszym zmysłem, który dostarcza ponad 80% odbieranych przez człowieka informacji, a czasem uważa się, że aż 90%, wobec czego właśnie wzrok wykorzystuje się we wszelkich wynalazkach technologicznych do ich przekazywania. Jednocześnie duża grupa osób nie może z tej wygody korzystać w ogóle lub korzysta w sposób ograniczony. Dla zniwelowania ich kłopotów tworzy się mnóstwo rozwiązań adaptacyjnych, które pomagają omijać skutki inwalidztwa wzroku i umożliwiają dostęp do informacji. W tym samym czasie, pod ogromną presją masowego odbiorcy, powstają tysiące produktów, które jeszcze bardziej niż poprzednio polegają na przekazywaniu danych za pośrednictwem wzroku – wzroku bez wad. Trudno się dziwić, że niewidomi i niedowidzący narzekają na ten stan rzeczy. Za każdym razem, gdy dostają do rąk kolejne rozwiązanie adaptacyjne, cieszą się i mają nadzieję, że kłopoty się skończyły, a zaraz potem okazuje się, że to tylko złudzenie. Powstaje kolejne urządzenie, które będzie używane przez dobrze widzących, a dla inwalidów wzroku nie będzie się nadawało do użytku. I znowu będą czekali na lepsze niż poprzednio rozwiązania adaptacyjne.

Dobrym przykładem na ten wyścig pomiędzy aplikacjami używanymi masowo z rozwiązaniami specjalistycznymi, mogą być telefony komórkowe. Zaczęło się od prostych komórek o dużych gabarytach, które nie zmuszały do większego wysiłku nikogo, bo nie oferowały informatycznych funkcjonalności. Dawały szansę na bezwzrokowe używanie. Zaraz jednak producenci wzbogacili te urządzenia w potrzebne wszystkim funkcje, na przykład edycyjne, i telefony stały się trudniejsze dla źle widzących użytkowników. Po pewnym czasie otrzymaliśmy rozwiązania adaptacyjne, dzięki którym mogliśmy używać te bardziej rozbudowane telefony. Ledwo je kupiliśmy i nauczyliśmy się ich używać, wypuszczono na rynek zupełnie nowe rozwiązania telekomunikacyjne z bardzo bogatymi funkcjami, sterowane przez skomplikowane systemy operacyjne – na przykład Symbian. I znowu byliśmy „do tyłu”. Producenci związani z naszym środowiskiem nie ustąpili i wprowadzili na rynek programy udźwiękawiające ten system – Mobile Speak i Talks. Dołożyli do nich programy powiększające obraz na komórkowym ekranie – na przykład Mobile Magnifier. I znowu byliśmy zadowoleni. Po kolejnym technologicznym skoku, sytuacja się powtórzyła. Teraz musimy opanować sterowanie urządzeniami za pomocą gestów i nie można powiedzieć, że osobom niepełnosprawnym wzrokowo idzie to gładko. Smartfony są od kilku lat używane powszechnie, a wśród niewidomych trwa debata – czy ekrany dotykowe są dostępne, czy lepiej „trzymać się” starych komórek ze zwykłymi klawiaturami.

Widzący użytkownicy mają do dyspozycji ekrany i wyświetlacze, na których widać przekazywane informacje oraz stosowny do ich możliwości i przyzwyczajeń sposób sterowania urządzeniami. Osoby niewidome i źle widzące nie mogą tak po prostu z tych możliwości korzystać. Można powiedzieć, że ekrany i wyświetlacze są nam niepotrzebne. Ja na przykład czekam na taki telewizor, w którym nie będzie ekranu, bo gdy jest, zazwyczaj świeci i nagrzewa oraz jonizuje powietrze w pokoju. Przecież chcę jedynie słuchać! Najchętniej włączyłbym telewizor i wygasił ekran. Zamiast tego, zawsze chciałem mieć w telewizorze zainstalowanego lektora, który odczyta wyświetlane informacje. I proszę sobie wyobrazić – są już takie telewizory w sklepach, ale o tym na końcu artykułu.

Niemal wszystkie urządzenia wykonujące rozmaite zadania są sterowane przez procesory i „przetaczające się” przez nie oprogramowanie – instrukcja po instrukcji. Sterują nimi i działają na nich zarówno proste programy, jak i rozbudowane systemy operacyjne. Zainstalowana w nich elektronika i mechanika to ich „ciało”, a oprogramowanie to „dusza”. Nie wykonałyby nic, gdyby nie miały możliwości porozumiewania się z użytkownikami. Wszystkie muszą mieć jakieś ekrany, głośniki, albo jeszcze inne, tzw. urządzenia wyjściowe (terminalne, peryferyjne), które w celu przekazania swoich komunikatów odwołują się do naszych zmysłów. Urządzenia są tworzone w ten sposób nieprzypadkowo. Przecież my sami jesteśmy tak „zaprojektowani”. Nasze zmysły i narządy im dedykowane służą do odbierania przekazywanych nam informacji, a sami też je nadajemy. Wykorzystujemy do tego celu rozmaite możliwości, które dał nam Bóg. Najwięcej zasług mają chyba usta i aparat mowy w całości, ale mówimy też wzrokiem, gestami i mimiką. Jakby tego było mało, od kilku tysięcy lat potrafimy zamienić pracę części naszego ciała, narządów („terminalnych urządzeń”) – na przykład wzroku albo dłoni – na zapisy zgodne ze wcześniej wynalezionymi i uzgodnionymi przez ludzi notacjami. Bierzemy do rąk długopis albo pióro i piszemy literę po literze, słowo po słowie i zdanie po zdaniu. Dzięki możliwości precyzyjnej pracy mięśni dłoni możemy przekazać mnóstwo informacji łącznie z trudnymi, złożonymi, czy abstrakcyjnymi. W jednym kręgu kulturowym potrafimy też porozumiewać się za pomocą gry mięśni twarzy czy całego ciała. Ten język nie jest jednoznaczny, ale to nie przeszkadza przekazywać innym wiadomości, że właśnie spotkało nas coś dobrego, radosnego, albo odwrotnie – przykrego. Oczy nie pozostają bierne. Z jednej więc strony odbieramy informacje, a z drugiej je nadajemy, wysyłamy. Podobnie urządzenia.

Gdy więc chodzi o odbiór, największe znaczenie ma wzrok. Inne zmysły nie mogą się z nim porównywać. Wzrok jest w stanie odebrać wielokrotnie więcej informacji nadawanych w niewielkich odstępach czasu albo nawet jednocześnie. Taką możliwość stwarza nam siatkówka w oczach oraz nerwy wzrokowe. Miliony światłoczułych punkcików odbierają obraz i transmitują do mózgu. Nie ma więc lepszego rozwiązania, jak wykorzystać właśnie je do celu przesyłu danych. W takiej sytuacji wszelkie urządzenia „lubią” mieć różnego rodzaju ekrany lub wyświetlacze. Mają także głośniki, ale zdarza się to zdecydowanie rzadziej. I nie dzieje się to bez powodu. Wystarczy sprawdzić na sobie, ile procent informacji potrafimy przyswoić, zapamiętać, przekazać innym, gdy je zobaczymy, a ile, gdy je usłyszymy. No i właśnie dlatego, gdy tylko spotkamy się z jakimś urządzeniem, nasz wzrok pada od razu na jego ekran lub wyświetlacz: komputery, komórki, telewizory, urządzenia RTV i AGD, urządzenia drobne: wagi, termometry, zegarki, dyktafony, notatniki, elektroniczne instrumenty muzyczne, elektronika w samochodach, pociągach, samolotach itd. Zapewne spotykają Państwo terminale informacyjne wyposażone w duże ekrany w centrach handlowych, na dworcach i lotniskach. Są sterowane przez komputery i wyświetlają mnóstwo informacji ku uciesze wszystkich, ale nie niewidomych i niedowidzących. Jeszcze do niedawna nie spotkałem takiego terminala z funkcją lektorską, chociaż to takie proste.

Jedne urządzenia muszą mieć duże ekrany, a inne są wyposażone w proporcjonalnie małe wyświetlacze. Wyświetlają tekst i grafikę, ale rzadko potrafią wypowiedzieć to, co pokazują.

Słowo ekran wywodzi się z języka francuskiego i oznacza zasłonę. Potocznie ekran to ta część monitora, na której wyświetlany jest obraz. Monitor ekranowy to urządzenie elektroniczne, będące źródłem światła, przetwarzające sygnały odbierane z urządzeń technicznych, na obraz wyświetlany na własnym ekranie. Obraz może być generowany w trybie alfanumerycznym, czyli tekstowym, czy też w graficznym. Wyróżniamy monitory lampowe, czyli kineskopowe, (CRT), monitory oparte na ciekłych kryształach (LCD) oraz monitory plazmowe.

Utarło się mniemanie, iż elektroniczne urządzenia wyświetlające obraz nazywa się ekranami lub wyświetlaczami adekwatnie do złożoności ich funkcjonalności. W praktyce ekrany są zazwyczaj większe i służą do realizacji złożonych celów. Wyświetlają więcej tekstu oraz grafikę o lepszej jakości. Wyświetlacze są na wyposażeniu mniejszych i prostszych urządzeń – mniej tekstu i prostsza grafika. Łatwo się domyślić, że osobom niewidomym wszystko jedno, czy mają do czynienia z ekranami, czy wyświetlaczami. Dla niedowidzących rozróżnienie to może mieć jednak zasadnicze znaczenie. Wszystko co duże jest akceptowalne, a rzeczy mniejsze stwarzają kłopoty. Może najmniej problematyczne są dla nich telewizory z ekranami o dużej przekątnej. Siadają blisko ekranu i widzą tyle, ile wzrok pozwala. Jak działa taki ekran? Chronologicznie, najpierw wyprodukowano telewizory kineskopowe – duże, ciężkie, o nienaturalnie dużej głębokości, przez którą trzeba było kupować specjalne szafki, by je na nich postawić. Teraz mamy w domach cienkie telewizory o płaskich ekranach. Warto jednak wiedzieć jak działa, tzn. raczej jak działał, kineskop i telewizor zbudowany na jego osnowie.

Ekran telewizora kineskopowego jest pokryty od wewnątrz substancją, która świeci, gdy dociera do niej wiązka elektronów. Substancja ta (luminofor) jest nałożona na ekran w punktach siatki o stosownym rozmiarze, liczebności i zagęszczeniu. Punkty występują w trzech barwach: czerwonej, zielonej i niebieskiej. Podświetlanie ich w różnym stopniu powoduje, że możemy na ekranie oglądać różne kolory. Na przykład kolor żółty widzimy, gdy wzmocnimy wiązki skierowane na punkty zielone i błękitne, a purpurowy powstanie ze skrzyżowania czerwieni z błękitem. Działanie takiego kolorowego telewizora polega więc na takim naświetlaniu małych punkcików, aby widziane z oddali tworzyły konkretny obraz. Technologię tę można porównać do malarstwa impresjonistycznego. Obrazy widziane z bliska są na pierwszy rzut oka chaotycznym zbiorem barwnych punktów, dopiero z większej odległości stają się wyraźne.

Najważniejszym elementem telewizora starego typu był kineskop, w którego tylnej części znajdowała się katoda emitująca elektrony. Trafiają one do elektronowych dział, dzięki którym są skupiane w cienkie wiązki kierowane na ekran, aby podświetlić barwne punkty luminoforu. Punkty są trafiane jeden po drugim, w kolejnych poziomych rzędach. Operacja ta odbywa się tak szybko, że w oczach widza trzy migające barwy łączą się w konkretne kolory. Kineskop generuje charakterystyczny, cichy dźwięk, przypominający brzęczenie muchy. To odgłos pracującego z ogromną prędkością działa elektronowego, które 25 razy na sekundę podświetla 625 poziomych linii.

Wyświetlacz ciekłokrystaliczny (LCD, LED, OLED) to urządzenie elektroniczne, część mobilnych urządzeń, służące do wyświetlania informacji. Zasada działania takiego wyświetlacza z języka angielskiego – Liquid Crystal Display, opiera się na zmianie polaryzacji światła na skutek zmian orientacji cząsteczek ciekłego kryształu, co następuje pod wpływem przyłożonego do tych cząsteczek pola elektrycznego.

Wyświetlacz PDP (z języka angielskiego: plasma display panel) wykorzystuje do tworzenia obrazu plazmę i luminofor. Plazma to zjonizowana materia o stanie skupienia przypominającym gaz, w której znaczna część cząstek jest naładowana elektrycznie. Mimo, że plazma zawiera naładowane swobodne cząstki, w skali makroskopowej jest elektrycznie obojętna. Z kolei luminofor to związek chemiczny wykazujący luminescencję.

Lumen znaczy w łacinie światło. Luminescencja to promieniowanie, które nie jest pochodzenia termicznego. Według Wawiłowa: „Luminescencja to nadwyżka promieniowania ciała nad promieniowaniem temperaturowym tego samego ciała w danej części widmowej i w danej temperaturze, która ponadto charakteryzuje się skończonym czasem świecenia, to znaczy nie zanika natychmiast po przerwaniu wzbudzenia.” Określana bywa jako bardzo czuła metoda badawcza pozwalająca zidentyfikować różne substancje.

Wreszcie, na koniec, jestem zobowiązany do wskazania, z jakich urządzeń mogą korzystać niewidomi i niedowidzący. Od około 30 lat możemy pracować z komputerami. Wyprodukowano wtedy i udostępniono użytkownikom pierwsze syntezatory mowy, programy udźwiękawiające, tzw. czytniki ekranu oraz programy powiększające obraz. Zastosowano też tzw. sampling, gdzie wykorzystuje się odtwarzanie wcześniej nagranych próbek dźwięku. Mogą to być zarówno gotowe do wypowiedzenia zdania, słowa, albo nawet ich fragmenty. Z czasem obie techniki (synteza i sampling) „połączyły się”, synteza mowy tak się udoskonaliła, a sampling tak „rozdrobnił”, że użytkownicy nie wiedzą, z którym z tych dwóch rozwiązań mają do czynienia. „Sztuczny” dźwięk zastosowano w przeróżnych urządzeniach i możemy go równie dobrze spotkać w kalkulatorach, termometrach, wagach, ciśnieniomierzach, dyktafonach i odtwarzaczach cyfrowych, jak i smartfonach, terminalach informacyjnych, autobusach, tramwajach i pociągach, a nawet telewizorach. Można natknąć się na filmy, w których nie mamy do czynienia z prawdziwym lektorem, lecz syntezatorem mowy, który wygłasza wykład.

Ja jestem pod wrażeniem najnowszych modeli telewizorów, które są sterowane przez system operacyjny Android, dzięki czemu mogą być udźwiękowione. Biorę do ręki pilot zdalnego sterowania (remote control) i wciskam rozmaite klawisze. Przechadzam się po menu lub po liście programów i słyszę, co zmieniam w moim telewizorze. Aby natchnąć Państwa jeszcze większym optymizmem, przekażę informację, że można oglądać coraz więcej filmów z dodatkową ścieżką lektorską – audiodeskrypcją. Audiodeskrypcja zmienia nasze życie diametralnie i jest już obecna nie tylko w filmach, ale i w teatrach, na koncertach, podczas wydarzeń sportowych itd. Wygląda więc na to, że mamy teraz fazę przyspieszonego dostosowywania wszystkiego dookoła dla potrzeb inwalidów wzroku. Aż strach pomyśleć, co następnie wymyślą widzący projektanci i producenci, by ułatwić życie widzącym i utrudnić nam – zmusić nas do oczekiwania na kolejne rozwiązania adaptacyjne takiego rodzaju, o którym nie mamy jeszcze pojęcia.

Komentarze

komentarze