• Nie Znaleziono Wyników

INFORMATYKA DLA HUMANISTÓW

N/A
N/A
Protected

Academic year: 2021

Share "INFORMATYKA DLA HUMANISTÓW"

Copied!
280
0
0

Pełen tekst

(1)

INFORMATYKA

DLA HUMANISTÓW

(2)
(3)

INFORMATYKA

DLA HUMANISTÓW

Włodzimierz Gogołek

Warszawa 2012

(4)

INFORMATYKA DLA HUMANISTÓW

© Copyright by Włodzimierz Gogołek 2012

© Copyright by Wydawnictwo Kropki Trzy 2012

© Copyright by Instytut Dziennikarstwa Uniwersytetu Warszawskiego 2012 Redakcja Zespół

Projekt okładki Stanisław Małecki

Opracowanie graficzno-typograficzne Stanisław Małecki Współraca Michał Dzieciuch

Zdjęcie Autora wykonano w pracowni

Instytutu Dziennikarstwa Uniwersytetu Warszawskiego Autor książki, do kompozycji na okładce z kulą ziemską

wykorzystał zdjęcie ręki robota, za zgodą The Shadow Robot Company Ltd.

Publikacja została złożona czcionką Apolonia autorstwa Tomasza Wełny Publikacja dofinansowana przez

Wydział Dziennikarstwa i Nauk Politycznych Uniwersytetu Warszawskiego

All rights reserved

No part of this book may be reproducer or transmitted In any form or by any means, electronic or mechanical, including photocopying, recording or by any information storage retrieval system, without permission from the Publisher.

Wszelkie prawa zastrzeżone

Nieautoryzowane rozpowszechnianie całości lub fragmentu niniejszej publikacji w jakiejkolwiek postaci jest zabronione. Wykonywanie kopii metodą kserograficzną, fotograficzną, a także kopiowanie książki na nośniku filmowym, magnetycznym lub innym powoduje naruszenie praw autorskich niniejszej publikacji.

Wydawca • Wydawnictwo Kropki Trzy Wydanie pierwsze • Warszawa 2012 ISBN 978-83-62569-08-3

(5)

Spis treści

Przedmowa 9

Wstęp 12

1. Cyfrowe formy informacji 21

1.1. Bit i bajt 24

1.2. Tekst 26

1.3. Obraz 31

1.4. Wideo 40

1.5. Dźwięk 46

2. Budowa komputera 59

2.1. Jednostka centralna 64

2.1.1. Procesor i RAM 67

2.1.2. Pamięci masowe 75

2.1.3. Karty rozszerzające 86

2.1.4. Porty 89

3. Urządzenia zewnętrzne 98

3.1. Urządzenia wejściowe 99

3.1.1. Klawiatura, mysz i manipulatory 99 3.1.2. Skaner 105

3.1.3. Tablety 109

3.1.4. Kamera internetowa 110

3.1.5. Inne urządzenia wejściowe 111

(6)

3.2. Urządzenia wyjściowe 113

3.2.1. Monitor 113

3.2.2. Drukarka 119

3.2.3. Ploter 126

3.2.4. Modem 128

3.3. Komputery przenośne 130

3.4. Wirtualizacja 140

3.5. Komputery o dużych mocach obliczeniowych 144 3.6. Niezawodność sprzętu informatycznego 149

4. Sieci 151

5. Oprogramowanie 159

5.1. Oprogramowanie własne 160

5.2. Oprogramowanie systemowe 169

5.3. Oprogramowanie standardowe 175

5.4. Bazy danych 180

5.5. Oprogramowanie korporacyjne 186 5.6. Zaawansowane narzędzia programowe IT 188

6. Potęga komputerów 194

7. Bezpieczeństwo 200

7.1. Malware 203

7.1.1. Hoaxy 205

7.1.2. Wirusy 206

7.1.3. Robaki 207

7.1.4. Trojany 207

(7)

7.1.5. Spyware 208

7.1.6. Phishing 210

7.1.7. Cookies 211

7.2. Zagrożenia prywatności 214

7.3. Komórki 215

7.4. Obrona 216

7.4.1. Antywirusy 220

7.4.2. Firewall i proxy 222

7.4.3. System operacyjny 224

7.4.4. Identyfikacja 226

7.4.5. Szyfrowanie i podpis elektroniczny 235

7.4.6. SSL i SET 241

7.4.7. Steganografia 243

7.4.8. Prawo 244

8. IT dla firmy 246

Zakończenie 249

Indeks 252

Spis rysunków 258

Spis tabel 259

Słownik 260

Bibliografia 275

(8)
(9)

Przedmowa

Sytuacja sprzed kilku lat (2007), gdy pisałem pierwowzór tej książki – Wprowadzenie do informatyki dla humanistów – w zak- resie spolegliwości komputerów niewiele się zmieniła. Nadal są one zbyt mało „życzliwe” – tylko w ograniczonym zakresie moż- na w pełni, bez specjalnego przygotowania, korzystać z ich nie- wyobrażalnego potencjału. Oczekujemy, by komputery były in- tuicyjne oraz tolerancyjne dla błędów użytkowników. Wysiłki uczynienia tych maszyn łatwiejszymi w codziennych zastoso- waniach niezmiennie pozostają o krok w tyle za rosnącą złożo- nością ich eksploatacji, bogactwem funkcji oprogramowania, doskonaleniem urządzeń dołączanych do komputerów oraz eks- plodującego potencjału Sieci (internetu)1. Problem umiejętne- go wykorzystania komputerów, coraz częściej podłączonych do Sieci, zwiększa szybko rosnące zagrożenie bezpieczeństwa tele- informatycznego. Wykorzystywana jest zaledwie drobna część potencjału, jaki drzemie w komputerach, jednocześnie szybko pogłębia się brak wiedzy o szkodliwych konsekwencjach stwa- rzanych przez technologie informacyjne i sposobach ich unika- nia. Przesłanki te stanowiły o zakresie tematyki książki, głów- nie adresowanej do czytelników, których zainteresowania są dalekie od nauk ścisłych.

1 Dla wyróżnienia przyjęto, iż sieć pisana małą literą oznacza sieć lokalną, wielką – internet. W książce pominięto skrót „ang.” przed nazwami w języku angielskim.

(10)

Dla pokolenia obecnych studentów komputery były zawsze.

Także internet nie jest pojęciem abstrakcyjnym – szczególnie podczas odpoczynku, jako narzędzie służące rozrywce i zabawie (wszak gry komputerowe pochłaniają niemałą część każdego dnia młodych lu- dzi, również starszych), ale także w pracy i nauce. Wynikające z tego wyzwania to przede wszystkim – skuteczne wykorzystywanie po- tencjału maszyn i Sieci. Wiąże się to z przypomnieniem/uzupełnia- niem wiedzy w zakresie możliwości komputerów.

Na wspomniany potencjał maszyn składają się: moc kompu- tera, ale także stosowanie odpowiednich urządzeń zewnętrznych, łączności cyfrowej, sieci, a nade wszystko dobrego oprogramo- wania. Efektywne wykorzystanie owego potencjału, poza rada- mi zaprzyjaźnionych informatyków, wynika przede wszystkim ze zrozumienia istoty funkcjonowania komputerów. Chodzi tu o spo- soby, zalety i wady cyfrowego zapisu multimediów, podstawowe funkcje wykonywane przez komputer i wiedzę, czym (oprogra- mowanie, urządzenia) ostatecznie owe zapisy przetworzyć, a po- tem wydrukować, wysłać lub zapisać na stosownym nośniku.

Przyjmując, iż elementy te wchodzą w skład książki, znajomość informatyki, w ogólnych zarysach, wydaje się koniecznością.

Ogólność tę uzasadnia ogrom wiedzy składającej się na informa- tykę. Wymaganie wiedzy szczegółowej od użytkowników kom- puterów jest często deprymujące i mało przydatne. Założenie to,

ze zrozumiałych względów, nie dotyczy osób profesjonalnie zwią- zanych z tą dyscypliną naukową (informatyka teoretyczna, infor- matyka ekonomiczna, bioinformatyka, geoinformatyka i inne).

Wspomniana tematyka stanowiła o treści książki będą- cej w swojej istocie przewodnikiem po bogactwie informatyki, której różne części wykorzystuje niemal codziennie większość użytkowników komputerów2. Zainteresowani poznaniem szcze- gółów poruszanej w książce problematyki, stosownie do swo- ich potrzeb (np. wspomaganie prac biurowych, edycja obrazu, operowanie cyfrowym zapisem dźwięku czy wspieranie obsługi

2 W książce jednak nie udało się pominąć niektórych informacji technicznych – stanowią one aktualne (lipiec 2011) uzupełnienie prezentowanych treści.

(11)

klienta) znajdą w niej odwołania do sprawdzonych, godnych polecenia tytułów.

Intencją moją podczas pisania książki była także próba zain- teresowania Czytelników zaprezentowanym wachlarzem możli- wości i zastosowań komputerów. Chodzi tu nie tylko o używanie sprawdzonych narzędzi informatycznych (sprzętu i oprogramowa- nia), ale również o inspirację – możliwość zainicjowania nowych, oryginalnych zastosowań ogromnego potencjału tych maszyn.

Naturalnym uzupełnieniem zawartych w książce treści jest wiedza o internecie, dla którego informatyka jest podstawowym narzędziem. Tematyka ta została w książce tylko zasygnalizowana3. Moim zdaniem jest ona zbyt bogata, by można efektywnie łączyć obie (informatyka i internet) w jednym opracowaniu. Ze względu na szybkie zmiany treści, które obejmują informatykę – często wy- przedzające cykl wydawniczy książki – uzupełnieniem jej są na bie- żąco aktualizowane prezentacje na mojej stronie www.gogolek.pl.

Jest tam także aktualizowany słownik terminów związanych z technologiami informacyjnymi, który może ułatwić wędrówkę po wiedzy związanej z umownym komputerem.

W nadaniu ostatecznej postaci książce, poza doświadczenia- mi i obserwacją świata technologii informacyjnych oraz oczekiwań rynku, miało udział zainteresowanie wyróżnioną tu tematyką stu- dentów, z którymi prowadziłem i prowadzę zajęcia. Ważnymi wska- zówkami do przyjętego zakresu treści książki były także wyniki egzaminów z technologii informacyjnych (często zawierających się w przedmiotach o nieco innych nazwach), które stanowiły całkiem reprezentatywną próbę, pozwalającą ocenić zasadność poruszanej w książce problematyki4.

3 Stanowi ona przedmiot pracy: W. Gogołek, Technologie Informacyjne Me- diów, wyd. 2 zmienione, Aspra-JR, Warszawa 2006.

4 Egzaminy te zdawało kilka tysięcy studentów w kilku uczelniach na kierun- kach: pedagogika, dziennikarstwo, ekonomia, bankowość.

(12)

Wstęp

O wadze informatyki oraz internetu (Sieci) – podstawowych skła- dowych technologii informacyjnych (IT, Information Technology) – stanowi nie tylko zwiększenie sprawności operowania informa- cją, udostępniania jej, potęgi wielkości cyfrowych zasobów in- formacyjnych, którymi one operują, ale przede wszystkim szybko rosnąca ilość multimedialnych informacji dostępnych w postaci cy- frowej. Multimedia oznaczają wszystkie formy cyfrowej informa- cji: tekst, grafikę, obrazy, dźwięki, ruchome obrazy i sekwencje wi- deo. Już dzisiaj ponad 90% zasobów informacyjnych zapisywanych jest cyfrowo (rys. 1). W 2010 roku wyprodukowano jeden zetabajt informacji (1000 miliardów gigabajtów). W postaci położonych na sobie książek jest to 10 kolumn z Ziemi do Plutona. Kartami tych książek można pokryć Ziemię 10 razy, a słup książek rośnie 20 razy szybciej niż prędkość najszybszej rakiety kosmicznej. Do Plutona leciała 13 miesięcy, „słup” rósł zaledwie trzy miesiące5.

Tylko 10% informacji udostępnianych w organizacjach jest wartościowanych i przeznaczanych do dalszego wykorzystywa- nia, 25% zostaje zgromadzonych poza ogólnodostępnymi w firmie zasobami (na pracowniczych pecetach). Ponadto dostęp do firmo- wych zasobów informacyjnych jest świadomie ograniczany (np.

5 J. Gantz, D. Reinsel, As the Economy Contracts, the Digital Universe Expands, May 2009, Sponsored by EMC Corporation IDC – Multimedia White, Paper.

www.scribd.com/doc/15748837 [2009].

(13)

restrykcje dostępu). Powoduje to, że problemem jest nie potencjał gromadzenia informacji, ale otrzymywanie stosownych informa- cji w odpowiednim czasie. Takie wyzwanie staje się współcześnie podstawowym kierunkiem rozwoju technologii informacyjnych, a szczególnie informatyki umożliwiającej rejestrowanie informacji, ich przetwarzanie i udostępnianie.

Rysunek 1. Szacunek zmian (w latach 1950–2010) proporcji analogowych (jasne wypełnienie) i cyfrowych (ciemne wypełnienie) zasobów

informacyjnych

Źródło: Opracowanie własne na podstawie: D. Sullivan, New Study Sizes Up the Web, www.clickz.com/experts/search/article.php/3512376, June 29, 2005; http://www.sims.

berkeley.edu/research/projects/how-much-info-2003/ [styczeń 2004]. Measuring the Data Mountain, „The Economist” Dec. 6. 2003, „Financial Times”, Nov. 12, 2003; The Associated Press, Tech Researchers Calculate Digital Info, za: „The New York Times”, March 6, 2007.

Dostępny potencjał technologii informacyjnych stwarza nowe wyzwania. Szybko ulegają zmianie istniejące relacje IT z edukacją, biznesem, kulturą, a nawet z polityką. Są instytucje, które do swojej działalności niczego więcej, poza IT, nie potrzebują. Konsekwencją tego jest intensywna i permanentna edukacja użytkowników kom- puterów w niemal każdej instytucji. Pojawia się potrzeba dosko- nalenia polityki zarządzania informacją w firmie – bezpieczeń- stwo, gromadzenie informacji, dostęp do danych. Rozszerzenie tej polityki na partnerów biznesowych. Rośnie zapotrzebowanie

(14)

na specjalistyczną edukację w zakresie: oprogramowania do za- rządzania reputacją, dobrych praktyk wygrywania z konku- rencją (Business Intelligence), ryzyko zarządzania marką firmy.

Następuje przyspieszenie wprowadzania nowych narzędzi i stan- dardów do organizacji. Kopie zapasowe, usuwanie duplikacji, wy- szukiwanie niestrukturalne, analiza baz danych, etyczny haking, wirtualizacja aplikacji, semantyczne aplikacje webowe i szybko rozwijający się cloud computing (przedmiot rozdziału 4).

Wspomniane bogactwo informacji cyfrowych, możliwości IT, ma ogromny wpływ na to, iż jedną z naturalnych, podstawo- wych umiejętności niezbędnych do jak najpełniejszego wyko- rzystania potencjału współczesnego świata – pracy, nauki, roz- rywki, codziennego życia – jest umiejętność posługiwania się komputerem. Zakres tej umiejętności, wiedzy z nią związanej, jest i pozostanie indywidualną sprawą każdego użytkownika komputera (maszyny)6. Wydaje się, iż istnieje pewne minimum, którym każdy powinien dysponować. Najczęściej zdobywamy je w szkole, często jednak, zważywszy na szybki upływ cza- su w informatyce (wszystko szybciej się w niej starzeje) i inne obiektywne uwarunkowania edukacji informatycznej, celowe jest ciągłe uzupełnianie tej wiedzy w podstawowym zakresie7. Określenie tego minimum było, jest i zapewne pozostanie za- wsze ryzykownym wyzwaniem. Co należy zaliczyć do tego mi- nimum, a co można pominąć?

Na podstawie kilku tysięcy wyników egzaminów i zaliczeń (wcześniej wykładów i ćwiczeń) z informatyki, a także uwag stu- dentów można sformułować tezę, że najważniejsza jest wiedza o wiedzy – świadomość możliwości, które oferuje nam informaty- ka, a bardziej ogólnie technologie informacyjne – IT. Umiejętność połączenia codziennych potrzeb z potencjałem maszyn i ich

6 Ze względu na potoczne nazywanie komputera słowem „maszyna”, szczegól- nie w środowisku informatyków, w dalszej części książki oba te terminy będą stosowane wymiennie. Warto nadmienić, iż do końca lat 90. XX w. komputer nazywany był elektroniczną maszyną cyfrową (EMC). Terminem tym nazywane były wówczas specjalności na wyższych uczelniach technicznych.

7 Próbą złagodzenia upływu czasu, aktualizowanym uzupełnieniem treści książki są prezentacje zawarte na prywatnej stronie autora: www.gogolek.com.

(15)

oprogramowania, choćby na poziomie koncepcji, wydaje się wy- starczającym minimum każdego humanisty.

Warto zatem przypomnieć sobie: istotę cyfrowego zapisu in- formacji, funkcje narzędzi informatycznych (urządzenia, programy, technologie łączności cyfrowej), które mogą wspomóc ludzką pracę.

Przy tym nie jest konieczna wiedza użytkowników informatyki o de- talach konstrukcji tych narzędzi. Celowe jest posiadanie umiejętno- ści rozmowy z informatykiem, posługiwania się wspólną terminolo- gią, uporządkowanym i jednoznacznym formułowaniem oczekiwań od specjalisty IT (stąd zawarte dalej treści o podstawowych poję- ciach mówiących np. o pojemności pamięci czy szybkości transmisji).

Bazą tego jest ogólna wiedza w zakresie informatyki, czasami wzbo- gacona informacjami o rynku, który przecież ma spore znaczenie w decyzjach rzadko podejmowanych przez pracowników IT w spra- wach kupowanego sprzętu czy zlecanego do wykonania/zakupienia oprogramowania. Szczegóły w każdym zakresie, czy to będzie mowa o cyfrowym zapisie dźwięku, budowie i wyrafinowanych funkcjach drukarki, samodzielnym pisaniu programów, czy funkcjach narzędzi do budowania baz danych od Accessa do Oracle’a, można z powo- dzeniem pogłębić samodzielnie, na innym kierunku studiów (niehu- manistycznym) bądź na specjalistycznych kursach.

O celowości przypomnienia lub uzupełnienia podstawowej edukacji informatycznej świadczy także to, że średni koszt sa- modzielnego rozwiązania problemu IT przez dostatecznie kom- petentnego, w zakresie korzystania z informatyki, pracownika (w każdej branży) wynosi zaledwie 5 PLN, a przez wyspecjalizo- waną komórkę ponad dziesięć razy więcej – 70 PLN. Iloczyn tej ceny z liczbą pytań, zadawanych przez pracowników, potwier- dza opłacalność każdej formy nauki w zakresie codziennego wy- korzystywania IT. Efektywnym środkiem pomocy w kłopotach z IT (w ramach firmy) jest dostęp, za pośrednictwem wewnętrz- nej sieci komputerowej, do zasobów informacyjnych zawierają- cych odpowiedzi na często zadawane pytania – tak zwane FAQ (Frequently Asked Questions), „samopomoc”. Skuteczność tego narzędzia szacowana jest na 50–80% samodzielnego radzenia sobie pracownika z problemem IT.

(16)

Intencją moją było zatem przypomnienie oraz uzupełnienie podstawowych składowych informatyki dla osób, które traktują tę dziedzinę wiedzy wyłącznie narzędziowo. Nie nauka samodzielnej konstrukcji narzędzi (np. pisania programów komputerowych, bu- dowy urządzeń), a ich wykorzystywanie, zwrócenie na nie uwagi i możliwości ich zastosowań. Dla maturzystów z ostatnich kilkuna- stu lat jest to w znacznej części przypomnienie, dla nieco starszych studentów (studia wieczorowe, zaoczne, podyplomowe), którzy w szkole średniej nie mieli zajęć z informatyki, treści książki są uzu- pełnieniem często samodzielnie zdobytej wiedzy o podstawach informatyki.

Adresatami książki są studenci pierwszych lat studiów hu- manistycznych. Także oni z całą pewnością nie unikną konieczno- ści korzystania z narzędzi IT. Stąd język bardziej opisowy, i forma – znacznie mniej techniczna od typowych podręczników informa- tycznych. Książka nie jest podręcznikiem/instrukcją, np. umiejęt- ności korzystania z edytora tekstu czy arkusza kalkulacyjnego – jest tylko formą przewodnika wskazującego raczej bogactwo informa- tyki, czego od niej możemy i powinniśmy oczekiwać, a także czego się obawiać. Szczegóły, mówiące o wspomnianej poprawnej edy- cji tekstu za pomocą komputera, stanowią przedmiot odrębnych, wyspecjalizowanych podręczników lub, dla mniej samodzielnych, kursów specjalistycznych.

Podstawowe dla treści książki są przywołane wcześniej ter- miny: informatyka, technologie informacyjne8. Pierwotnie poję- cie „technologia” oznaczało naukę. W odniesieniu do informacji stanowiącej istotę funkcjonowania komputerów można przyjąć, że technologie informacyjne to termin łączący narzędzia i pro- cedury (np. w formie opisanych dalej algorytmów) używane do operowania informacją. Wspomniane narzędzia to sprzęt infor- matyczny, ale także telekomunikacyjny, programy komputero- we (krócej nazywane terminem – program) oraz środki służące do transmisji informacji w postaci cyfrowej. Operowanie in- formacją rozumiane jest tutaj jako wspomagany narzędziowo

8 W. Gogołek, op. cit.

(17)

proces tworzenia (w tym zamiana wszelkich form informacji na postać cyfrową i odwrotnie), przechowywania, przetwarzania, wymiany (transmisji), wyszukiwania, udostępniania i korzy- stania z informacji. Innymi słowy, jak już zostało wspomniane, technologie informacyjne zostały stworzone przez dwa filary – informatykę i internet9. W obu przypadkach mamy do czy- nienia z informacją – każdą formą uporządkowania energii lub materii.

W cybernetyce informację określa się „jako każdy czyn- nik organizacyjny (niematerialny), który może być wykorzy- stany do bardziej sprawnego lub bardziej celowego działania przez ludzi, inne organizmy żywe lub maszyny”10. Ogólnie moż- na przyjąć, że ów czynnik powoduje zmniejszenie niewiedzy, im więcej informacji, tym niewiedza w większym stopniu maleje.

Informacja jest „tlenem” dla internetu i informatyki. Uzasadnia to celowość zwrócenia uwagi na informację jako fundamentalne pojęcie, którego właściwa interpretacja jest niezbędna do zrozu- mienia funkcjonowania wszystkich narzędzi informatycznych.

Tematyka informacji i jej form w postaci cyfrowej, po wstępie, stanowi przedmiot pierwszego rozdziału książki.

W przyjętej tu interpretacji informatyka to dziedzina nauki i techniki zajmująca się przetwarzaniem informacji lub inaczej wie- dza o operowaniu informacją oraz komputery (w tym specjalistycz- ne urządzenia cyfrowe) wraz z oprogramowaniem. Tak rozumia- ne operowanie informacją w odniesieniu do informatyki zawiera w sobie wszelkie operacje służące:

• przygotowaniu procesu przetwarzania informacji przez kompu- tery, które polega na:

– opracowywaniu wszelkich procedur gromadzenia informacji

– tworzeniu oprogramowania

9 W przyjętej tu interpretacji dokonano pewnego uproszczenia zakresu techno- logii informacyjnych, które obejmują także inne, bezpośrednio związane z ope- rowaniem informacją dziedziny, m.in. telekomunikację, elektronikę. Internet stanowi przedmiot drugiej części niniejszej książki – W. Gogołek, op. cit.; Z. No- wakowski, Technologia informacyjna bez tajemnic, Mikom, Warszawa 2002.

10 J. Muller, Informacja w cybernetyce, Wydaw. MON, Warszawa 1974.

(18)

– dostosowywaniu formy informacji wprowadzanych do maszyny (głównie przez tak zwane wejściowe urządzenia komputerów)

• wprowadzaniu informacji do maszyn, np. klawiatura, także urządzenia zamieniające sygnał analogowy, jak dźwięk, obraz, na postać cyfrową;

• przetwarzaniu, które sprowadza się (głównie dzięki opro- gramowaniu) do operacji logicznych i arytmetycznych wy- konywanych przez maszynę (a ściślej – głównie przez proce- sor i kartę graficzną). Wynik ich wykonania jest generowany – w postaci informacji: wyprowadzanej za pośrednictwem urządzeń zewnętrznych (np. monitora, drukarki), przesyłanych do pamięci komputera lokalnego (stojącego pod biurkiem) lub innych komputerów połączonych ze sobą siecią. Konstrukcja komputera oraz owych urządzeń, ich podstawowe parametry stanowią przedmiot drugiego rozdziału książki;

• przechowywaniu, które najczęściej polega na zapisie informacji na cyfrowych nośnikach powszechnie nazywanych dyskami, wykonanych w różnych technologiach (magnetyczne, optycz- ne, półprzewodnikowe);

• generowaniu/prezentacji informacji, za pośrednictwem bogactwa różnych urządzeń – począwszy od monitorów, a skończywszy na sterowaniu urządzeniami elektromecha- nicznymi w fabrykach, samochodach i statkach kosmicznych.

Sam komputer, w książce wymiennie nazywany maszyną, a tak- że podłączone do niego urządzenia, określane są mianem: hard- ware – od angielskich słów: hard i ware, oznaczających twar- de rzeczy, te, których można dotknąć. Hardware jest praktycznie bezużyteczny bez stosownego oprogramowania – software.

Podobnie jak hardware – software jest zlepkiem dwóch słów an- gielskich soft (coś miękkiego) i ware (rzeczy). Można zatem po- wiedzieć, iż softwarem nazywamy w informatyce wszystko to, co jest „miękkie”, czego praktycznie nie można dotknąć – oznacza oprogramowanie (programy).

(19)

Uzupełnieniem części mówiącej o komputerze – jednostce centralnej – jest rozdział trzeci, w którym przedstawione są pod- stawowe urządzenia zewnętrzne. Wyróżniono te, które służą do wprowadzania i wyprowadzania informacji. Poza typowymi urzą- dzeniami wskazano na nowe, atrakcyjne i użyteczne funkcje, jakie pełnią współczesne urządzenia, np. druk przestrzenny czy sterowa- nie pracą maszyny za pośrednictwem emocji.

Rozdział czwarty książki dotyczy problematyki współpracy komputerów, ich wzajemnych połączeń – różnej skali sieci kom- puterowych. Praca w sieci komputerowej, jej funkcje, możliwo- ści zdalnej pracy zwracają uwagę na jeden z najpoważniejszych współczesnych problemów technologii informacyjnych – bezpie- czeństwo teleinformatyczne.

Doświadczenia dowiodły, już kilkadziesiąt lat temu, że celo- wa jest konstrukcja dedykowanych programów, które wspomaga- ją komunikację człowieka z maszyną – są to systemy operacyjne, a także programy uzupełniające funkcje systemów operacyjnych (programy „narzędziowe”). Odrębną kategorię programów stano- wią programy użytkowe, produkcyjne. Najpowszechniejszymi są standardy, np. pakiety biurowe, jak MS Office. W szczególnych przypadkach, gdy brak jest standardów/gotowych rozwiązań, ko- nieczne jest pisanie, według ściśle sprecyzowanego zamówienia, programów własnych. Najczęściej są one pisane od początku – zgodnie z życzeniami zleceniodawcy.

Ilustracją najczęstszych zastosowań maszyn są przedstawio- ne opisy zasad konstrukcji baz danych oraz bardziej złożonych systemów (dużych programów), które wspomagają funkcjono- wanie przedsiębiorstw, w tym przedsięwzięć mających na celu troskę o klientów – CRM, czy usprawnienie funkcjonowania in- stytucji – ERP, MRP.

Tematyka związana z szeroko pojętym oprogramowaniem sta- nowi przedmiot piątego rozdziału książki. Jego uzupełnieniem jest prezentacja przykładowych nowoczesnych, przyszłościowych zastosowań maszyn. Ma to na celu, wspomnianą wcześniej, in- spirację czytelników do innych, być może śmielszych zastosowań ogromnego potencjału komputerów i połączonych z nimi urządzeń.

(20)

Formą podsumowania pierwszych pięciu rozdziałów jest kolej- ny szósty mówiący o specjalnych, imponujących zastosowaniach komputerów. Chodzi tu np. o narzędzia wspomagające identyfi- kację autorów prozy czy komputerową ocenę potencjalnej popu- larności utworów muzycznych i komputerowe tworzenie dzieł literackich.

Potęga maszyn uwypukla nadzwyczaj ważny problem infor- matyki – bezpieczeństwo. Tematyka ta stanowi przedmiot roz- działu siódmego. Zawarto w nim podstawowe informacje doty- czące zagrożeń – od umownych wirusów, do prób obrony przed niebezpieczeństwami związanymi z komputerami – antywiru- sów, identyfikacji i podpisu elektronicznego.

Merytoryczną część książki kończy krótki rozdział ósmy, zwracający uwagę na niebagatelne praktyczne uwarunkowania/

zasady formułowania zamówienia produkcji systemu informa- tycznego i jego odbioru.

Uzupełnieniem książki, poza zakończeniem, indeksem i for- malnymi spisami, jest krótki słownik podstawowych terminów związanych z technologiami informacyjnymi – obejmujący także terminologię związaną z internetem.

(21)

1. Cyfrowe formy informacji

Początkowo komputery skutecznie wspomagały i wyręczały ludz- ką pracę, głównie w zakresie operowania informacją. Współcześnie służą z powodzeniem do autonomicznego sterowania urządzenia- mi elektromechanicznymi – wykonywania skomplikowanych ope- racji manualnych. Wykonują one, za pośrednictwem różnego ro- dzaju urządzeń zewnętrznych (peryferyjnych), coraz większą liczbę czynności fizycznych, wcześniej dostępnych tylko dla ludzi.

Koncentrując się na operowaniu informacją, można powie- dzieć, że w części (szybko rosnącej) komputery naśladują niektó- re funkcje organizmu ludzkiego, a ściślej mózgu. W pierwszej ko- lejności muszą być wprowadzone do niego informacje. Operację tę wykonują nasze zmysły, z różną szybkością. Dla określenia tego podobieństwa niezbędna jest miara szybkości pracy zmysłów – podobnie jak ma to na przykład miejsce w czasie jazdy samocho- dem, gdzie miarą prędkości są (w większości państw na świecie) kilometry na godzinę. Oceniając szybkość odbioru informacji przez nasze zmysły, można się posłużyć wielkością mówiącą o liczbie tak zwanych bitów przesyłanych w jednostce czasu. Okazuje się, że najszybszym, przesyłającym najwięcej informacji w czasie jednej sekundy, zmysłem jest wzrok (nie bez podstaw utarło się mówić, iż jeden obraz jest wart tysiąca słów) – odbiera i przesyła do naszego mózgu aż sto milionów bitów w czasie jednej sekundy (100 Mb/s, niektórzy badacze sugerują nawet 230 Mb/s). Miara ta wydaje się nieco abstrakcyjna, gdy brak jest punktu odniesienia. Zwróćmy

(22)

zatem uwagę na następny zmysł – dotyk, który jest w stanie prze- kazać do mózgu sto razy mniej informacji w jednostce czasu – jeden milion bitów na sekundę (1Mb/s). Jeszcze wolniejszy jest zmysł słu- chu pośredniczący w przesyłaniu informacji z szybkością 15 tysięcy bitów na sekundę (15 Kb/s). Najwolniejsze są: węch – jeden tysiąc bitów na sekundę (1 Kb/s) i smak – dziesięć razy mniej, zaledwie 100 bitów na sekundę11.

Tabela 1. Wielokrotności miar

Przedrostek Oznaczenie Mnożnik Uwagi

Zetta Z 1021=

1000000000000000000000

Eksa E 1018 =

1000000000000000000

Peta P 1015 =

1000000000000000

Tera T 1012 =

1000000000000 Od greckiego

monstrum, potwór

Giga G 109 =

1000000000 Od greckiego

olbrzymi, ogromny

Mega M 106 =

1000000 Od greckiego

wielki

Kilo K 103 =

1000

Wracając do analogii komputera z mózgiem, zwróćmy uwagę na kolejną ważną cechę operowania informacją – zdolność jej prze- chowywania, zapamiętywania. Za realizację tego zadania odpo- wiedzialna jest pamięć. Oszacowano, że mózg ludzki jest w stanie zapamiętać 50 terabitów (50 Tb). Wartość ta jest zaledwie około 3 razy większa od dostępnej, w 2011 roku, pojemności dysku domo- wego komputera (3 TB). Gdy rozpatrujemy tę wartość w innej ka- tegorii – średniej ilości informacji odebranych w ciągu 60 lat życia, okazuje się, iż pojemność mózgu ludzkiego przeciętnie pięciokrotnie

11 R. Tadeusiewicz, Sieci neuronowe, Akademicka Oficyna Wydawnicza, War- szawa 1993. Miary te są znacznym uproszczeniem ze względu na „pakietowość”

przesyłanych informacji (w mózgu dokonywana jest synergia impulsów – coś w rodzaju rozpakowywania danych) oraz ich „analogową” naturę.

(23)

przekracza nasze potrzeby. Zmysły ludzkie w tym czasie przekazują do naszego mózgu dziesięć terabitów informacji.

W kontekście pamięci ludzkiej warto podkreślić jej nadzwyczaj ważną cechę – zapominanie. Trwałość pamięci sztucznych, kom- puterowych jest nieporównywalnie do ludzkiej większa. Wydaje się, że komputery nie zapominają! Ale jest to tylko pozorna dosko- nałość maszyn. Niemal niezauważalna z perspektywy życia ludz- kiego. Problem ten niewątpliwie dostrzegą następne pokolenia korzystające z zasobów cyfrowych, które gromadzone są zaledwie przez niecałe pół wieku. Nośniki informacji cyfrowej są najmniej trwałymi nośnikami informacji w historii człowieka. Informacja zapisana na dyskach twardych, CD, DVD, po kilku/kilkunastu la- tach ginie bezpowrotnie. Będzie o tym mowa dalej w kontekście omawianych pamięci komputerowych.

Ostatnim wymownym porównaniem maszyn z żywym or- ganizmem jest tak zwana moc obliczeniowa, liczba operacji wy- konywanych w czasie jednej sekundy. Ze wzgldu na to, że opera- cja dodania dwóch liczb, np. 2+2, wymaga znacznie mniej mocy od operacji dzielenia przez siebie dwóch stuznakowych liczb, opracowano precyzyjną, jednoznaczną, standardową operację – operację zmiennoprzecinkową. Liczba takich operacji wyko- nywana w czasie jednej sekundy, tak zwane flopsy, jest świa- towym standardem służącym do oceny mocy komputerów (po- dobnie jak standardem długości jest jeden metr, bez względu na to, gdzie ta miara jest stosowana).

Przeciętny komputer ma moc kilku gigaflopsów, mózg ludzki – 1 do 10 petaflopsów. Zatem, tymczasem, potencjał przetwarzania informacji przez człowieka jest miliard razy większy od przeciętnego domowego komputera. Nie oznacza to, że nie ma maszyn o znacznie większych możliwościach obliczeniowych od człowieka – są to su- perkomputery i sieci milionów wspólnie pracujących komputerów na całym świecie (np. BOINC, zapoczątkowany projektem – SETI@

Home, o którym więcej pod koniec książki). Dotychczas szybkość obliczeń dokonywanych przez komputery praktycznie nie ma nic wspólnego z inteligencją.

(24)

Kończąc porównanie tworu natury z maszynami, nie sposób nie wspomnieć o gabarytach – na razie w tym względzie mózg ludzki jest bezkonkurencyjny – przeciętnie jego objętość wynosi ok. 1400 cm3, masa – ok. 1,5 kg, a powierzchnia – ok. 2000 cm2.

Zasygnalizowane przykłady ocen operowania informacją przez ożywiony organ i martwe narzędzia wskazują na użyteczność sto- sowania standardów. Pozwalają one, w sposób jednoznaczny, oce- niać szybkość przetwarzania informacji i sprawność jej transmisji, porównywać wielkości pojemności pamięci i szybkość jej działa- nia. Wielkości te, w codziennych zastosowaniach, najczęściej słu- żą do oceny jakości sprzętu (np. porównania pojemności dysków, szybkości transmisji informacji przez internet) i jego użyteczności w różnych zastosowaniach (np. jak szybkie powinno być łącze in- ternetowe do transmisji tekstów, a jakie do przesyłania filmów?).

1.1. Bit i bajt

W każdym przypadku w cyfrowym zapisie informacji posługu- jemy się wspomnianym już terminem bit. Nim przejdziemy do interpretacji tego abstrakcyjnego terminu, zwróćmy uwagę, że w systemie dziesiętnym, którego używamy na co dzień, każda cyfra może przyjąć dziesięć różnych wartości – od 0 do 9. Bit natomiast niesie sobą znacznie mniej informacji – może przyjąć tylko dwie różne wartości: 1 lub 0 (nie jak cyfra w systemie dzie- siętnym – dziesięć). System wykorzystujący tylko dwie cyfry nazywamy systemem dwójkowym lub binarnym.

Zatem bit może oznaczać TAK albo NIE, wyróżnić dwie bar- wy (czerń lub biel, zieleń lub czerwień itp.), dwa poziomy dźwięku – dźwięk lub jego brak (ciszę), lub dwie cyfry, np. 0 lub 1. W sys- temie dziesiętnym jedna cyfra może oznaczać dziesięć dowolnych stanów, barw czy wspomnianych poziomów dźwięku. Barw ozna- czonych dziesiętnie jednym znakiem może być dziesięć (od 0 do 9), w systemie dwójkowym, oznaczonych jednym bitem – tylko dwie:

barwa o nazwie 0 (np. biel) lub o nazwie 1 (np. czerń).

Okazało się, że ta jednostka, mimo że niesie ze sobą tak mało informacji, jest nadzwyczaj użyteczna w konstrukcji komputerów,

(25)

które są w stanie (dotychczas!) operować tylko na bitach – cyfrach przyjmujących tylko dwie wartości: 0 lub 1. Oznacza to, iż wszyst- kie informacje, którymi operują maszyny, wcześniej musiały być zamienione na tak zwaną postać binarną, zero-jedynkową – na po- stać bitów. Brzmi to nieco abstrakcyjnie, np. odnośnie do kompu- terowych zasobów w postaci tekstów, muzyki, obrazów czy wideo.

Temu zagadnieniu poświęcone są kolejne podrozdziały książki.

Jak już wcześniej sygnalizowano, skrót słowa „bit” pisany jest małą literą b, a bajt – wielką B. Nazwy wielokrotności (Tabela 1) za- wsze pisane są wielką literą. Odpowiednio do tej zasady zapis me- gabitu ma postać Mb, a megabajtu MB12.

Zwróćmy uwagę na to, że bity, podobnie jak cyfry w liczbach dziesiętnych, możemy łączyć ze sobą. Liczby dwucyfrowe: sto kombinacji – od 00 do 99, trzycyfrowe: tysiąc kombinacji – od 000 do 999). Gdy zapisujemy liczbę, korzystając z bitów, sytuacja jest znacznie gorsza. Dwa bity to zaledwie cztery możliwe kombina- cje zer i jedynek (00, 01, 10, 11), trzy bity to tylko osiem kombinacji (000, 001, 010,... 111). Gdy połączymy ze sobą osiem bitów – liczba możliwych kombinacji zer i jedynek w takiej paczce bitów rośnie do 256 (od 0 do 255). Owa ośmiobitowa paczka bitów określana jest terminem: bajt.

Zasygnalizowany cyfrowy, zero-jedynkowy zapis umożliwia wprowadzanie do komputera treści wszystkich multimedialnych in- formacji – od tekstu do wideo HD i 3D włącznie, czego przełomo- wym przykładem był film Avatar. Problematyka ta jest nadzwy- czaj bogata i stanowi temat oddzielnego wykładu zarówno z punktu widzenia uczących się – jak wykorzystywać cyfrowe multimedia – jak i fachowców zajmujących się konstrukcją stosownych urządzeń i programów do operowania tą formą informacji. Zwróćmy zatem, w sposób uproszczony, wystarczający dla użytkownika technologii informacyjnych, uwagę na podstawowe etapy: od źródła informacji

12 Według międzynarodowego Układu Jednostek Miar – SI (franc. Système inter- national d’unités) – małe miana, w prezentowanym tutaj zapisie, do 1K są akcep- towalne. Od wartości 210 = 1024 coraz częściej można zobaczyć zapis KiB (kibibyte), wskazujący na różnicę między 210 = 1024 a „okrągłym” tysiącem (1000). W prak- tyce informatycznej stosuje się powszechnie „zaokrąglone” znaczenie zapisów K, M, G itp., domyślnie pamiętając, iż są to potęgi dwójki, a nie dziesiątki.

(26)

w postaci analogowej (z którą mamy do czynienia w naturalnym – niewirtualnym – świecie), przez jego zamianę na postać cyfrową, rejestrację, transmisję, przetwarzanie i jego powrotną zamianę na postać analogową, którą mogą bez kłopotu odbierać nasze zmysły wzroku i słuchu, także dotyku, wkrótce zapewne węchu i smaku.

1.2. Tekst

Istnieje wiele standardów formalnego opisywania w sposób uni- kalny otaczającej nas rzeczywistości – w tym obywateli naszego kraju: PESEL, NIP, a także rejonu miejsca zamieszkania: kod pocz- towy. Podobnie rzecz ma się z zapisem komputerowym znaków.

Tak jak każdemu obywatelowi Polski przyporządkowany jest jeden unikalny kod PESEL, każdemu znakowi przyporządkowano jeden unikalny kod ASCII (American Standard Code for Information Interchange). Ów kod opisuje jeden bajt, a ściślej jego pierw- sze siedem bitów. Oznacza to, że każdej (niemal) kombinacji sied- miu zer i jedynek przyporządkowano jeden i tylko jeden znak. Są to znaki pisowni angielskiej. Wielka litera A w zero-jedynkowym (binarnym) zapisie bajta wygląda następująco: 01000001, litera L: 01001100. Pierwszy bit (od lewej) każdego bajta jest niewyko- rzystany (tymczasem). Zatem usiłując zapisać w kodzie ASCII imię ALA, otrzymamy trzy bajty w postaci:

01000001 01001100 01000001 A L A

Jak zostało wspomniane, kod ASCII wykorzystuje tylko sie- dem bitów bajta (pierwsze 128 kombinacji zer i jedynek jednego bajta), pozostałe 128 kombinacji zer i jedynek bajta wykorzystano do nadania kodów narodowym znakom, w języku polskim są to:

ą, ć, ę, ł itp. W różnych krajach te dodatkowe kody są wykorzysty- wane do zapisu innych znaków – stosownie do specyfiki pisowni w danym języku. W ten sposób powstały tak zwane strony kodo- we, odpowiednie dla określonych języków. Na przykład dla Polski obowiązującym standardem w internecie jest standard/strona

(27)

kodowa ISO 8859-2 (Latin – 2). Zawiera on litery wykorzystywa- ne w językach: Albanii, Bośni, Chorwacji, Czech, Finlandii, Węgier, Polski, Rumunii, Serbii, Słowacji i Słowenii. Innym powszechnie stosowanym standardem „dodatkowej części” kodów polskich zna- ków jest strona kodowa stosowana w produktach firmy Microsoft – Windows-1250. Podsumowując, ASCII (pierwsze siedem bitów, pierwsze 128 kombinacji zer i jedynek) stosowane jest praktycznie na całym świecie, pozostałe 128 kombinacji wykorzystywane jest różnie, zależnie od pisowni w określonym państwie. Pominięto tutaj problem egzotycznych znaków Dalekiego Wschodu i innych krajów nieużywających alfabetu łacińskiego. Teksty zapisywane za pomocą kodów znaków oznaczane są jako: nazwa.txt.

Czy dla przeciętnego użytkownika komputerów wiedza na ten temat ma jakiekolwiek znaczenie? Wydaje się, że tak. Pozwala ona m.in. zrozumieć problemy ze stosowaniem polskich znaków na komputerach w innych krajach, co wyraźnie jest widoczne w korespondencji elektronicznej (maile). Oprogramowanie na francuskich czy niemieckich komputerach najczęściej nie przewi- duje stosowania polskich znaków, stąd w korespondencji z tych krajów maile mają w miejscach specyficznych polskich liter nie- odpowiednie znaki (tzw. krzaczki). Oczywiście można to zmienić, stosując wspomnianą wcześniej odpowiednią stronę kodową.

Podobny kłopot jest w odwrotnym kierunku – przy pisaniu listów w innym języku, w którym stosuje się regionalne znaki typu: ǜ, χ, czy Щ.

W celu uniknięcia problemów z zapisem znaków w różnych ję- zykach wprowadzono kod Unicode (nazywany po polsku Unikod), który jest komputerowym zestawem znaków, mającym w zamie- rzeniu obejmować wszystkie używane na świecie języki. Definiują go dwa standardy – Unicode oraz ISO 10 646. Każdy znak w tym kodzie, zależnie od standardu, zajmuje od jednego do trzech bajtów.

Zatem znak, dzięki kodom ASCII i ich uzupełnieniom (stronom kodowym), odzwierciedlany jest jednym bajtem. Stąd zapis wspo- mnianego imienia Ala wymaga trzech bajtów. Na przeciętnej wiel- kości pendrivie (tzw. pamięć USB) o pojemności 2 GB teoretycznie można zapisać dwa miliardy znaków. Przyjmując, iż jedna strona

(28)

maszynopisu zajmuje 1800 znaków, łatwo oszacować, że na pen- drivie swobodnie mieszczą się ponad dwa miliony stron maszyno- pisu. Jest to wielkość imponująca.

W praktyce okazuje się jednak, że tych stron możemy zapamię- tać na tym nośniku znacznie mniej. Pomijając zawiłości stosowa- nia różnych stron kodowych, należy zwrócić uwagę na to, że sam kod znaku nie mówi nic o jego atrybutach – jakiego rozmiaru jest to znak, czy jest podkreślony, jaki to rodzaj czcionki (Times? Arial?) itp. Informacja o znaku np. przesyłanym do drukarki czy na ekran monitora musi być uzupełniana o jego atrybuty. Wymaga to wy- korzystania kolejnych bajtów do zapisu znaku. W rezultacie znak jest zapisywany dwoma bajtami i ostatecznie na pendrivie nie zmieszczą się dwa miliony stron, a znacznie mniej. Wskazując na atrybuty znaków, warto wspomnieć o wynikach badań nad czytel- nością różnych krojów czcionek. Okazuje się, że najszybciej rozpo- znawane są teksty napisane czcionkami (zgodnie z podaną kolejno- ścią): Verdana, Tahoma, Arial lub Times New Roman.

W kwestii potrzeb pamięci do zapisania tekstów jest i druga strona medalu – może się okazać, że na dwugigowym pendrivie, mimo konieczności dodania informacji o wspomnianych atrybu- tach, zapiszemy nie 2, a 3 mln stron maszynopisu. Jest to rezulta- tem tak zwanego „pakowania”, czyli kompresji – zabiegu realizo- wanego za pomocą specjalnego oprogramowania (np. RAR, ZIP).

Naturalną cechą programów kompresujących teksty jest to, że pro- cesowi zmniejszania plików tekstowych nie towarzyszy jakakol- wiek strata informacji. Po dekompresji tekst jest identyczny z ory- ginałem. Jest to kompresja bezstratna lub inaczej – kompresja ilościowa. Zazwyczaj jej skuteczność nie przekracza zmniejszenia objętości oryginału o 40%.

Istotą kompresji bezstratnej jest zastępowanie często po- wtarzających się fragmentów zapisu ich krótkim odpowiedni- kiem. Na przykład kompresując dzieło Aleksandra Fredry, moż- na łatwo dostrzec możliwość oszczędności pamięci niezbędnej do jego zapisu, gdyby zamiast sławnego, często (!) powtarza- jącego się zwrotu „mocium panie” wpisywać znak np. #, który w tekście nigdy się nie pojawia. W tym przykładzie jeden znak

(29)

zastępuje 12 znaków (litery słów i spacja). Zatem zapis słów

„mocium panie na me wezwanie” komputer zapisuje: „# na me wezwanie”. Podczas dekompresji/rozpakowania znak zastę- powany jest odpowiednimi słowami. W rezultacie mamy sku- teczną kompresję bez żadnej straty treści zapisywanego tekstu.

Podobnie można uczynić z innymi powtarzającymi się zwrotami i poszczególnymi słowami.

W ocenie programów do kompresji, takich jak np. IZARC, WINRAR, POWERARCHIVER, ZIPGENIUS, ALZIP, wyróżnia się kryteria: ergonomia, obsługa programu, konfiguracja aplika- cji, polska wersja, obsługiwane systemy operacyjne i obciążenie systemu operacyjnego. Inne, nie mniej ważne możliwości/funk- cje programów kompresujących to: liczba obsługiwanych forma- tów, szybkość pakowania, szybkość rozpakowywania, wielkość archiwum, tworzenie archiwów samorozpakowujących się, inte- gracja z menu kontekstowym Eksploratora Windows, integracja z ftp lub innymi usługami sieciowymi, nagrywanie na płyty CD/

DVD, dzielenie archiwów na części i szyfrowanie archiwów.

Do tworzenia i obróbki dokumentów tekstowych wyko- rzystywane są specjalistyczne programy – edytory tekstów. Nie oznacza to, że programy te operują tylko tekstami, wśród ich pod- stawowych funkcji znajdują się także te, które umożliwiają forma- towanie, a nawet tworzenie obrazów (w ograniczonym zakresie) za- mieszczanych w dokumentach tekstowych. Najpopularniejszym edytorem tekstowym jest Word, składnik produktu firmy Microsoft – Office’a. Innym, znacznie bardziej zaawansowa- nym narzędziem do tworzenia materiałów o treści tekstowo- -graficznej przeznaczonych do druku, a także umieszczanych na stronach w internecie, jest Adobe Acrobat. Standard plików Adobe –.pdf (Portable Document Format), dzięki bezpłatnemu czytnikowi (Adobe Reader) oraz jego uniwersalności jest akcep- towany jako najpowszechniejszy format dystrybucji dokumen- tów w postaci cyfrowej. Adobe Reader umożliwia otwieranie, oglądanie, przeszukiwanie, cyfrowe podpisywanie, weryfiko- wanie i drukowanie plików w formacie .pdf. Dokumenty .pdf charakteryzują się bardzo efektywnym stopniem kompresji oraz

(30)

gwarancją niezmienności postaci dokumentu – bez wzglę- du na sposób (platforma sprzętowa, systemowa) odczytania, drukowania – dokument pozostaje w niezmienionej postaci.

Ponadto, dzięki zapewnianemu przez Adobe systemowi upraw- nień, dokument w formacie .pdf może mieć narzucone ograni- czenia uniemożliwiające kopiowanie lub drukowanie dokumen- tu. Niezmienność ta, w połączeniu z możliwością podpisywania dokumentów .pdf, daje gwarancję, iż dokument czytany przez odbiorcę zawiera niezmienioną treść dokumentu stworzonego przez jego autora. Mowa jest tu o podpisie elektronicznym, któ- ry w swojej istocie niesie ze sobą gwarancję integralności do- kumentu (nie został zmieniony) i potwierdzenia autentyczności (został stworzony przez osobę, która podaje się za autora tego dokumentu). Zagadnienie to opisane jest szczegółowo w pod- rozdziale 7.4.5.

Dokumenty przygotowane za pomocą innych edytorów tekstu można zamieniać na format .pdf, stosując ogólnodostęp- ne bezpłatne oprogramowanie, np. Create Adobe PDF Online, PrimoPDF, PDFCreator czy Qprinter. Darmowy pakiet biurowy OpenOffice ma możliwość bezpośredniego eksportu plików do formatu .pdf. Najnowszy pakiet Microsoft Office też miał mieć taką możliwość, jednakże wersja ostateczna takiego udogod- nienia nie ma. Microsoft udostępnia jednakże „wtyczkę” do eks- portu tego formatu.

Niedocenianym ograniczeniem konwerterów dokumentów tekstowych na format .pdf jest ich jakość, np. mierzona łatwością czytania. Zależy ona od narzędzi programowych wykorzystywa- nych w tej procedurze zamiany. Dobre narzędzia udostępniane są komercyjnie – lokalnie na własnym komputerze, np. PDF Create 6, a także jako zdalna usługa w internecie (np. Nitro PDF).

Dzięki niezmienności dokumentu w formacie .pdf uzysku- je się gwarancję, iż przygotowany zbiór, przekazany do drukarni (lub opublikowany na stronie), ukaże się w identycznej formie jak oryginał. Dzięki temu często Adobe wykorzystywany jest do tworzenia wszelkiego typu dokumentacji (treści jej w drodze od autora do klienta/czytelnika nikt nie zmieni). Wiedza o tej

(31)

własności formatu .pdf jest bardzo przydatna przed drukowa- niem prac dyplomowych. Praca, którą autor usiłuje wydruko- wać gościnnie na drukarce sąsiada, niespodziewanie „rozjeżdża się” – akapity zmieniają numery stron, tabele zastają podzielo- ne, a spis treści (jeśli był robiony automatycznie) zupełnie od- staje od rzeczywistości. Prosta operacja zamiany formatu pliku zawierającego pracę na .pdf całkowicie rozwiązuje ten problem.

Drukowanie pliku w tym formacie eliminuje wspomniane nie- spodzianki. Produkty Adobe traktowane są jako narzędzia DTP.

DTP (Desktop Publishing) służy nie tyle do edycji (choć i to jest możliwe), ale umożliwia profesjonalne, kompletne przygoto- wanie materiałów do druku (tak zwany skład). Programy te, np.

najstarszy na polskim rynku – Ventura Publisher, później Corel Ventura, Adobe PageMaker (wcześniej Aldus Adobe) i nieco nowszy, bardzo popularny – QuarkXpress, zawierają wszystkie funkcje do profesjonalnego składu publikacji, automatyzowania związanych ze składem operacji oraz możliwości jednoczesnej (również zdalnej) pracy kilku osób nad jednym dokumentem.

Programy DTP umożliwiają też import kilkudziesięciu forma- tów dokumentów (eksport nie jest ich domeną). Innymi słowy, za pomocą DTP dokonuje się ostatecznego przygotowania tek- stu – materiału poligraficznego gotowego do druku, który został wcześniej napisany niemal w dowolnym edytorze. Na przykład, książkę napisaną w Wordzie można przenieść (wyeksportować) do DTP, by za pomocą tego narzędzia zakończyć skład materiału (procedura pisania tej książki jest tego przykładem). Jak wspo- mniano, istnieje szeroki wachlarz programów desktopowych – jedne z nich służą lepiej do składu gazety, inne do czasopism, a jeszcze inne do składu książek czy też akcydensów.

1.3. Obraz

Po tekście kolejną, sygnalizowaną w książce, multimedialną formą informacji możliwą do zapisu cyfrowego jest obraz. Zapis taki jest możliwy dzięki przyjęciu podstawowego założenia – obraz składa

(32)

się ze skończonej liczby elementów, umownych punktów – tak zwanych pikseli (od ang.: picture elements).

Rysunek 2. Interpretacja cyfrowego zapisu obrazu znaku

Rysunek 2 ilustruje sposób zamiany obrazu na postać zero-je- dynkową, która jest zapisywana na cyfrowym nośniku informa- cji. Wszystkim kolejnym pikselom obrazu przyporządkowywane są zera lub jedynki, zależnie od treści obrazu. Czarne piksele – je- dynki, białe – zera (lub odwrotnie). Operacja zamiany przebiega automatycznie m.in. za pomocą skanerów, cyfrowych aparatów fotograficznych (więcej w rozdziale 3.1.2). O jakości obrazu w po- staci cyfrowej decyduje przede wszystkim tak zwana rozdziel- czość. Im więcej jest wyróżnianych pikseli w obrazie (większa

(33)

rozdzielczość), im są one mniejsze (jest ich więcej na określonej powierzchni), tym jakość rejestrowanego obrazu cyfrowego jest lepsza. Obraz na kartce papieru układany z owoców wiśni (mała rozdzielczość) będzie znaczniej mniej czytelny od obrazu układa- nego z ziarenek maku (duża rozdzielczość).

Rysunek 3. Ziarnistość cyfrowej postaci obrazu

Miarą rozdzielczości jest parametr: H x V (Horizontal x Vertical) – mówi on o liczbie pikseli w poziomie (H) i w pionie (V). Iloczyn tych wielkości jest parametrem pozwalającym na ocenę rozdziel- czości np. określonego aparatu fotograficznego czy monitora. Inną, rzadziej stosowaną, miarą rozdzielczości obrazu jest ppi ( pixels per inch) – liczba pikseli na jeden cal. W odniesieniu do cyfrowych apa- ratów fotograficznych często jako synonimu terminu rozdzielczość używa się – ziarnistość.

(34)

Rysunek 4. Ilustracja różnych poziomów szarości poszczególnych pikseli obrazu

Aparat fotograficzny o rozdzielczości 2500 x 2000 wykonuje fo- tografie składające się z 5 mln pikseli. Przeciętny monitor kompute- rowy LCD o rozdzielczości 1280 x 960 składa się z ponad 1,2 mln pik- seli. Wydawałoby się, iż w takim razie do zapisu obrazu w aparacie fotograficznym potrzeba 5 mln bitów – jeden bit na każdy piksel (tj.

625 000 bajtów lub inaczej 625 KB), a ekranu monitora – 1,2 mln bi- tów (tj. 150 000 bajtów – 150 KB). Kalkulacja ta byłaby prawdziwa odnośnie do obrazów czarno-białych bez odcieni szarości, bez kolo- rów. W praktyce nie ma aparatów wykonujących zdjęcia składające się tylko z czarnych lub białych pikseli, podobnie monitory czarno- -białe należą obecnie do rzadkości, to znaczy takich, których każdy piksel zapisywany jest tylko jednym bitem (zero albo jeden).

Rysunek 5. Obraz w czterech różnych wielkościach rozdzielczości

(35)

Istota cyfrowego zapisu barw jest bardzo podobna do sposobu kodowania znaków (przypomnijmy, że każdemu znakowi przypo- rządkowano jeden unikalny kod). Każdy kolor (ściślej barwa) ma także swojego rodzaju kod. Gdyby każdemu pikselowi przyporząd- kować jeden bajt (osiem bitów!), liczba różnych kodów dla barw wyniosłaby 256. Zatem każdy piksel obrazu mógłby przyjmować jedną z 256 barw (por. rysunek 4, w którym barwy, w niekoloro- wym wydaniu książki, zastąpiono różnymi poziomami szarości).

Czy to jest dużo czy mało? Zdecydowanie za mało. W praktycznych zastosowaniach każdemu pikselowi przyporządkowuje się 24 bity lub więcej. Oznacza to, że każdy piksel może przyjmować jedną z 16,7 mln barw (tyle jest kombinacji zer i jedynek w 24 bitach).

Dominującym standardem zapisu barw jest RGB13. Nazwa ta powstała z pierwszych liter angielskich nazw barw: R – red (czer- wonej), G – green (zielonej) i B – blue (niebieskiej). W wyniku mie- szania tych barw można uzyskać dowolną inną barwę dostrzeganą przez ludzkie oko. W związku z tym, że dane o barwie każdego pik- sela składają się z ośmiobitowych informacji o nasyceniu czerwie- ni, zieleni i barwy niebieskiej, piksele zapisywane są 24 bitami (dla każdej barwy osiem bitów)14.

Konsekwencją takiego bogactwa kolorów, w przypadku prze- ciętnego monitora komputerowego, jest ilość pamięci niezbędna do przechowywania treści obrazu. Jeden kolorowy obraz wymaga ponad trzech mln bajtów pamięci (3 MB). Zwróćmy uwagę, że stro- na maszynopisu zapisana kodami znaków wymaga ponad 1000 razy mniejszej pamięci.

Cyfrowy zapis obrazu w postaci odzwierciedlającej każdy piksel, bez żadnych uproszczeń ani dodatków, nazywany jest zapisem bitmapowym. Jest on najdokładniejszy (najwierniej

13 Oko ludzkie rozpoznaje podstawowe trzy kolory: żółty, czerwony i niebieski – wszystkie inne są ich pochodnymi. Do precyzyjnego określenia kolorów sto- suje się systemy kolorów (np.: pantone, spektra master, toyo, trumatch itd.) – w których poszczególnej barwie przypisana jest odpowiednia liczba. Oprócz sys- temów kolorów są modele kolorów, np.: CMYK (Cyan, Magneta, Yellow + czarny – dla uzyskania kontrastu oznaczany jako K), HSB (Hue, Satyration, Brightness), oraz RGB. Istnieją również kolory typu spot i typu proces.

14 Istnieje wiele innych standardów cyfrowego tworzenia barw, są to m.in.:

CMY, CMYK, LAB, HLS, HSI, HSV, sRGB.

(36)

oddaje postać oryginalnego obrazu). Pliki tego typu zapisywane są w postaci: nazwa.bmp.

W fotografii format ten, oryginalnego zapisu informacji w po- staci danych zebranych z matrycy światłoczułej i zapisanej w pa- mięci bez żadnej obróbki, nazywa się RAW (od ang. coś suro- wego, nieobrobionego) – „cyfrowy negatyw”15. Za możliwość dostępu do pełnego, nieuproszczonego formatu obrazu płaci się znaczną ilością pamięci niezbędną do zapisania fotografii – po- trzeba 10 MB i więcej (zależnie od rozdzielczości i liczby bitów na piksel). Dane o obrazach RAW po wprowadzeniu do komputera poddawane są bardzo wyrafinowanym zabiegom obróbki foto- grafii: ustawianie balansu bieli, wyostrzanie, nasycanie kolorami, regulacja kontrastu, łącznie ze zmianą „temperatury oświetlenia”.

Służą temu specjalne programy dołączane do aparatów foto- graficznych. Okazuje się, iż zasygnalizowane korekty zdjęć mają znacznie większy wpływ na jakość fotografii od rozdzielczości, w jakiej zostały zrobione. W małoformatowych zdjęciach (do A4) niedostrzegalna jest różnica między 2 a 4 mln pikseli.

Do obróbki obrazów stosowane są edytory graficzne, spe- cjalizowane programy służące do tworzenia i edycji map bito- wych, nazywanych także grafiką rastrową, czyli, upraszczając – obrazów. Wśród najpopularniejszych są: GIMP, Photoshop, Paint.NET, Paint Shop Pro16. Umożliwiają one edycję obrazów będących w postaci bitmapowej. Do, omówionej dalej, obróbki grafiki wektorowej wykorzystuje się m.in. CorelDraw, którego funkcjonalność umożliwia obróbkę niemal wszystkich forma- tów obrazów; program PageMaker, którego obsługa (interfejs) jest zbliżona do programów desktopowych (DTP), i Adobe Illustrator, będący jednym z najczęściej wykorzystywanych na- rzędzi do edycji obrazów w DTP.

Powszechnie stosowanym formatem bezstratnego, ale skompresowanego zapisu obrazu jest .gif (Graphics Interchange

15 Nazwę formatu RAW stosuje się także do innych plików, które są w swojej oryginalnej postaci.

16 M. Evening, Adobe Photoshop Lightroom 3. Podręcznik dla fotografów, Helion, Gliwice 2011.

(37)

Format). Jego zaletami są: niewielka liczba informacji niezbęd- na do zapisu obrazu, możliwość animacji obrazu. Podstawową wadą tego formatu jest to, że obrazy są bardzo proste w formie (zaledwie do 256 barw). Wspomniane cechy gifa zdecydowały o jego stosowaniu w konstrukcji stron WWW. Format ten po- woli jest wypierany przez format .png – format również bezstrat- ny, jednak nieograniczający liczby barw.

Zazwyczaj, podobnie jak miało to miejsce w przypadku pli- ków tekstowych, pliki zawierające obrazy są kompresowane. Ze względu na ogromną (w stosunku do tekstów) liczbę szczegółów obrazu, jego nadmiarowość (można usunąć fragmenty obrazu bez zauważalnej straty jego jakości), zaczęto stosować kompre- sję stratną lub inaczej – kompresję jakościową. Polega ona na upraszczaniu obrazu, eliminacji jego detali, by w konsekwencji za- pisywany obraz wymagał znacznie mniejszej wielkości pamięci.

Kosztem tego jest strata jakości obrazu. Inną metodą kompresji jest wyszukiwanie w obrazie fragmentów (np. bloków 8 x 8 bi- tów), które są niemal identyczne. Podobnie jak miało to miej- sce w powtarzających się tekstach, podczas kompresji, fragmen- ty te zastępowane są znacznie krótszymi, unikalnymi nazwami.

PRzYKłADY MeTOD KOMPReSjI STRATNej:

DCT (Discrete Cosinus Transformation). Algorytm wykorzystujący kodo- wanie metodą JPEG i MPEG. Obraz dzielony jest na bloki o wielkości 8 x 8 pikseli. Każdy blok jest analizowany przez algorytm ze względu na zmianę kolorów. Jeśli początkowy blok składa się z jednobarwnej powierzchni, to można go opisać za pomocą jednej wartości. Jeśli barwa zmienia się tyl- ko trochę w obrębie bloku, potrzeba już więcej wartości w celu jego opisa- nia itd. Ponieważ wiele bloków jednego obrazu cechują jedynie niewielkie zmiany koloru, ilość niezbędnych informacji będzie zredukowana.

HUFFMANA. Obraz jest analizowany ze względu na częstość występo- wania poszczególnych kolorów. Kolor występujący najczęściej otrzymu- je najkrótszy kod, drugi otrzymuje kolejny najkrótszy itd. Dzięki temu zmniejsza się ilość miejsca niezbędnego do zapamiętania.

Źródło: http://www.pfsl.poznan.pl/horyzonty/cyfrowe/5rozdzial.html [maj 2004].

(38)

Istnieje wiele innych metod kompresji stratnej, które stosowane samodzielnie lub łącznie, dają często imponujące rezultaty.

Najbardziej skuteczną metodą kompresji jest metoda frak- talna. Fraktal to twór podobny do samego siebie, to znaczy taki, że po dowolnej zmianie jego rozmiarów nie następuje znie- kształcenie detali zawartości fraktala. Połączone fraktale two- rzą obraz. Kompresja fraktalna stosowana jest zarówno do ob- razów nieruchomych, jak i ruchomych. Ideą fraktalnej kompresji obrazów jest znalezienie w danym obrazie fraktalnego wzorca i wyrażenie go za pomocą formuły matematycznej, podobnie jak ma to miejsce w prezentowanym dalej zapisie wektorowym obrazu. W tym celu niezbędna jest precyzyjna analiza kompre- sowanego obrazu, co sprawia, że ten sposób kompresji jest wol- niejszy niż kodowanie inną metodą.

Każdy obraz poddany kompresji stratnej nieodwracalnie traci na jakości – po dekompresji jest zawsze gorszej jakości od obrazu oryginalnego. Najczęściej stosowanym formatem kom- presji stratnej jest .jpg (technologia Joint Photographic Expert Group)17. Umożliwia on zarówno stratną, jak i bezstratną kompre- sję danych. Oczywiście kompresja stratna daje nieporównywal- nie lepsze rezultaty w oszczędności pamięci. Stopień uproszczeń kompresowanego obrazu jest regulowany poprzez ustawienie od- powiednich parametrów. Stanowi to o możliwości kontroli stop- nia kompresji (upraszczania obrazu, por. rysunek 6) stosownie do potrzeb. Na przykład obraz zamieszczany na stronie WWW może być słabej jakości (zajmuje mniej pamięci), dzięki czemu jego transmisja jest szybsza. Często tak uproszczony obraz staje się lin- kiem, który pozwala ściągnąć obraz w odpowiednio dobrej jako- ści, na przykład umożliwiającej jego drukowanie.

17 Format zapisu obrazu Web P (firmy Google) obecnie (2011) wykorzystuje naj- nowsze osiągnięcia w dziedzinie kompresji plików graficznych.

(39)

Rysunek 6. Ten sam obraz bez kompresji (A) i ze znaczną kompresją stratną (B)

Źródło: Fotografia z własnych zbiorów autora (Dolomity włoskie).

W poszukiwaniu ekonomicznego sposobu zapisu obrazu (zajmującego jak najmniejszą ilość pamięci) wykorzystano m.in.

tak zwany zapis wektorowy lub inaczej grafikę wektorową.

Idea tego zapisu polega na tworzeniu obrazów z prostych figur geometrycznych, często nazywanych prymitywami. Ten sposób cyfrowej rejestracji obrazów ma istotne ograniczenia, w zasa- dzie nadaje się do obrazów prostych (tak zwanych grafik), któ- re mogą być składanką figur geometrycznych. Innymi słowy, w zapisie wektorowym każdy obraz tworzony jest z trójkątów, prostokątów, elips, krzywych – figur, które można zapisać anali- tycznie, w postaci krótkich, zajmujących niewiele pamięci, wzo- rów matematycznych. Na przykład, zamiast zapamiętywania obrazu prostej, wystarczy krótki zapis: y = ax wraz z podaniem współrzędnych początku i końca tej prostej oraz jej atrybutów (kolor, przezroczystość, grubość). Zatem zapis tej prostej zajmie niewiele więcej miejsca niż 20 bajtów, co w porównaniu z zapi- sem bitmapowym (setki tysięcy bajtów) jest ogromną oszczęd- nością pamięci. Prostą tę komputer wykreśli sam. Podobnie za- pisywane są elipsy i bardziej złożone figury. Do edycji, tworzenia obrazów wektorowych stosuje się specjalne programy – edyto- ry wektorowe, np. m.in.: CorelDraw, Illustrator, WindowsDraw i Designer.

(40)

Poza wspomnianymi formatami kompresji obrazów (.jpg, .gif, zapisy wektorowe) jest wiele innych formatów niemniej przy- datnych, ale słabiej spopularyzowanych. Przeciętnie skuteczność kompresji, zależnie od złożoności obrazu, wynosi 20%–90%.

1.4. Wideo

Do cyfrowego zapisu wideo (filmów) wykorzystywane są techni- ki podobne do stosowanych przy zapisie obrazów. Oglądany ma- teriał wideo tworzony jest z sekwencji kolejnych obrazów (klatek filmu), będących zapisem/odzwierciedleniem kolejnych faz zmian w treści obrazu. Poszczególne klatki filmu wyświetlane są (w wer- sji podstawowej) z szybkością 50 klatek w czasie jednej sekundy.

Mimo tego, że kolejne klatki zazwyczaj różnią się od siebie, wyko- rzystano właściwości wzroku (w zasadzie jego niedoskonałość) – zmian treści w następujących po sobie klatkach ludzkie oko nie dostrzega. Zmiany klatek, zawartych w nich kolejnych obrazów, są zbyt małe i następują zbyt szybko, by oglądający zauważył różnice między klatkami. W rezultacie widziany jest ruch płynny zarejestrowanych zmian nagrywanej sceny, np. mówiącej osoby czy biegnącego psa. Dynamika owych zmian wykorzystuje kolej- ną niedoskonałość wzroku odbierającego materiał wideo. Dzięki szybkim zmianom treści klatek, ich rozdzielczość może być znacz- nie mniejsza od rozdzielczości statycznych obrazów/fotografii, bez zauważalnej straty jakości oglądanego filmu. W efekcie suma in- formacji o obrazach tworzących film zajmuje znacznie mniej miej- sca od informacji, która byłaby potrzebna do zapisania w pełnej rozdzielczości obrazów kolejnych klatek filmu.

Innym zabiegiem zmniejszającym wielkość pamięci nie- zbędną do cyfrowego zapisu wideo jest fakt, iż dla wielu sek- wencji filmowych zmienia się jedynie mały wycinek obrazu.

Jeśli np. na filmie obserwujemy rozmawiające osoby, to tło po- zostaje w dużej części niezmienione. Zmieniają się fragmenty ukazujące usta, czasami gestykulacje. Wykorzystano to m.in.

w metodzie kodowania Delta. Tylko raz na kilkaset klatek zapi- sywany jest cały obraz – tzw. I-frame, później rejestrowane są

(41)

jedynie różnice między obrazem poprzednim a bieżącym. W opi- sywanym przykładzie filmowania rozmawiających osób, w ko- lejnych klatkach zapisywany jest tylko ten wycinek obrazu, któ- ry zmienił się (układ ust, gesty).

Cyfrowy zapis filmów związany jest bezpośrednio ze stru- mieniem informacyjnym, często nazywanym mediami stru- mieniowymi (więcej na ten temat w podrozdziale 1.4). Jest to technologia przesyłania danych w sposób umożliwiający ciągłą transmisję przekazu multimedialnego i przetwarzanie danych.

Ma ona coraz większe znaczenie wraz ze wzrostem pasma do- stępu do internetu. Dzięki zastosowaniu strumieniowego prze- syłania danych (film, muzyka) odbiorca może widzieć/słyszeć je na bieżąco, w trakcie przesyłania. Dane odbierane od nadawcy są szybciej gromadzone w komputerze niż wyświetlane, dzięki temu użytkownik może oglądać na bieżąco otrzymywany prze- kaz filmu lub dźwięku. Gdyby strumień był zbyt ubogi (wąskie pasmo, zbyt mała liczba bitów przesyłana w jednostce czasu), przekaz ten byłby przerywany, mało czytelny. Innymi słowy odbiór informacji byłby szybszy od jej nadawania. Widoczne jest to w postaci np. przerywanego przekazu wideo lub audio.

Świadczy to o konieczności zapewnienia stosownego pasma do transmisji strumieniowej, nie może być ono mniejsze (licząc w bitach na sekundę) od strumienia nadawanych informacji (li- czonych w tych samych jednostkach).

Warto zaznaczyć, że odtwarzana płyta CD czy DVD jest także źródłem strumienia danych18. Ma to związek z szybkością napędów CD. Pierwsze napędy CD, które miały szybkość „x1” (popularnie na- zywaną „krotnością”), były przystosowane do odczytywania cyfro- wego zapisu dźwięku z taką szybkością, która gwarantowała moż- liwość jego słuchania bez żadnych zakłóceń wynikających ze zbyt wolnego odtwarzania zapisanego na płycie dźwięku. Wraz z dosko- naleniem technologii zapisu i odtwarzania CD pojawiły się napędy x2, x4, a współcześnie nawet x50 i więcej. Oznacza to, że napęd jest

18 Najczęściej stosowane formaty transmisji strumieniowej i (podane w na- wiasach) programy do ich odtwarzania: (Windows Media) ASF, WMV, WMA, WMX, WAX; (Real Media) RM, RAM, RPM, RA; (Quick Time) MOV, MP4.

Cytaty

Powiązane dokumenty

Nieco mniej jednoznaczna jest sytuacja w Massachussetts, gdzie okręgi nie wyglądają aż tak patologicznie jak w poprzednich przypadkach (choć kształty okręgów 2, 3, czy 4

Teraz jego unikalne prace możemy oglądać w albumie „Ulica Nowa 3"..

Obmywałem się, ubierałem, po czym szedłem do kuchni, gdzie babka, która także wstawała rano, aby przygotować śniadanie dla domowników, dawała mi szklankę herbaty z

(Uczniowie prowadzą krótką dyskusję na ten temat. Mogą w niej pojawić się różnorodne opinie. Uczniowie mogą wskazywać, że w sytuacji gospodarczej i społecznej, jaka

Ludzie ganiają po ulicach i sklepach bez maseczek, kina i knajpy są otwarte, korzystamy z hoteli i pensjonatów ”..

Kiedy się na to wszystko patrzy, to trudno nie oprzeć się przekonaniu, że gdyby nawet pojawiał się pol- ski Zajac, nasi bojowi politycy zakrzyknęliby od razu: Nu, pogodi!….

Instytucja kas rejestrujących w systemie podatku od wartości dodanej była kojarzona nie tylko z realizacją funkcji ewidencyjnej przy zastosowaniu tych urządzeń, ale również z

Od niewielkiego miasta otoczonego murami obronnymi do szybko rozrastającego się ośrodka z czasów II R zeczpospolitej - dzięki nowej kolekcji Kurierabędzie można dokład-