Historia informatyki rozpoczyna się wcześniej, niż wydaje się to większości ludzi. Człowiek juz w zamierzchłych czasach opracował metody liczenia oraz przetwarzania informacji, które przetrwały do dziś, bądź uległy modyfikacji w nieznacznym stopniu. Poniżej zostały przedstawione najciekawsze wydarzenia (tak zwane kamienie milowe) mające związek z komputerami oraz informatyzacją. Przedstawienie tych technologii ma charakter skrótowy, gdyż na każdy temat zostało napisane setki tysięcy stron książek i podręczników. Szybki rozwój Internetu a także wykorzystywanie komputerów w niemal każdej dziedzinie życia powoduje, że z dnia na dzień stajemy się społeczeństwem coraz bardziej informacyjnym. Potwierdzeniem tych słów może być fakt, że najbogatszym człowiekiem na ziemi jest nikt inny jak potentat komputerowy, prezes firmy Microsoft - Bill Gates. Niezaprzeczalnym jest fakt, że sieć i komputery są dzisiaj niezbędne, jednocześnie pojawiają się opinie, że komputery mogą stanowić zagrożenie dla zdrowia człowieka zarówno fizycznego jak i psychicznego. Mówi się, że komputery wpływają na psychikę człowieka, burzą prawidłowe więzi między ludźmi. Czy to stwierdzenie jest zgodne z prawdą? Jeżeli położony zostanie właściwy nacisk na edukację, oraz rodzice będą świadomi określonych zagrożeń, problem pozostanie w wymiarze teoretycznym. Nie należy go jednak bagatelizować. Wniosek nasuwa się samoistnie: nie jest możliwe zahamowanie procesu rozwoju techniki, zwłaszcza technologii informacyjnych. Należy jednak zachować zdrowy rozsądek w tym szaleńczym pędzie rozwoju technologicznego, aby pewnego dnia nie stwierdzić, że jedynym przyjacielem, jaki nam pozostał jest maszyna. Człowiek, aby zachować równowagę psychiczną potrzebuje kontaktu z drugim człowiekiem i żadna maszyna, nawet ekstremalnie rozwinięta technologicznie nie będzie w stanie zastąpić człowiekowi drugiego człowieka.

HIPERTEKST

Hipertekst stanowi metodę prezentacji informacji tekstowych wzajemnie ze sobą powiązanych. Tekst wyświetlany na monitorze zawiera wyróżnione zwroty oraz słowa, których wskazanie przenosi użytkownika do miejsca, gdzie istnieją powiązane z nimi dane. Hipertekst wykorzystywany jest często w systemach pomocy aplikacji w celu łatwego dostępu do wymaganych informacji, stanowi też podstawowy sposób prezentacji danych poprzez usługę www, gdzie prezentowane dane mogą obejmować oprócz tekstu inne obiekty jak filmy, obrazy, zapisy dźwiękowe (tzw. hipermedia). Hipertekst to w rzeczywistości zwykły tekst z zaznaczonymi pewnymi słowami, wyróżnionymi na tle reszty tekstu (głównie kolorem i podkreśleniem). Te wyróżnione elementy tworzą tzw. hiperłącza, będące odnośnikami do innych zasobów, powiązanymi kontekstowo z wyrazem tworzącym hiperłącze. Może być to na przykład objaśnienie danej definicji, prezentacja graficzna, bądź treść będąca rozwinięciem danego zagadnienia. Zasoby informacji, do których odnosi się hiperłącze mogą być umieszczone na komputerze lokalnym, bądź zdalnym, umiejscowionym gdzieś w sieci, odległym o wiele tysięcy kilometrów od komputera, który zawiera hiperłącze. Używanie hipertekstu jest bardzo proste, cała operacja sprowadza się do "kliknięcia" lewym klawiszem myszy na odnośnik hipertekstowy a system automatycznie rozpocznie procedurę prezentacji danych, na które ten odnośnik wskazuje. Dokumenty hipertekstowe mają z założenia multimedialny charakter, gdyż oprócz czystego tekstu obsługują one bardziej złożone obiekty jak animacje, rysunki, pliki dźwiękowe, prezentacje audiowizualne oraz tak zwane aplety. Zastosowanie graficznego sposobu prezentacji, użycie metod kompresji obrazów i dźwięków a głównie dynamiczny rozwój języka opisującego dokumenty hipertekstowe spowodowało, ze hipertekst stanowi prosty i wygodny sposób prezentacji informacji. Istotną cechą hipertekstu jest jego pełna otwartość. Hipertekst wolny jest od ograniczeń przestrzennych. Dokumenty hipertekstowe przechowywane są w tym momencie przez ogromną liczbę komputerów rozproszonych po różnych częściach świata. Dla końcowego użytkownika nie stanowi to jednak żadnej przeszkody. Przeglądarka umożliwia błyskawiczne przejścia pomiędzy dokumentami w zupełnie niezauważalny sposób, co czasami może powodować poczucie zagubienia się w cyfrowym świecie. Hipertekst charakteryzuje również wolność od ograniczeń czasowych. Ostateczny wygląd dokumentów hipertekstowych może być wynikiem pracy wielu ludzkich pokoleń, czasami niezdających sobie z tego sprawy. Hipertekst posiada odnośniki do cytatów czy prac, które powstały na długo przed wynalezieniem komputerów. Otwarta struktura, a także prostota w przekładzie tekstu pisanego na elektroniczny pozwala na nieograniczony rozwój dokumentów hipertekstowych. Kolejnym atutem jest dostępność do informacji przez wszystkich zainteresowanych bez względu na wiek, płeć, miejsce zamieszkania, narodowość, wykształcenie czy status społeczny, dodatkowo rozwój przyspiesza łatwa możliwość partycypowania dużej ilości osób w tworzeniu prezentowanych dokumentów. Otwartość oznacza jednocześnie niekończącą się zmienność, bowiem rozwojowi hipertekstu towarzyszy charakterystyczna niestabilność, gdyż rozwój metod kreacji dokumentów hipertekstowych przyczynia się do ich ciągłej ewolucji. Starsze dokumenty zastępowane są nowszymi, posiadającymi lepszą warstwę prezentacji, wzbogaconymi o elementy multimedialne. Dużo dokumentów zmienia również swą zawartość poprzez ciągłe aktualizacje i modyfikacje.

Struktura hipertekstu

Otwartość struktury hipertekstowej określa jej anarchiczność. Nie rządzi nią żaden określony porządek. Hipertekst zrywa przede wszystkim z linearnym tekstem, nie zakładając żadnego początku ani końca. Dowolny dokument może być początkiem albo końcem pewnej treści, może być nawet jednym i drugim naraz. Struktura hipertekstowa nie zakłada istnienia żadnych indeksów czy sposób treści, gdyż wszelkie indeksy wymuszają istnienie określonego porządku treści w obrębie zamkniętej całości, w hipertekście nie jest ustalona żadna kolejność dokumentów, sam hipertekst również nie stanowi zamkniętej całości. Istnienie indeksów dla dokumentów hipertekstowych nie jest możliwe tym bardziej, że nie da się policzyć ich ilości, która cały czas się zwiększa. Struktura dokumentów hipertekstowych podobna jest do pajęczyny, a właściwie do sieci pajęczyn. Każdy dokument w jakiś sposób łączy się z innym jednym bądź wieloma odnośnikami. Charakter anarchiczny determinuje całkowity brak kontroli nad strukturą hipertekstową, oznacza to, że nie ma władzy, zwierzchników, dyrektorów, korektorów, producentów ani nawet autorów. Hipertekstem rządzą jego własne prawa, w tym przypadku anarchia stanowi jednocześnie demokrację. Hipertekst stał się forum dostępnym dla szerokich rzesz użytkowników, umożliwiając swobodne wypowiedzi na wiele tematów oraz zaprezentowanie siebie i co za tym idzie potwierdzanie własnej tożsamości. Dzięki hipertekstowi ma miejsce aktywna komunikacja międzyludzka oraz tworzenie archiwum coraz większej ilości informacji. Struktura hipertekstu wymusza jednak zmianę nastawienia użytkownika, odejście od linearności tekstu zmusza do modyfikacji sposobu pisania i czytania. Ilość hiperłączy oraz możliwość ich dowolnego wyboru zamiast czytania całości tekstu czyni z odbiorcy użytkownika - wędrowca. Natomiast multimedialny charakter pokazu zmienia odbiorcę w słuchacza, widza oraz aktywnego uczestnika. Hipertekst jest nierozerwalnie połączony z urządzeniami komputerowymi, gdyż tylko za pomocą technik cyfrowych możliwe jest połączenie oraz tworzenie dokumentów hipertekstowych. Językiem, który umożliwia budowanie od początku dokumentów hipertekstowych , bądź przekształcanie na takie istniejących już zasobów - jest HTML, miejscem ich prezentacji - ekran monitora. Sukces hipertekstu oraz jego rozwój nie mógłby się odbywać gdyby nie wykorzystanie sieci komputerowych, przede wszystkim Internetu. Internet stanowi miejsce, gdzie idea hipertekstu sprawdza się najlepiej, wśród milionów stron WWW, która stanowi obecnie czwarte medium masowe.

ŚWIATŁOWODY

Światłowód jest kanałem, służącym do przenoszenia fali świetlnej. Światłowody to zazwyczaj włókna szklana (czasami z tworzywa sztucznego) zbudowane z rdzenia oraz płaszcza, który go otacza. Płaszcz musi posiadać mniejszy od rdzenia współczynnik załamania materiału. Poza włóknistymi, istnieją jeszcze światłowody paskowe i płaskie.

Początek

Era telekomunikacji miała swój początek w XIX stuleciu z chwilą wynalezienia telegrafu. Zapoczątkował on transmitowanie danych przy pomocy sygnałów elektrycznych. Następstwem tego wynalazku były kolejno: telefon elektryczny, cyfrowa transmisja zmultiplesowanych czasowo kanałów telefonicznych i transmisja mikrofalowa. Światłowody do transmisji używają wiązki światła, która stanowi odpowiednik prądu w tradycyjnych kablach. Wiązka światła jest modulowana w zależności od treści przesyłanych informacji. Zastosowanie światłowodów otworzyło możliwości budowy niezawodnych oraz bardzo szybkich sieci komputerowych. Odpowiednio dobrany kabel światłowodowy może być zainstalowany w niemal każdym środowisku, a szybkość transmisji danych może sięgać nawet 3 TB/s (terabajtów na sekundę). Sieci wykorzystujące światłowody nazywane są FDDI (Fiber Distributed Data Interface).

Na światłowód zbudowany ze szkła kwarcowego, składają się:

  1. rdzeń (zbudowany z włókien)
  2. płaszcz okrywający rdzeń
  3. warstwa ochronna

Transmisja

Transmisja światłowodowa, to przepuszczenie przez włókno szklane wiązki światła wygenerowanej przez laser lub diodę. Wiązka stanowi zakodowaną informację binarną, która jest następnie rozkodowywana przez fotodekoder znajdujący się na końcówce kabla. Światłowód w odróżnieniu od kabli zbudowanych z miedzi, nie generuje pola elektromagnetycznego, przez co nie możliwe jest podsłuchanie transmisji. Podstawową wadą światłowodów jest możliwość dosyć łatwego uszkodzenia kabla, a ponowne jego połączenie jest operacją dość kosztowną. W systemach transmisyjnych działających na kablach koncentrycznych albo mikrofalach głównym ograniczeniem łączy jest wąskie pasmo transmisyjne, w systemach światłowodowych pasmo przenoszenia światła jest w zasadzie nieograniczone. Kabel do zastosowań zewnętrznych posiada włókna umieszczone w luźnych tubach i jest przystosowany do oddziaływań warunków atmosferycznych. Luźne tuby wypełnione są żelem, w którym znajdują się włókna oplatające główny dielektryczny element wzmacniający. Środek kabla otacza specjalny oplot oraz odporna na działanie wilgoci i promieni słonecznych polietylenowa koszulka. Kable przeznaczone do stosowania wewnątrz pomieszczeń, mają cieńszą warstwę ochraniającą i nie wykazują się tak wysoką odpornością na działanie warunków klimatycznych, jak kable do układania na zewnątrz budynków. Technologia światłowodowa jest przyszłością telekomunikacji i informatyki. Światłowody są standardem obsługiwanym przez większość technologii informatycznych, umożliwiając zastosowanie kilku protokołów w tym samym czasie, co gwarantuje wysoce efektywną transmisję danych. Transfer informacji zabezpieczony jest przed podsłuchaniem (z racji braku pola elektromagnetycznego). Długość kabla światłowodowego jest w zasadzie nielimitowana i zależy tylko od parametrów tłumienności kabla. Kable światłowodowe w odróżnieniu od innych rozwiązań gwarantują minimalne ubytki sygnału, a ich żywotność sięga 25 lat.

Wady

Wadą instalacji światłowodowych jest ich złożoność oraz konieczność stosowania specjalistycznych i kosztownych narzędzi a także wysoka cena nie tylko samego kabla, ale również urządzeń montażowych i dostępowych a rozbudowa instalacji o nowe urządzenia wymaga wysokich kwalifikacji. Światłowody stosowane są jako rozwiązania w wielkich sieciach lokalnych oraz metropolitarnych, gdzie wymagane są połączenia na dużych odległościach, w miejscach gdzie występują silne zakłócenia elektromagnetyczne oraz w sieciach, gdzie wymagana jest duża niezawodność. Zastosowanie światłowodów do transferu informacji otwiera nieograniczone możliwości, a naukowcy całego świata debatują jak najefektywniej wykorzystać technologię światłowodową.

TRANZYSTOR

Tranzystor jest przyrządem półprzewodnikowym zbudowanym z krzemu albo arsenku galu, posiadający przynajmniej 3 elektrody i cechującym się właściwością wzmacniania sygnału elektrycznego. W przypadku tranzystora bipolarnego, elektrody tworzą trzy obszary, kolejno p-n-p lub n-p-n. W tranzystorach typu n-p-n, pierwszy obszar n łączy się z tzw. Emiterem, obszar p łączy się z bazą, a następny obszar n połączony jest ze stykiem zwanym kolektorem (w układach p-n-p połączenia te wyglądają analogicznie). Połączenie emiter-baza charakteryzuje się polaryzacją zgodą z kierunkiem przewodzenia (tzw. dioda półprzewodnikowa), natomiast w przypadku złącza kolektor-baza, polaryzacja przebiega zaporowo. Tranzystory mogą występować jako elementy indywidualne (posiadające oddzielną obudowę) lub jako elementy składowe układów scalonych. Wynalazcami tranzystora ostrzowego byli w 1948 roku J.Bardeen i W.H. Brattain, natomiast tranzystor warstwowy został wynaleziony w 1949 roku przez W. Shockleya. W 1956 roku wszyscy trzej wynalazcy otrzymali Nagrodę Nobla.

Historia

Wynalezienie tranzystora zapoczątkowało rewolucję elektroniczną XX wieku. W latach 60-tych opracowano procedury fotograficznego maskowania oraz warstwowego trawienia, co przyczyniło się do miniaturyzacji tranzystora, a co za tym idzie znacznie obniżyło koszty jego produkcji, powodując produkcję na skalę masową tranzystorów i zawierających ich miliony - układów scalonych. Tranzystor wziął swą nazwę od słów: transfer (co oznacza przekazywać) oraz resistor (oznaczającego opornik). Słowo bipolarny oznacza, że wykorzystane zostało zjawisko wprowadzania nośników, a co za tym idzie konieczne staje się bipolarne przewodnictwo półprzewodnika.

Tranzystor dzisiaj

Obecnie na amerykańskim Uniwersytecie Kalifornijskim działa bezawaryjnie najmniejszy tranzystor, jaki udało się zbudować o nazwie FinFET. Zastosowanie tak małego tranzystora może być rewolucją przemyśle elektronicznym. Nowy tranzystor ma 10-krotnie mniejszy, niż egzemplarze produkowane obecnie, ma tylko 50 nm szerokości i zgodnie z tym, co sądzą naukowcy zaangażowani w projekt, może on podwoić prędkość działania procesorów. Naukowcy liczą, że zastosowanie tego tranzystora będzie wkrótce powszechne i stanie się on podstawą nowych mikroprocesorów.

UKŁAD SCALONY

Ta niewielka płytka zbudowana z krzemu wywołała światową rewolucję. Rozpoczęła ona erę komputerów oraz innych podzespołów elektronicznych. Wynalazek układu scalonego został uhonorowany Nagrodą Nobla.

Układ scalony (Integrated Circuit) jest zminiaturyzowanym, półprzewodnikowym układem elektronicznym, zawierającym do milionów elementów składowych (tranzystorów i diod stanowiących elementy czynne i kondensatorów bądź rezystorów stanowiących elementy bierne), które powstają w jednym cyklu produkcji. Układ scalony może być zbudowany z całego kryształu półprzewodnika (mówi się wtedy o układzie monolitycznym), bądź naniesiony warstwami na izolująca powierzchnię (układy scalone cienkowarstwowe). Pierwsze układy scalone wyprodukowano w USA w 1958 roku. W produkcji na skalę masową układy scalone otrzymuje się wykorzystując proces fotograficznego maskowania oraz trawienia płytek z krzemu.

Historia

Używane dzisiaj tranzystory krzemowe lub obwody scalone zostały po raz pierwszy wykonane przez Boba Noyce'a w 1961 roku w fabryce Fairchild Semiconductors, zgodnie z technologią opracowaną przez Jacka Kirby'ego z Texas Instruments w 1959 roku. Masowa produkcja układów scalonych zaczęła się w roku 1962 w momencie odkrycia maskujących właściwości dwutlenku krzemu oraz dzięki zastosowaniu technologii planarnej, która obowiązuje po dziś dzień. Układy scalone to miniaturowe układy elektroniczne, odznaczające się tym, iż większość jego elementów produkowane są nierozłącznie podczas jednego cyklu produkcyjnego, na powierzchni lub wewnątrz wspólnego podłoża, które najczęściej stanowi płytka krzemu monokrystalicznego o milimetrowych wymiarach. Dostępne w handlu układy scalone mają specjalną obudowę chroniącą je przed działaniem czynników zewnętrznych, jak wilgoć, zanieczyszczenia czy uszkodzenia mechaniczne.

Podział

Układy scalone mogą być różnie klasyfikowane. Ze względu na cechy technologiczno-konstrukcyjne dzielą się na warstwowe i półprzewodnikowe. Układ półprzewodnikowy to taki, który zawiera elementy czynne (tranzystory, diody) oraz bierne (kondensatory, cewki, rezystory), wytworzone w półprzewodnikowej płytce monokrystalicznej przy pomocy pewnych procesów fizyko-chemicznych. Podczas tych procesów zachowana zostaje ciągłość mechaniczna kryształu, elementy przechodzą jeden w drugi, przez co stają się nierozłączne. W takiej sytuacji nie jest możliwe naprawienie uszkodzonego układu. Układ warstwowy to taki, w którym zawierają się elementy bierne, występujące w postaci różnych warstw materiałów umieszczonych na biernym podłożu izolacyjnym (najczęściej ceramicznym). Elementy półprzewodnikowe (czynne) są dolutowywane zewnętrznie do układu.

Ze względu na stopień rozbudowania, układy scalone można podzielić na:

  • SSI (ang. Small Scale Integration) - układy posiadające nie więcej niż 10 komórek elementarnych
  • MSI (ang. Medium Scale Integration) - układy zawierające nie więcej niż 100 komórek elementarnych
  • LSI (ang. Large Scale Integration) - układy posiadające 100 - 1000 komórek elementarnych w obrębie jednej struktury
  • VLSI (ang. Very Large Scale Integration) - układy zawierające do miliona komórek

Ze względu na zastosowania układy scalone można podzielić na cyfrowe i analogowe. Obecnie firma Hitachi opracowała układ scalony, którego grubość jest mniejsza niż 0,4 mm. Tak małe rozmiary umożliwiają wtopienie takich chipów w arkusze papieru (na przykład w banknoty), można je zginać jak papier oraz zapisywać na nim informacje do 128 bitów pojemności. Poza tym układy te świetnie komunikują się z odpowiednimi czytnikami, umożliwiając błyskawiczną identyfikację banknotu.

LASERY

Skanery kodów kreskowych wykorzystywane w hipermarketach, odtwarzacze płyt CD i DVD, drukarki oraz inny sprzęt łączy jedna wspólna cecha - wszystkie te urządzenia wykorzystują w swoim działaniu laser. Gdy w 1960 roku wynaleziono laser, wśród naukowców krążył wtedy żart, że znaleziono rozwiązanie, ale nie ma problemu, do którego można by je było zastosować. W dzisiejszych czasach trudno byłby wyobrazić sobie egzystencję bez laserów. Technologia laserowa znajduje zastosowanie we wszystkich gałęziach życia.

Działanie lasera

Słowo laser jest skrótem od nazwy technologii na zasadzie, której działa i oznacza: światło wzmocnione przez wymuszoną emisję promieniowania (ang. Light Amplification by Stimulated Emission of Radiation). Światło wytwarzane przez laser różni się znacznie od światła spotykanego, na co dzień. Zwykłe światło widzialne stanowi mieszaninę wielu barw o innych dla każdej barwy długościach fal. Światło lasera jest jednobarwne (monochromatyczne), składające się z promieni posiadających jednakową długość fali i widziane jako cienka wiązka bardzo czystego koloru. Fale zwykłego widzialnego światła rozchodzą się nieregularnie, gdyż góry i doliny poszczególnych fal nie zgadzają się ze sobą. Światło emitowane przez laser jest spójne i złożone tylko z promieni posiadających identyczna długość fal, biegnących w jednym kierunku w wzajemnie ze sobą zsynchronizowanych. Tradycyjne światło biegnie w różnych kierunkach, stąd wyjaśnienie zjawiska zwiększania się średnicy i zmniejszania jasności plamy światła rzuconego przez latarkę na ścianę, w miarę oddalania się od niej. Wiązka lasera pozostaje spójna nawet na dużych odległościach. Wahadłowiec znajdujący się na wysokości 300 kilometrów na ziemią bez trudu może odebrać wiązkę lasera wystrzeloną z ziemi w jego kierunku. Nawet na tak olbrzymich odległościach rozszerzanie się wiązki laserowej jest minimalne. Dzięki swej spójności, monochromatyczności oraz natężeniu laser znajduje zastosowanie w rozrywce gwarantując niesamowite efekty podczas rozświetlania nocnego nieba oraz sal dyskotek.

Budowa lasera

W okolicy środka lasera umiejscowiona jest komora pompująca oraz ośrodek laserujący, do pompowania ośrodka laserującego wykorzystywane są lampy błyskowe. Wygenerowane światło opuszcza system przechodząc przez rząd soczewek, które skupiają je w cienką wiązkę. Ośrodek laserujący znajduje się w rurze lasera (może nim być ciało stałe, ciekłe bądź gazowe), która zamknięta się lustrami z obu stron. Podczas pompowania lasera wzbudzane są atomy w ośrodku laserującym, w wyniku czego zaczynają emitować fotony światła. Następnie następuje odbijanie światła w obie strony, przez co zwiększa się liczba fotonów wysyłanych przez atomy, aż w końcu światło znajduje ujście przez otwór rury umieszczony na jednym z jej końców.

Zastosowanie w praktyce

Lasery muszą być starannie dobrane do określonych zastosowań, ponieważ każdy laser emituje światło charakteryzujące się konkretną długością fali oraz określonym zakresem mocy, przystosowanym do realizacji konkretnego zadania. Mimo istnienia wielu różnych laserów, nie istnieje urządzenie uniwersalne, nadające się do wszystkich zastosowań. Zwarte światło lasera służy nie tylko generowaniu widowiskowych efektów specjalnych, jest również bardzo użyteczne ze względu na precyzję w sterowaniu jego wiązką. Naukowcy znaleźli wiele zastosowań dla laserów. Dzięki swym właściwością światło laserowe doskonale nadaje się do przesyłania danych w kablach światłowodowych. Mogą to być rozmowy telefoniczne lub inne dane, które mają postać impulsów świetlnych. Mocna i zwarta wiązka laserowa doskonale nadaje się do wyznaczania linii prostych na dużych dystansach oraz do precyzyjnych pomiarów odległości. Laser doskonale nadaje się też do generowania hologramów - trójwymiarowych obrazów odwzorowujących oryginał, które można oglądać z dowolnej strony.

KOMPUTER OSOBISTY

Kiedyś ludzie nawet nie marzyli, je będzie istniało coś takiego jak komputer. Obecnie komputery otaczają nas niemal wszędzie, w domu, w biurze, w samochodzie, czasami nawet i w toalecie.

Komputer jest urządzeniem elektronicznym, służącym do zautomatyzowania procesów przetwarzania danych przedstawionych cyfrowo. Cechą charakterystyczną, która odróżnia komputer od reszty urządzeń jest programowalność, oznacza to, że wykonywanie określonych zadań związane jest z wykonywaniem programów zapisanych w układach pamięci komputera. Pod pojęciem komputera rozumiane są maszyny zaprogramowane w celu wykonywania konkretnych zadań (np. urządzenia AGD, automaty sterujące) oraz komputery uniwersalne, które można zaprogramować w dowolny sposób.

Historia komputerów

Początek elektronicznych systemów komputerowych miał miejsce w latach 40-tych XX wieku. Ówczesne komputery zupełnie nie przypominały dzisiejszych. Pierwszy komputer nazwany ENIAC (ang. Electronic Numerical Interpreter And Calculator) zbudowany w roku 1946 złożony był z 18 tysięcy lamp elektronowych, do pracy wymagał 160 KW mocy, jego waga wynosiła 30 ton i wykonywał około 5 tysięcy operacji na sekundę. Amerykanie wykorzystywali ENIAC'a do kalkulacji torów lotów pocisków balistycznych wystrzeliwanych z dział okrętowych. Słowo "komputer" służące określaniu urządzeń elektronicznych wykonujących obliczenia powstało także w połowie dwudziestego stulecia. Należy zwrócić uwagę na fakt, iż powstanie komputerów byłoby nie możliwe, bez podstaw teoretycznych, stworzonych znacznie wcześniej. Jedną z nich jest algebra Boole'a, opracowana w 1854 roku algebra dwuelementowych zbiorów, która w swoim czasie wydawała się kompletnie pozbawiona praktycznych zastosowań. Jeżeli chodzi o urządzenia służące automatyzacji obliczeń, to protoplastami komputerów było znane już 3 tysiące lat p.n.e. liczydła albo mechaniczny arytmometr zbudowany przez wybitnego matematyka z Francji Blaise'a Pascala w 1642 roku. Dopiero jednak pojawienie się urządzeń elektronicznych, w szczególności układów scalonych, rozpoczęło praktyczną realizacje automatyzacji obliczeń. Największy rozwój systemów komputerowych miał miejsce w końcu XX wieku. Zwiastunem ery upowszechnienia się komputerów było rozpoczęcie sprzedaży mikroprocesora Intel 4004 w 1971 roku. Chip ten był przeznaczony do zastosowania w kalkulatorach, posiadał 2300 tranzystorów i zegar o częstotliwości 108 kHz, potrafił przetworzyć 60 tysięcy operacji w ciągu sekundy (jego wydajność była więc 12 razy większa niż ogromnego ENIACa). Pierwszy komputer osobisty zaprezentowany został w roku 1981 i był nim IBM PC z procesorem Intel 8088 pracującym z częstotliwością 4,66 MHz i posiadający 64 KB pamięci RAM. Opracowana przez firmę IBM architektura tego komputera stanowiła otwarty standard, co oznaczało, że inni producenci mogli wytwarzać własne komputery w oparciu o technologię IMB PC. To był początek "pecetowej rewolucji".

Współczesne komputery

Jeżeli chodzi o przeznaczenie komputerów, można je podzielić na kilkanaście różnych typów. Największymi są super-serwery (kiedyś określane jako komputery typu "mainframe"), są to zwykle maszyny wieloprocesorowe wykorzystywane przez ośrodki badawcze lub duże instytucje do wykonywania zadań wymagających dużych mocy obliczeniowych. Obecnie najbardziej wydajnym superkomputerem jest maszyna ASCI White, posiadająca wydajność rzędu 12,3 teraflops (12,3 biliona operacji na sekundę), komputer ten zawiera 8192 procesory typu RISC firmy IBM oraz posiada 6 TB pamięci RAM. Komputer ten został stworzony na zlecenie rządu Stanów Zjednoczonych w celu symulowania testów broni nuklearnej. Wymiary ASCI White dorównują gabarytom ENIACa (którego przeznaczeniem były również prace militarne), z ta różnicą, że jego ASCI White przewyższa wydajność ENIACa ponad 2 miliardy razy. Kolejną grupą komputerów są serwery, posiadające mniejszą od super-serwerów moc obliczeniową. Najmniejsze wśród tego typu urządzeń są serwery PC, które pod względem wydajności odpowiadają zwykłym komputerom PC, ale posiadają bardziej niezawodne komponenty, większe dyski twarde oraz większą ilość pamięci. Najszybciej rozwijającą się grupą są serwery internetowe, konstruowane tak, aby mogły przyjmować bardzo duże ilości zapytań oraz prezentować informacje w sieci Internet dla wielu osób jednocześnie.

Komputery wysokiej wydajności, przeznaczone do określonych zadań, wyposażone w dodatkowe oprogramowanie lub sprzęt do stacje robocze. Przykład mogą stanowić urządzenia do obróbki wideo lub projektowania z wykorzystaniem systemów CAD. Najpopularniejszym rodzajem komputerów są komputery stacjonarne (desktop) oraz przenośne (laptop) posiadające uniwersalne zastosowania, a także urządzenia bardziej wyspecjalizowane, jak palmtopy. Rozkwit palmtopów miał miejsce w 1996 roku, w chwili wprowadzenia przez przedsiębiorstwo Palm Computing małego komputera o nazwie Palm Pilot. Komputery te maja znacznie uboższy zakres funkcji niż standardowe komputery PC i realizują między innymi obsługę organizera, kalendarz, notatnik, książkę adresową oraz kalkulator.

Najnowsze modele palmtopów zostały wyposażone w przeglądarkę stron internetowych, programy pocztowe i telekomunikacyjne. Obecne komputery PC posiadają setki tysięcy razy lepsze parametry w porównaniu z pierwszymi modelami, choć architektura nie różnie się aż tak znacznie. Komputery klasy PC stanowią obecnie sprzęt codziennego użytku. W samym tylko 1999 roku sprzedaż PC-tów przekroczyła 100 milionów sztuk. Pomimo tego często słyszy się pogłoski o rzekomym końcu ery komputerów personalnych, a producenci oprogramowania i sprzętu prześcigają się propagując takie hasła jak wszechobecna komputeryzacja (pervasive computing), czy biznes elektroniczny (e-bussiness). Nie znaczy to, że komputery osobiste naglę znikną ze sprzedaży, wręcz przeciwnie, prognozy mówią, że ich sprzedaż będzie się ciągle zwiększać. Faktem jest jednak to, że po tak długim panowaniu zaczynają ustępować miejsca urządzeniom nowego typu jak palmotpy czy telefony komórkowe najnowszej generacji.

Komputery w życiu codziennym

W dzisiejszych czasach komputery znajdują zastosowanie niemal w każdej dziedzinie życia. Nie wszędzie ich wykorzystanie jest tak powszechne, ale jeszcze większa popularyzacji informatyki jest tylko kwestią czasu. Należy nadmienić, że komputery stanowią tylko narzędzia zwiększające efektywność oraz wygodę pracy i nauki, zmniejszają koszty działalności, ułatwiają szeroki dostęp do informacji oraz dostarczają coraz to nowszych form rozrywki, lecz nie potrafią zastąpić człowieka, ani dorównać efektywności ludzkiego mózgu, który cały czas stanowi najbardziej złożony i wydajny "komputer". Użycie komputerów stwarza nowe możliwości oraz przyspiesza rozwój naukowy pozwalając opanowywać coraz to nowsze technologie w przemyśle i produkcji. Doskonały przykład stanowi tu rozwój technologii produkcji mikroprocesorów, których projektowanie i produkcja odbywa się z wykorzystaniem systemów komputerowych. Gdyby nie te systemy, zaprojektowanie i produkcja układów najnowszej generacji byłoby niewykonalne. Ciężko również znaleźć dzisiaj biuro albo instytucję, gdzie do codziennej pracy nie wykorzystywano by komputerów, które znacznie przyspieszają proces tworzenia dokumentów, wspomagają systemy księgowości, kontroli magazynów i sprzedaży. Komputery wykorzystywane są również do produkcji filmów oraz tworzenia muzyki, a ich błyskawiczna popularyzacji przyczyniła się do powstania nowej, doskonale prosperującej gałęzi przemysłu, jaką jest przemysł gier komputerowych.

SIEĆ INTERNET

Internet to ogromna skarbnica wiedzy i rozrywki, jest technologią umożliwiającą globalną komunikację, która stanowi dzisiaj podstawę w transmisji informacji na odległość. Z jednego miejsca na Ziemi można wysłać na drugi jej koniec dowolne dane począwszy od niewielkich plików, na ogromnych zbiorach danych kończąc.

Początki prac nad sieciom były wynikiem realizacji potrzeb militarnych rządu Stanów Zjednoczonych. Jako odpowiedź na wystrzelenie sputnika przez Związek Radziecki w 1957 roku, amerykanie powołali do życia Agencję Zaawansowanych projektów badawczych o nazwie ARPA (ang. Advanced Research Projects Agency). Jej głównym zadaniem była praca nad nowoczesnymi technologiami informacyjnymi możliwymi do wykorzystania w celach militarnych. Po półtorarocznych badaniach USA wystrzeliło swojego sztucznego satelitę. Na początku lat 60-tych zaczęto zastanawiać się nad umożliwieniem komunikacji pomiędzy komputerami ośrodków badawczych rozproszonych po całych Stanach Zjednoczonych.

Historia

W roku 1962, Paul Baran razem z przyjaciółmi opracował koncepcję sieci opierającej się na przesyłaniu pakietów - informacji podzielonej na mniejsze elementy i wysyłanej partiami do zdalnego komputera. Podstawą tej idei było stworzenie sieci nieposiadającej centralnego komputera, gdzie istniałoby dużo tras między węzłami. Taka sieć mogłaby przetrwać atak nuklearny, gdyż wyeliminowanie kilku węzłów nie zniszczyłoby funkcjonalności całej sieci. Przez następnych kilka lat, pomysł nie został zrealizowany i projekt zalegał na półkach w Pentagonie. W 1965 roku udało się połączyć dwie maszyny, jeden w Massachusetts na uniwersytecie MIT a drugi w Santa Monica, siecią bez wymiany pakietów. Kilka lat po tym ktoś przypomniał sobie o istnieniu projektu Barana, 21 listopada 1969 roku przeprowadzono pomyślnie połączenie przez sieć z wymiana pakietów, dwóch odległych komputerów, jeden znajdujący się w Los Angeles na Uniwersytecie Kalifornijskim a drugi w odległym o 600 km Palo Alto w Stanford Research Institute. Podczas pierwszej próby przesłano tylko dwa znaki:, "lo", ponieważ jeden z komputerów się zawiesił. Jednak owo "lo" było zapalnikiem do rozpętania rewolucji. Do dwóch istniejących węzłów niedługo dołączyły kolejne: Uniwersytet Kalifornijski z Santa Barbara i Uniwersytet Utah. Owe cztery placówki stworzyły sieć nazwaną ARPANET. W roku 1971 ARPANET posiadał już 15 węzłów oraz 23 serwery. W tym czasie zdefiniowano protokół NCP, a także protokół przesyłania plików - FTP i logowania - TELNET. Niesamowitą karierę robił system elektronicznej poczty (e-mail), dzięki możliwości przesyłania wiadomości na znacznych odległościach. W roku 1973 miało miejsce pierwsze połączenie sieciowe w europie, pomiędzy Norwegią a Anglią. W roku 1975 zarząd nad siecią ARPANET obejmuje DCA (ang. Defence Communications Agency), obecnie DISA (ang. Defence Information System Agency). W następnych latach powstają sieci UseNet, CSNet, BitNet i inne, które w owym czasie nie były ze sobą zgodne. Przełom lat 70-tych i 80-tych to intensywne prace na nowym protokołem o nazwie TCP. W roku 1980 sieć ARPANET obejmowała ponad 400 serwerów uniwersyteckich i rządowych i korzystało z niej około 10 tysięcy osób. 1 stycznia 1983 roku miał miejsce rozdział sieci ARPANET na część cywilną - czyli INTERNET, oraz wojskową - MILNET. Dzięki zestandaryzowanemu protokołowi TCP, sieci mogły się ze sobą łączyć. W Europie stworzona została sieć EARN - Europejska Akademicka i Badawcza Sieć Komputerowa (ang. European Academic and Research Network), a w 1984 roku zastosowano usługę DNS, która spowodowała translację nazw liczbowych w nazwy tekstowe i tym samym umożliwiła ich łatwiejsze zapamiętanie. Momentem przełomowym było powstanie sieci o nowoczesnej topologii. W USA w 1986 roku powstała NSFNET - ogólnokrajowa szkieletowa sieć o bardzo wysokiej przepustowości. To był początek popularności Internetu. W tym czasie burzliwie rozwijał się USENet oraz listy dyskusyjne, na których użytkownicy z całego świata wymieniali się poglądami na wszelkie tematy. Student z Finlandii opracowuje IRC (ang. Interner Relay Chat), usługę, która umożliwia rozmowy w czasie rzeczywistym. W listopadzie 1988 roku ukazuje się pierwszy wirus "Internet Worm" autorstwa Roberta Morrisa, który infekuje 10% komputerów podpiętych do sieci. Do roku 1989 liczba komputerów podłączonych do Internetu przekroczyła 100 000, sieć NSFNet osiągnęła przepustowość 1,5 Mbit/s i podłączano do niej nowe kraje, m.in. Finlandię, Niemcy i Kanadę. ARPANET zakończył swoja działalność 1990 roku, natomiast NSFNet nadaj rozwijał się w ogromnym tempie osiągając przepustowość rzędu 44 Mbit/s. Polska dołączyła do sieci Internet w 1990 roku. W tym czasie powstają nowe usługi jak Archie - umożliwiający wyszukiwanie plików, serwery z informacjami WAIS, Gopher oraz obecnie najpopularniejsza usługa, jaką jest WWW (ang. Word Wide Web), oparta na technologii hipertekstu, której twórcą jest Tim Barners-Lee z CERN. Rok 1992 to kolejny rekord - liczba komputerów podłączonych do sieci Internet przekracza milion. Pojawiają się usługi komercyjne, do sieci dołączają banki, biblioteki, domy handlowe, firmy i księgarnie. W roku 1995 NSFNet przekształca się w sieć badawczą, a do Internetu dołączają olbrzymie sieci komercyjne jak: AOL, Compuserve, Prodigy, Delphy. Rok 1996 to dynamiczny rozwój usługi WWW, powstają internetowe wyszukiwarki informacji: Lycos, Yahoo. W 1998 roku ilość komputerów dołączonych do Internetu przekracza 30 milionów, a w samej tylko Polsce jest ich ponad 100 tysięcy.

Zastosowanie Internetu w praktyce

Poczta elektroniczna stanowi wielkie dobrodziejstwo nauki. Korespondencja w tej technologii jest błyskawiczna. Wiadomość na drugi koniec świata dochodzi w przeciągu kilku sekund. Kolejny atut stanowi cena, która jest znikoma w porównaniu z ceną tradycyjnej przesyłki. Jeszcze do niedawna sieć umożliwiała transfer tylko wiadomości tekstowych, obecnie można przesyłać wszystko, od plików dźwiękowych, przez filmy do złożonych zbiorów danych.

Internet jest ogromnym źródłem informacji; dzięki niemu można odnaleźć pracę czy też wiele encyklopedycznych informacji, umożliwia on przeszukiwanie zbiorów bibliotek oraz dokonywanie zakupów, które to stanowi szczególnie dynamicznie rozwijającą się gałąź usług oferowanych w sieci. Jak ukazują statystyki, w 1998 roku około 20 milionów osób zrobiło zakupy w internetowych sklepach, a dalsze tempo rozwoju tej dziedziny jest ogromne, czego jednym z powodów jest to, iż pomysł robienia zakupów w internecie jest bajecznie prosty a z drugiej strony - praktyczny i efektywny. Internetowe zakupy nie wymagają wychodzenia z domu, gdyż wykonywanie czynności, czyli obejrzenie produktu, jego ceny oraz zamówienie i zapłacenie kartą kredytową, można przeprowadzić z domowego fotela bez względu na charakter kupowanej rzeczy - czy będą to kwiaty czy też najnowszy model samochodu - kupując przez Internet zaoszczędzamy nie tylko wiele cennego czasu, lecz również same pieniądze. Ceny tradycyjnych produktów sklepowych mają, bowiem wliczoną marżę hurtownika oraz dealera, czego nie spotyka się w przypadku zakupów przez Internet. Przykładowo: samochód marki Chrysler zamówiony u producenta będzie kosztować ponad 15 tysięcy dolarów mniej niż ten sam samochód kupiony w salonie.

Oferta handlowa internetowych marketów jest nieograniczona, a wyjątkową popularnością cieszą się internetowe księgarnie, które umożliwiają kupno wybranych książek za pośrednictwem strony danej księgarni lub wydawnictwa. Są kraje (np. Stany Zjednoczone) gdzie przez Internet kupić pizzę czy bukiet świeżych kwiatów, natomiast firma Sailsburry prezentuje swój wirtualny katalog win.

Coraz większa liczba zarówno sprzedawców jak i producentów przekonuje się do internetowej formy reklam i promocji, które są niemniej skuteczne (a może i nawet bardziej) niż te tradycyjne. Ogólną liczbę, wskazującą na wysokość wszystkich obrotów internetowych sklepów w 1998 roku oszacowano na około miliard dolarów, natomiast już dwa lata później była ona dziesięć razy wyższa.

Prognozy

Technologia informacyjna ściśle wiąże się z dziedziną informatyki oraz z komputerami. Dzisiaj można się jedynie zastanawiać, jak by wyglądał świat bez komputerów, co już jest niezwykle trudne, biorą pod uwagę jak bardzo przesiąkły one do naszego codziennego życia. Co przychodzi na myśl, to świat z pierwszej połowy XX wieku, jednak czy była wtedy jakakolwiek szansa, że nie stworzymy komputerów? Myślę, że niewielka.

Komputer przyszłości

Niezwykle trudne do przewidzenia jest, jaki kierunek rozwoju obiorą komputery w ciągu nawet najbliższych kilku lat, czego przyczyną jest przede wszystkim fakt, iż rozwój ich w głównej mierze zależy od przyjęcia nowych pomysłów czy zastosowań przez ich potencjalnych użytkowników. W latach siedemdziesiątych, gdy ówczesne kierownictwo Intela dało propozycję zbudowania urządzenia komputerowego, które miało być wyposażone w monitor oraz klawiaturę, poddawano w wątpliwość jego użyteczność zastanawiając się, czy w ogóle ktoś będzie chciał go kupić.

Rozwój technologii wykazuje jednak pewne wyraźne tendencje, jak na przykład postępująca integracja funkcji komputera z urządzeniami telekomunikacyjnym, dotycząca także innych obszarów (dość bliska wydaje się perspektywa stworzenia cyfrowej telewizji interaktywnej umożliwiającej dostęp o każdej porze do różnych serwisów informacyjnych lub też możliwość wyboru filmu przez użytkownika). Obok poszerzania funkcji oraz zastosowań komputera zmianie ulegnie także sposób komunikowania się z nim - już dzisiaj znalazły w pewnych urządzeniach zastosowanie ekrany czułe na dotyk, a całkiem niedługo wprowadzony może zostać (i pewnie zadomowi się na dobre) głosowy interfejs użytkownika, co szczególnie istotne wydaje się dla rozwoju oraz upowszechniania się sprzętu przenośnego, trudnego do wyposażenia w mysz czy klawiaturę.

Jednak zupełnie swobodna rozmowa z komputerem, podobna ludzkiej konwersacji, która często przestawiana jest we współczesnych filmach "science fiction" - na aktualnym stopniu rozwoju jest jeszcze niedostępna. Dzisiejsze oprogramowanie umożliwia efektywne, głosowe kierowanie funkcjami aplikacji, czego przykład stanowić może komputer nowej generacji IBM - tzw. "wearable PC" (komputer, który można nosić), stanowiący urządzenie, które składa się z następujących elementów:

  • miniaturowego komputera (który może być przymocowany na przykład do paska od spodni)
  • monitora ciekłokrystalicznego, który jest zamocowany na głowie, oddalony od oka o kilka centymetrów
  • specjalnego manipulatora służącego sterowaniu wskaźnikiem

Ten rodzaj komputerów może okazać się niezwykle przydatny w przemyśle, na przykład do kontrolowania lub naprawiania urządzeń, gdzie korzystający z niego pracownik będzie miał stały dostęp do odpowiedniej dokumentacji bez konieczności używania do tego rąk czy przenoszenia dokumentów będących w papierowej formie.

"Wearable PC" można już kupić w Stanach Zjednoczonych oraz w Japonii, co nasuwa myśl, iż być może za kilkadziesiąt lat to komputery będą wykonywały wszelkie nasze czynności? Nasza historia nie raz pokazywała, iż to, co wydawało się niemożliwym, wcześniej czy później okazywało się wykonalnym, a przecież komputer stanowi studnię bez dna rozwijając nieustannie logikę człowieka; innymi słowy - to umysł bez moralności.

Bibliografia:

  • "Encyklopedia Multimedialna", Wydawnictwo PWN, Warszawa 2001
  • Cavendish M., Kolekcja Marshalla Cavendisha, Warszawa 2000
  • Oxlade Ch., Jak to działa, Wydawnictwo Bis, Warszawa 1996
  • Pikoń K., ABC Internetu, Wydawnictwo Helion, Gliwice 2000
  • Wróblewski P., Diagnostyka i optymalizacja komputerów, Wydawnictwo Helion, Warszawa 2001