1. Wynalezienie tranzystora

Tranzystor jest obecnie podstawowym składnikiem wszystkich urządzeń elektrycznych. Jego działanie polega na zwiększeniu siły przechodzących przez niego sygnałów elektrycznych. Jest on najczęściej zbudowany z półprzewodników posiadających trzy zaciski (czasem może być ich więcej).

Pierwszym tranzystorem (powstał w 1948) roku był tak zwany "ostrzowy" stworzony przez W.H. Brattaina oraz J. Bardeena, charakteryzował się on jednak niewielkimi możliwościami, dlatego też w praktyce nie wykorzystywano go. Natomiast wykorzystywany już praktycznie tranzystor bipolarny został zbudowany rok później przez W.B Shockley'a. Dzięki jego osiągnięciu możliwy był ogromny rozwój elektroniki oraz obecnie obserwowany rozwój komputeryzacji. W latach sześćdziesiątych otwarły się możliwości zminiaturyzowania tranzystorów (dzięki zastosowaniu trawienia warstwowego oraz maskowania fotograficznego), co bardzo obniżyło koszty wytworzenia i zaowocowało możliwością wprowadzenia produkcji masowej, jak również stworzenia tak zwanych układów scalonych, składających się z setek tysięcy (a często nawet milionów) tranzystorów. Tranzystor może działać zarówno samodzielnie (nazywany jest wtedy elementem "dyskretnym") jak i jako część składowa układu scalonego.

Wyróżniamy wiele typów tranzystorów:

  • tranzystor o niewielkiej mocy - charakteryzuje się on optymalnym doborem parametrów, niewielkim poziomem szumów oraz wysoką częstotliwością organiczną
  • tranzystory impulsowe - umożliwiają przesyłanie sygnałów w bardzo krótkim czasie, mają też niewielki spadek napięcia podczas załączenia.
  • tranzystory o dużej mocy - w jego przypadku bardzo ważne jest wytrzymywanie sygnałów o dużej mocy, powinien również być odporny na wysokie napięcia, duże natężenie prądu oraz na przebicia na złączach.
  • tranzystor HF - potocznie nazywany tranzystorem wysokich częstotliwości, charakteryzuje się specyficzną budową (posiada dość dużo emiterów), dzięki czemu dysponuje dużą mocą oraz częstotliwością pracy na dość wysokim poziomie.

Każdy spośród wyżej wymienionych typów tranzystorów ma tez inną technikę wykonania.

Jedną z najprostszych charakteryzuje się tranzystor bipolarny. Budowa tego najpopularniejszego tranzystora na świecie opiera się na dwóch połączonych ze sobą w sposób szeregowy, diodkach. Gdy Diody są ustawione stronę bazy tranzystor nosi nazwę PNP natomiast w przypadku przeciwnym NPN.

Następnym rodzajem tranzystorów są tranzystory unipolarne. Również można wyszczególnić dwa rodzaje tych tranzystorów mianowicie korzystające z efektu polowego JFET czyli junction FET oraz tranzystory MOSFET czyli Metal Oxide Semiconductor- FET. Działanie tranzystorów pierwszej grupy polega na zastosowaniu modulowania warstw zaporowych funkcji napięcia do zmieniania szerokości kanału, którym płynie prąd. Często wykorzystuje się tranzystory typu JFET do sterowania napięciowo- źródłowo- prądowego ze względu na ich dużą rezystancję wejściową. Działanie tranzystorów MOSFET opiera się natomiast na wysokiej rezystancji wejściowej oraz odizolowaniu elektrody sterującej. Wspomniany poziom rezystancji wejściowej to, co najmniej 100MΩ ale im wyższa częstotliwość tym niższa jest impedancja, co wiąże się ze wzrostem częstotliwości. Dlatego też tranzystory tego typu uzyskują bardzo duże pojemności początkowe (z dużych mocy), przez co rzadko się je wykorzystuje.

Tranzystory polowe posiadają bardzo ważną cechę (ich najważniejsza zaleta) mianowicie, gdy współczynnik temperaturowy uzyska wartości mniejsze od zera, istnieje możliwość liniowej kompensacji termicznego wzrostu prądu.

Wyróżnia się dwa rodzaje tranzystorów polowych.

Typ pierwszy czyli tak zwane tranzystory z kanałem zubożonym (z ang. depletion mode) działają na zasadzie przewodzenia prądu dotąd, aż napięcie na bramce będzie równe zero. Natomiast drugi rodzaj to tranzystory z kanałem tak zwanym wzbogaconym (z ang. enhancement mode). Charakteryzują się one tym, że nie będzie przez nie przepływał prąd aż do momentu, gdy nie pojawi się napięcie na bramce. Aby dokonać zmian w działaniach tych tranzystorów trzeba zastosować wobec nich konkretne napięcie (w przypadku tranzystora P dodatnie a w przypadku N ujemne).

Tranzystory jednozłączkowe (stosuje się również nazwę diody dwubazowe), to 3-elektrodowe przełączniki, których działanie opiera się na modulowaniu oporności półprzewodnika. Budowa tego typu tranzystora to półprzewodnikowy blok (typ N), do którego dodano na obu jego końcach wyprowadzenia baz (nazwane B1 oraz B2), między którymi dodano złącze p-n łączące obszary baz. Znajdujący się nim obszar p jest emiterem. Odstęp po miedzy złączem emiterowanym a bazą B1 nie jest większy niż 0,7 odstępu między bazami. Podczas przykładania napięć na wyprowadzenia obydwu baz, emiter będzie miał potencjał proporcjonalny do odstępu pomiędzy wyprowadzeniami bazowymi. Złącze p-n będzie spolaryzowane w sposób zaporowy, gdy napięcie między emiterem oraz bazą B1 nie wzrośnie powyżej potencjał bloku w punkcie emitera. W momencie, gdy jednak wzrośnie powyżej, oporność całego bloku zmaleje, dlatego, że część elektronów z bazy B1 zostanie przezeń przyciągnięta, co z kolei zaowocuje wzrostem prądu emitera na skutek spadku napięcia między emiterem a bazą B1. Stworzona zostanie dzięki temu ujemna rezystancja. Diody działające według wyżej opisanego sposobu wykorzystywane są np. w układach sterujących tranzystorami oraz generatorach impulsowych.

2. Układ scalony.

Dzięki dzisiejszym możliwościom elektronicznym powszechne jest stosowanie w urządzeniach obwodów złożonych z setek tysięcy współpracujących ze sobą części, umieszczonych w jednym kawałku krzemu o rozmiarach nie przekraczających centymetra kwadratowego. Jako bazę półprzewodnikową wykorzystuje się odpowiednio spreparowana, po to, żeby poszczególne jej elementy działały jak diody, tranzystory, rezystory oraz kondensatory czy też odprowadzenia prądowe. Na tej właśnie zasadzie tworzy się obwody scalone, czyli tak zwane IC (z ang. intergrated circuit). Nie trzeba chyba udowadniać jak ogromne zastosowanie maja powszechnie układy scalone, od chociażby mikrofalówek, po samochody i komputery, telewizory, na promach kosmicznych skończywszy. Życie bez stosowania układów scalonych wydaje się wręcz niemożliwe. Najwyższym obecnie stadium układu scalonego jest mikroprocesor, czyli mózg wszystkich komputerów, za równo tych osobistych, stojących na naszych biurkach, ale tez i komputerów w samochodach, maszynach przemysłowych itd. Wszystkie składające się na mikroprocesor obwody zamknięte są w krzemowej obudowie, komunikującej się z pozostałymi częściami (obwodami) danego urządzenia za pomocą niewielkich metalowych bolców (najczęściej zwanych "nóżkami").

Wyróżnia się cztery najważniejsze funkcje, które mają spełniać obwody elektroniczne oraz układy scalone.

  • Przełączanie - polega na włączaniu oraz wyłączaniu obwodów elektronicznych poprzez słabe sygnały elektryczne. Można to porównać do drzwi spotykanych w supermarketach, które otwierają się automatycznie, gdy klient chce wejść lub wyjść ze sklepu.
  • Wzmacnianie - funkcja ta jak sama nazwa wskazuje polega na zamienianie słabego sygnału na silniejszy. Dzięki temu mogą np. funkcjonować radia, fale, które są przez nie wychwytywane są słabe dlatego też żeby były słyszalne muszą być wzmacniane.
  • Prostowanie - polega na zamienianiu prądu zmiennego (AC) na prąd stały (DC), dzięki temu urządzenia działające na prąd stały, ( czyli np. z baterii) mogą funkcjonować również po podpięciu ich do prądu zmiennego, ( czyli z kontaktu). Obwody te działają podobnie do drzwi hotelowych (obrotowych), pozwalają na "przepływ" ludzi tylko w jednym kierunku.
  • Tworzenie sygnału - wykorzystywane są one we wszelkiego typu urządzeniach emitujących sygnały (radia, telewizory, krótkofalówki itd.). Ich działanie polega na wytwarzaniu za pomocą obwodów - generatorów - zmiennych przebiegów o różnych częstotliwościach.

Mikroprocesory - nazw pochodzi od angielskiego słowa "microprocessor", są to układy scalone wykonane w jednej z trzech technologii:

- LSI - niewielka skala zintegrowania układu, była stosowana w starego typu procesorach ośmiobitowych

- VLSI - duża skala integracji - stosowana w obecnie najczęściej używanych procesorach trzydziestodwubitowych oraz starszych szesnastobitowych

- ULSI - bardzo duża skala integracji - technologię tą stosuje się w najnowszej generacji procesorach sześćdziesięcioczterobitowych.

Dzięki procesorowi możemy cieszyć się tak wielka popularnością komputerów, ponieważ dzięki niemu możliwa była tak szybka miniaturyzacja oraz wzrost mocy obliczeniowej komputera. Ciężko wprost uwierzyć, że ten uznawany za jeden z najważniejszych wynalazków w dziejach, powstał nieco przypadkowo. Najwcześniejsze modele mikroprocesorów (stworzone przez firmę Intel) zostały przyjęte bardzo chłodno i nic nie zapowiadało późniejszej rewolucji. Obecnie najbardziej znane firmy zajmujące się budowaniem procesorów to Intel, AMD, Motorowa, produkcją zajmują się też usytuowane np. na Tajwanie ogromne laboratoria. Produkcja procesorów jest bardzo ważną częścią produkcji krajowej w państwach o wysokim stopniu rozwoju.

Od momentu gwałtownego rozwoju w produkcji oraz sprzedaży procesorów zaczęto dzielić je na 2 typy: jedno oraz wieloukładowy. Obecnie stosuje się procesory jednoukładowe to znaczy takie, które w jednym układzie scalonym mieszczą procesor, pamięć (cache) i układy odpowiedzialne za peryferia. Ze względu na ogromny rozwój informatyki oraz elektroniki komputery wyposaża się w pamięci, o co raz większych pojemnościach.

Droga rozwoju procesorów biegnie obecnie w dwie strony. Jedna to tak zwane procesory CISC, czyli oparte o złożoną listę rozkazów (z ang. Complex Instruction Set Komputer), druga to, RISC, czyli procesory o zredukowanej liście rozkazów (z ang. Reduced Instruction Set Computer). W starszego typu komputerach stosowano procesory typu CISC jednak obecnie nie stosuje się już ich pawie wcale, w użyciu są natomiast procesory CISC poszerzone o wiele funkcji dostępnych do niedawna jedynie w procesorach RISC takie jak odseparowanie szyny danych od rozkazów, dodanie przetwarzania potokowego, wbudowanie pamięci cache. Do tego typu procesorów zalicza się całą serię 80x86 Intela, oraz procesory firm AMD, Cyrix oraz seria 680x0 produkowanych przez Motorolę. Nowsze procesory Intela (czyli Pentium) oraz AMD skłaniają się coraz bardziej w stronę RISC. Typowe RISCowe procesory to AMD 29000, Intel i960, Sun SParc, MIPS R4000 oraz zbudowany wspólnymi siłami AMD oraz Intela Power PC.

Obecnie przy wyborze procesora kierujemy się najczęściej jego wydajnością (oraz oczywiście ceną) zapominając często, że czasem parametry jak stabilność, ilość wydzielanego ciepła, pobór prądu, czy odporność na wahania napięcia mają bardzo duże znacznie dla komfortu pracy z komputerem. Ważną cecha jest też używanie oprogramowania, dzięki któremu będzie można wykorzystać pełnię możliwości procesora.

3. Kilka słów na temat hypertekstu.

Wszystkie dokumenty znajdujące się w Internecie są ze sobą połączone za pomocą tak zwanych odsyłaczy (czy też linków), cała idea przechowywania wiadomości w ten sposób połączonych nosi nazwę hypertekstu. Dzięki temu użytkownik odwiedzając w Internecie jedną stronę może jednym kliknięciem myszki przenieść się do zupełnie innego dokumentu traktującego o podobnej tematyce, lub też zdjęcia czy też filmu na dany temat. Nazwy hypertekst użył po raz pierwszy w 1965 r Ted Nelson. Sama idea przechowywania danych w taki sposób została jednak zaproponowana już w 1945 roku, przez Vannevara Busha, który zaprezentował własnego pomysłu urządzenie mikrofilmowe o nazwie, memex, które działało właśnie na zasadzie hypertekstu. Od z górą trzydziestu lat trwają prace prowadzone przez Teda Nelsona nad stworzeniem systemu hypertekstowego o nazwie Xandu. Jak na razie listę wystosowanych przez niego wymagań koniecznych do zaimplementowania tego systemu spełnia system HyperWave (dawniej Hyper-G) stworzony na Politechnice w Grazu w Austrii. Najpopularniejszym obecnie systemem hypertekstowym są strony internetowe zwane też stronami WWW (World Wide Web). Sama idea usługi WWW zrodziła się w CERNie - czyli usytuowanym pod Genewą Europejskim Ośrodku Badań Jądrowych. Idea ta przerosła wszelkie oczekiwania twórców. Na dzień dzisiejszy nie można sobie wręcz wyobrazić życia bez WWW. Wiadomości na nich publikowane są przechowywane przez miliony serwerów na całym świecie, z których każdy umożliwia użytkownikowi uzyskanie informacji zapisanych bezpośrednio na nim, ale też i połączenie z innym serwerem (po przez kliknięcie na odsyłacz) w razie gdyby na aktualnie przeglądanym nie było odpowiednich wiadomości lub było ich za mało. Strony te wyświetlane są na ekranie komputera użytkownika za pomocą specjalnego oprogramowania (tak zwanych przeglądarek internetowych, z których najpopularniejsze to Opera, Mozilla Firefox oraz Internet Explorer). Za przykład niech posłuży następujące przybliżenie:

USA - kraj w Ameryce północnej, stolicą jest Waszyngton, najbardziej znane miasta to Chicago, New York, Los Angeles.

Gdyby było to zdanie zamieszczone w formie hypertekstu na stronie WWW to poszczególne słowa takie jak USA, Waszyngton, Ameryka, Chicago, New York oraz Los Angeles, odróżniałyby się od pozostałych wyrazów podkreśleniem lub innym kolorem. Użytkownik najeżdżając myszką na którekolwiek z owych wyróżnionych słów i klikając w nie zostanie przeniesiony na stronę internetową zawierającą informacje odnośnie danego tematu np. klikając w Chicago zostaniemy przeniesieni na stronę WWW tego miasta. Odsyłacze mogą odnosić się też do filmów, muzyki, zdjęć itd. Nie ograniczają się wyłącznie do tekstu. Odnośnik wskazuje interesujące nas zasoby w Internecie za pomocą adresu każdego zasobu, umieszczonego w sieci. Adres taki w skrócie URL (z ang. Uniform Resource Locator ) oznacza dosłownie jednolity adres zasobu i jest najpopularniejszym sposobem na wskazywanie położenia konkretnej wiadomości w Internecie. Idea URL zrodziła się podczas prac nad usługą WWW. Istnieje wiele typów adresów URL, najczęściej typ jest definiowany przez protokół, z jakiego dana usługa korzysta (np. http dla stron WWW, ftp dla pobierania danych z serwera, telnet dla logowania się na innym odległym komputerze itd.). Ogólnie rzecz biorąc budowa adresu URL zawsze zawiera nazwę usługi (np. http), dwukropek oraz część właściwą dla konkretnej usługi. Przykładowe adresy będą więc wyglądały następująco:

http://www.abc.pl - strona główna serwera

http://www.abc.pl/~katalog/wypracowania.htm - dokument tekstowy umieszczony w katalogu na serwerze abc

ftp://ftp.abc.pl - adres do plików znajdujących się na serwerze abc

news:pl.abc.dzisiaj - najnowsze informacje

- adres e-mail

Przeglądarki WWW stworzono tak, żeby umożliwiały użytkownikom korzystanie ze wszystkich usług oferowanych w Internecie, obsługują więc nie tylko WWW ale również FTP, NEWS , Telnet itd. Dzięki temu użytkownicy nie gubią się w mnogości oprogramowania a skupiają się jedynie na obsłudze jednego prostego programu ( jakim jest przeglądarka WWW).

Hypertekst przyczynił się ogromnie do popularności Internetu zwanego również (głównie właśnie dzięki systemowi odnośników) globalną pajęczyną. Główne zalety sieci to:

  • Szata graficzna - chodzi o to, że już na etapie projektowania Internetu, jego twórcy zawarli w protokołach, które sieć wykorzystuje możliwości przesyłania za ich pomocą nie tylko tekstu, ale też i zdjęć, muzyki czy tez filmów. Dlatego też obecnie odwiedzane przez nas strony internetowe mogą cieszyć nasze oczy animowanymi przyciskami, mrugającymi logami itd. Dysponując dobą przeglądarką WWW użytkownik ma możliwość pełnego korzystania z możliwości, jakie daje Internet.
  • Nieliniowość - użytkownik nie musi w celu przeniesienia się na konkretna, wybraną przez niego stronę przedzierać się przez skomplikowane menu, może bezpośrednio kliknąć w interesujący go odnośnik i zostanie przeniesiony w odpowiednie miejsce.
  • Interakcyjność - dzięki przeglądarkom można od razu po przeniesieniu na konkretna stronę wypełnić formularz, zapłacić rachunek w banku a nawet namalować obrazek, następuje zrewolucjonizowanie metod wykorzystywanie Internetu, które do momentu wprowadzenia WWW ograniczały się jedynie do czytania tekstu.
  • Ogromna uniwersalność WWW - chodzi tu o to, że strony internetowe oraz występujące na nich odnośniki nie ograniczają użytkownika jedynie do przeglądania tekstu. Dzięki nim użytkownik ma możliwość przeniesienia a się na stronę zawierającą film, zdjęcia czy tez muzykę a nawet trafić na telekonferencję na jakiś temat.

To, że Internet zdobywa ogromną popularność nie ulega wątpliwości za ciekawostkę niech posłużą dane z roku, 1996 kiedy to odnotowano wzrost aktywności serwerów internetowych o 197%, nadmienię tylko, ze w 1993 roku wzrost był ponad 400%!!! Jednym z najważniejszych podwodów tego wzrostu było właśnie rozpoczęcie przedstawiania stron WWW w postaci graficznej, co zaowocowało ogromnym u ułatwieniem zasad korzystania z Internetu.

4. Pecet

Komputerem nazywamy skomplikowane urządzenie elektroniczne wykonujące operacje arytmetyczne.

Budowę komputera można usystematyzować na trzy zasadnicze grupy podzespołów:

  • Podzespoły bazowe - do których należy procesor, pamięć oraz zegar odpowiadający za wykonywanie cykli przez procesor komputera.
  • Peryferia - czyli urządzenia, dzięki którym możemy komunikować się z komputerem (myszka, monitor, klawiatura, tablet itd.)
  • Urządzenia dopełniające - dyski twarde, kości pamięci, karty sieciowe, telewizyjne, modemy itd.

Najważniejsze podzespoły, z których skalda się komputer to:

Procesor - jest główną częścią komputera (nazywany jego jednostką centralną), składa się z niezwykle skomplikowanego układu elektronicznego. Jego zadaniem jest wykonywanie operacji. Na jego budowę składają się:

  • ALU, czyli jednostka arytmetyczno logiczna
  • Oraz jednostka zajmująca się sterowaniem innymi urządzeniami (tzw. szyna rozkazów)
  • Jak również pamięć podręczna procesora (tzw. Cache)

Procesor jest pełną jednostką komputerową umieszczoną w pojedynczym układzie scalonym.

Pionierem w budowaniu procesorów jest firma Intel, która w 1971 r zaprezentowała światu pierwszy działający mikroprocesor. Na rynku producentów procesorów do komputerów PC dużą renomę zdobyła też firma AMD. Motorowa natomiast zajmuje się produkowaniem procesorów dla komputerów Macintosh. Wynalezienie procesora zrewolucjonizowało budowę wszystkich urządzeń elektronicznych i elektrycznych począwszy od pralek i mikrofalówek a na promach kosmicznych skończywszy.

Wszystkie jednostki procesora pracują we wspólnym rytmie, opartym o zegar procesora. Zegar jest rodzajem metronomu, który synchronizuje prace wszystkich podzespołów. Prędkość zegara jest podawana w megahercach (MHz), czyli milionach cykli na sekundę. Dla przykładu, zegar procesora Power PC G4 733 MHz "tyka" 733 miliony razy na sekundę.

Wiele problemów pojawiło się podczas przełomu między latami 1999 a 2000. Było to związane z tak zwaną bomba milenijną. Polegała ona na tym, że większość biosów w płytach głównych wyświetlało datę w formie dwucyfrowej tzn dla roku 1999 wyświetlane było jedynie 99) i przejście do roku 2000 oznaczałoby wyświetleni przez biosy płyt głównych daty roku, jako 00 czyli dla komputera nastąpiłoby cofnięcie się w czasie o 100 lat do roku 1900 gdyby tak się stało, wiele programów mogło przestać działać (chodziło głównie o programy księgowe, zabezpieczeniowe itd.) Ostatecznie jednak zmiana daty sprawiła problemy jedynie w bardzo niewielkim stopniu.

Pamięci - Do zadań pamięci należy składowanie informacji oraz oprogramowania. Rozróżnia się dwa główne rodzaje pamięci:

  • Pamięć wewnętrzna - bezpośrednio wykorzystywana przez procesor podczas wykonywana przez niego operacji. Procesor może komunikować się z nią w sposób bezpośredni dzięki tak zwanym adresom pamięci ( stąd też potoczna nazwa tej pamięci - pamięć bezpośrednia). Do tego typu pamięci można zaliczyć zarówno pamięci RAM jak i ROM. Ram jest to bardzo szybka pamięć współpracująca z procesorem, z której można odczytywać oraz do której można zapisywać dane, jednak jej właściwości ograniczają przechowywanie w niej wiadomości do czasu, gdy komputer jest włączony. Po wyłączeniu komputera wszystkie dane w niej zapisane znikają. ROM jest pamięcią tylko do odczytu, to znaczy raz zapisane w niej (najczęściej przez twórców danego podzespołu) dane nie mogą ulec nadpisaniu (pamięć tą stosuje się np. do zapisania BIOSu na płytach głównych).
  • Do pamięci zewnętrznej można natomiast zaliczyć wszelkiego typu dyski twarde, jest to po prostu nielotna pamięć o wolniejszym działaniu niż RAM mająca za zadanie przechowywanie dużej liczby danych.

Pamięć operacyjna ma bardzo duże znaczenie dla wydajności komputera, ponieważ to w niej przechowywane są dane, na których procesor aktualnie pracuje (musi to więc być pamięć bezpośredniego dostępu). Pamięć operacyjna nie jest pamięcią trwałą, znika po wyłączeniu komputera.

Pamięci wewnętrzne znajdują się pod postacią układów scalonych lub też tak zwanych kości pamięci. Natomiast pamięci wewnętrzne to wszelkiego typu dyski, płyty DVD itd.

Oto obecne najczęstsze rozmiary stosowanych poszczególnych pamięci:

  • W przypadku pamięci operacyjnych: 256, 512, 1024, 2048 MB
  • Pojemności dysków twardych: 40 GB, 80 GB, 160 GB, 200 GB, 400 GB
  • Pojemność dyskietki (1,44 MB) nie zmienia się od lat jednak dyskietek praktycznie się już nie używa, ponieważ płyty CD oraz DVD są tańsze, pojemniejsze i o wiele bardziej trwałe.
  • Płyta CD - najczęściej używana obecnie forma przenoszenie danych - pojemność 650, 700, 800 MB
  • DVD - podobnie jak CD zdobywa coraz szersze uznanie ze względu na znaczny spadek cen nagrywarek - pojemność 4,6 GB aż do nawet 17 GB (w przypadku dwuwarstwowych).

Monitory są kolejnymi urządzeniami, bez których nie sposób się obejść korzystając z komputera. Wysyłane z komputera sygnały przetwarzane przez kartę graficzną są prezentowane użytkownikowi na ekranie. Dla wygody pracy dość ważna jest rozdzielczość oraz prędkość odświeżania wyświetlanego obrazu. Na zwykłych monitorach (CRT) za standard przyjmuje się obecnie rozdzielczość 1024x768 pikseli przy odświeżaniu, co najmniej 80 Hz. Rozdzielczość ekranu informuje nas ile pikseli mieści się na ekranie komputera (oczywiście im więcej tym lepiej bo obraz może być dzięki temu dokładniejszy), zazwyczaj wysokie rozdzielczości 1200x1024 czy 1600x1200 stosuje się przy dużych monitorach. W przypadku komputerów niestacjonarnych (typu laptop czy notebook) monitor jest integralną częścią komputera, jest on zainstalowany w formie wyświetlacza ciekłokrystalicznego (LCD) posiadającego o wiele mniejszą wagę oraz niższe zużycie prądu, co jest bardzo ważne w przypadku komputerów przenośnych, które gdy nie są podłączone do prądu muszą pobierać energię z baterii.

Klawiatura - za jej pomocą użytkownik ma możliwość wprowadzania znaków do komputera jak również uruchamiania oraz obsługiwania programów. Wszystkie stosowane obecnie klawiatury mają układ QWERTY (nazwa pochodzi od pierwszych liter znajdujących się w najwyższym rzędzie klawiatury). Wszystkie klawisze (najczęściej jest ich 104 choć ostatnio pojawiły się tez klawiatury z całą gamą dodatkowych przycisków multimedialnych) podzielić można na trzy zasadnicze działy:

  • Klawisze sterujące - cztery klawisze ze strzałkami
  • Klawisze funkcyjne - czyli te oznaczone od F1 aż do F12
  • Klawiatura numeryczna - po prawej stronie
  • Klawisze specjalne, czyli:
  • - Alt - najczęściej stosowany do uzyskania polskiej litery podczas pisania w edytorze tekstów, stosuje się go tez w kombinacji Ctrl Alt Delete do tak zwanego "ciepłego" resetu komputera bądź wywołania ekranu logowania (np. w niektórych odmianach Linuxa)
  • - Backspace - jego naciśnięcie jest równoznaczne ze zmazaniem znaku znajdującego się najbliżej z lewej strony kursora oraz przesunięcie kursora w miejsce tego znaku.
  • - Break - najprościej mówiąc pauza, często dzięki temu klawiszowi można zatrzymać i odczytać szybko przelatujące po ekranie informacje.
  • - Caps Lock - po wciśnięciu tego klawisza na klawiaturze zapala się lampka informująca, że wszystkie litery będą pisane jako duże. Ponowne naciśnięcie klawisza przywraca poprzedni sposób pisania liter.
  • - Ctrl (Control) - klawisza używa się bardzo często w tak zwanych skrótach klawiszowych, najpopularniejszy to Ctrl C oraz Ctrl V oznaczający odpowiednio kopiowanie oraz wklejanie. Ponad to klawisza tego używa się we wspomnianym powyżej "ciepłym" resecie.
  • - Delete, Del - Oba klawisze mają dokładnie o samo działanie - kasują znaki. Funkcjonują podobnie jak Backspace z tą różnica, że kasują znak występujący przed kursorem. Są też wykorzystywane przy opisywanym wyżej "ciepłym" resecie.
  • - End - po jego naciśnięciu kursor zostaje przesunięty na koniec wiersza
  • - Enter - używa się go do potwierdzania wszelkiego typu akcji. W edytorze tekstowym wykorzystuje się go do przejścia do nowego akapitu.
  • - Esc (Escape) - naciśnięcie tego klawisza wiąże się z opuszczeniem programu, bądź też z odrzuceniem jakiejś akcji. Podczas korzystania z systemu operacyjnego Windows klawisz ten działa tak jak skrót klawiszowy lewy ALT F4
  • - Home - naciśnięcie tego klawisza sprawi, że kursor zostanie przesunięty do początku wiersza.
  • - Insert, Ins - polega na zmienia trybu wstawiania znaków, służy również do zaznaczania plików np. w Windows commanderze
  • - Num Lock - służy do aktywowania klawiatury numerycznej (tej po prawej stronie)
  • - Page Down, PgDn; Page Up, PgUp - naciśnięcie tych klawiszy spowoduje odpowiednio umieszczenie kursora na końcu lub też na początku strony.
  • - Print Screen (PrtSc) - Po naciśnięciu go cała zawartość ekranu jest kopiowana do podręcznego schowka, można ją zobaczyć np. w programie Paint używając opcji edycja→wklej.
  • - Shift - naciśnięcie i przytrzymanie go podczas pisania powoduje wyświetlanie dużych liter.
  • - Tab - stosuje się go do przełączania między kolumnami w tabeli, rubrykami w formularzu oraz robienia wcięć w tekście podczas korzystania z edytora tekstowego..

Myszka - jest to podobnie jak klawiatura podstawowe urządzenie do komunikowania się użytkownika z komputerem. Przeważnie każda myszka posiada, co najmniej 2 klawisze (lewy i prawy) coraz częściej zdarzają się jednak myszki multimedialne wyposażone w 5, 7 a czasem nawet więcej klawiszy oraz rolek. Dzięki ruszaniu myszką na ekranie komputera przesuwa się wskaźnik ( najczęściej przedstawiany w formie strzałki). Po najechaniu nim na wybraną przez nas opcję lub program, trzeba 2 razy szybko wcisnąć lewy klawisz myszki żeby ów program uruchomić (w niektórych programach wystarczy 1 kliknięcie). Myszka to obecnie najpopularniejsze urządzenie do komunikowania się z komputerem, właściwie można obyć się bez klawiatury (o ile oczywiście nie jesteśmy zmuszeni do pisania) i dzięki samej tylko myszce można buszować po Internecie, rysować, itd. Stosując do tego samego celu jedynie klawiaturę trzeba by się bardzo namęczyć (w przypadku rysowania jest to wręcz niemożliwe). Dlatego bardzo ważne jest żeby przy wyborze myszki zwrócić uwagę na jej kształt, oraz wykonanie, gdyż właśnie z niej będziemy korzystać najczęściej. Starsze myszki działały na zasadzie kulki, która podczas poruszania myszą po podłożu kręciła specjalnymi rolkami powodując ruch kursora po ekranie. Było to rozwiązanie bardzo proste, ale dość kłopotliwe, zwłaszcza w przypadku próby precyzyjnego narysowania czegoś w programie graficznym (wystarczył najmniejszy okruszek na biurku, czy nawet włos i kulka potrafiła podskoczyć powodując tym samym narysowanie krzywej kreski). Dodatkowo fakt posiadania myszki z kulką wiązał się nieodzownie z ciągłym czyszczeniem rolek, które nieustannie brudziły się zbieranymi mikro zanieczyszczeniami i przez to myszka nie funkcjonowała poprawnie. Dlatego też z ulgą powitałem wprowadzenie do sprzedaży myszy optycznych, w których kłopotliwa kulka została zastąpiona przez rodzaj miniaturowego skanera, który za pomocą lasera skanuje powierzchnię, po której myszka się porusza i przesuwa odpowiednio kursor.

Drukarka jest urządzeniem, za pomocą, którego możemy przenieść na papier lub folię teksty oraz grafikę. Rozróżnia się dwa typy wydruku: czarno biały, (czyli zdjęcie drukowane jest w odcieniach szarości) oraz kolorowe, czyli odwzorowana jest pełna gama barw. Drukowanie zazwyczaj następuje po naciśnięciu symbolu drukarki. Często możliwe jest też zobaczenie podglądu dokumentu po naciśnięciu ikony podglądu (mała lupka).

Wyróżniamy następujące typy drukarek:

  • Igłowe (najczęściej stosowane do drukowania faktur w sklepach)
  • Atramentowe - tanie i oferujące dość dobrą jakość wydruku dzięki czemu są bardzo często kupowane do zastosowań domowych
  • Laserowe - oferują świetną jakość oraz szybkość wydruku jednak ich koszt (zarówno zakupu jak i eksploatowania) powoduje, że najczęściej mogą sobie na nie pozwolić jedynie firmy.

Za obsługę drukowania odpowiada w komputerze program zwany spoolerem. Jego działanie sprowadza się do pobierania plików dedykowanych przez system do drukowania przesyłaniu ich do drukarki oraz umożliwieniu dalszej pracy komputerowi niezależnie od postępu drukowania.

Poza wyżej wymienionym podziałem drukarek, maszyny te można również podzielić ze względu na sposób w jaki dokonują one drukowania na:

  • Uderzeniowe - czyli takie, które do wydrukowania znaku na papierze muszą uderzyć papier poprzez taśmę z tuszem (na tej zasadzie działają drukarki wierszowe, igłowe oraz rozetkowe), wykorzystuje się je w przypadku drukowania dokumentu wraz z kopią (pod kartkę podkładana jest kalka)
  • Nieuderzeniowe - czyli takie gdzie podczas drukowania nie następuje uderzenie o papier (drukarki laserowe i atramentowe)

Skaner - dzięki temu urządzeniu użytkownik może przekazać do komputera zdjęcia lub teksty. Działanie skanera polega na zamienieniu grafiki lub tekstu, które skanujemy do postaci pliku na komputerze. Istnieje również możliwość edytowania zeskanowanego tekstu, gdyż dzięki programom OCR tekst jest przesyłany nie jako zdjęcie, lecz jako ciąg znaków bezpośrednio do edytora tekstu. Wyróżnia się dwa typy skanerów: ręczny (wygląda jak wałek do malowania) skanery tego typu były, co prawda tanie, ale dość mało dokładne, dlatego już się ich nie stosuje. Drugi typ skanerów to skanery stołowe (działające dokładnie tak jak maszyna ksero) kładziemy kartkę na skanerze, naciskamy przycisk, laser sczytuje obraz i przesyła go do komputera. Spadek cen części komputerowych spowodował, że jest to bardzo popularne narzędzie domowe.

Karta sieciowa - jest podstawowym obecnie łącznikiem naszego komputera ze światem zewnętrznym. Dzięki karcie sieciowej możemy podłączyć nasz komputer do sieci osiedlowej, i Internetu.

Modem - umożliwia łączenie się z Internetem przy wykorzystaniu łącza telefonicznego. Kiedyś był bardzo popularny, dzisiaj praktycznie się go już nie używa ze względu na ogólną dostępność Internetu przez sieci lokalne oraz niskich prędkości przesyłu danych przez modemy.

Karta dźwiękowa - nazywana również często kartą muzyczną, pozwala na zamienienie komputera w sprzęt audio. Dzięki karcie dźwiękowej możemy odtwarzać na naszym komputerze muzykę oraz wszelkiego typu inne dźwięki. Najczęściej do karty dźwiękowej podpina się głośniki komputerowe lub słuchawki. Można również dopiąć dodatkowe urządzenia pozwalające na bardziej profesjonalną obróbkę dźwięku. Jedne z najpopularniejszych kart dźwiękowych tworzy firma SoundBlaster, jednak obecnie standardem jest już wbudowywanie tej karty w płytę główną, tak, więc kupując płytę główną dla naszego komputera jesteśmy już wyposażeni w kartę dźwiękową.

5. Stworzenie Internetu

Internetem najprościej zdefiniować jako ogromną sieć komputerową stworzoną z milionów innych sieci skupiających dziesiątki milionów komputerów. Sam pomysł takiej globalnej sieci zrodził się w latach sześćdziesiątych w USA. Z początku był to jedynie projekt wojskowy udostępniony do testów naukowcom z kilku uniwersytetów. Pieniądze na przeprowadzenie projektu zaoferowała Agencja do spraw Zaawansowanych Przedsięwzięć Badawczych Departamentu Obrony USA ( z ang. (Advanced Research Projects Agency of the US Departament of Defence). Stąd pierwsza wersja Internetu nosiła nazwę ARPANET. Gdy w latach siedemdziesiątych ustandaryzowano sposoby przesyłania danych (zestaw protokołów TCP/IP) oraz zaprojektowano usługi umożliwiające efektywne korzystanie z sieci Internet stał się najczęściej wykorzystywanym sposobem komunikacji.

Jedną z przyczyn tak szybkiego rozwoju globalnej sieci było zaimplementowanie standardów protokołu TCP/IP bezpośrednio w jądro systemu Unix w odmianie BSD (nazwa pochodzi od uniwersytetu w Berkeley gdzie system ten zaprojektowano). Z tego systemu zaczęło korzystać wiele uczelni wyższych w USA, co owocowało coraz większą liczbą osób korzystających z sieci Internet. W 1983 roku podzielono ARPANET na sieć wojskową MILNET oraz cywilną NSFNET. Nad częścią cywilną zarząd objęła fundacja National Science Foundation, która walnie przyczyniła się do możliwości podłączania do Internetu komputerów spoza granic USA, ponieważ sfinansowała projekt wymiany tak zwanego rdzenia, (po którym przesyłane były dane) na szybszy i bardziej wydajny. Bogactwo płynące z możliwości, jakie daje Internet stało się dostępne dla wszystkich. Sieć Internet oparta jest na ściśle hierarchicznej strukturze. Sieci podzielone są na podsieci, te na jeszcze mniejsze podsieci i tak dalej. Komunikację między komputerami oraz sieciami umożliwiają routery. Internet nie posiada obecnie żadnej centralnej władzy, która by nim zarządzała, chociaż obecnie do sieci podłączonych jest ponad 160 państw z całego świata. Dziąki temu otwarły się przed użytkownikami ogromne możliwości chociażby wymiany poczty elektronicznej, która kiedyś ograniczała się jedynie do jednego budynku czy wręcz pokoju, teraz dzięki Internetowi wiadomości można przesyłać z każdego zakątka świata. Ponad to dzięki usługom WWW, FTP, GOPHER i innym można uzyskać dostęp do praktycznie nieograniczonych informacji na każdy temat. Dzięki temu każdy może zgłębiać wiedzę na dowolne tematy, oglądać filmy, zdjęcia, słuchać muzyki, zwiedzać poprzez Internet muzea, galerie itd. Dodatkowo każdy może zasięgnąć porady odnośnie nurtującego go tematu w grupie dyskusyjnej, pooglądać oferty produktów w sklepach internetowych, zrobić zakupy, zapłacić rachunki, a wszystko to nie ruszając się sprzed komputera. Główną zaletą tego rozwiązania jest fakt, iż jest ono darmowe.

Obecna ekspansja Internetu spowodowała, że korzystają z niego już nie tylko zapaleńcy, naukowcy oraz maniacy komputerowi, ale i zwykli ludzie a nawet dzieci. Przy czym nie ma znaczenia wykształcenie, znajomość komputera ani wiek użytkownika. Internet zaprojektowano w taki sposób, aby korzystać mogły niego osoby nie mające pojęcia na temat obchodzenia się z komputerem. Globalną sieć wykorzystuje codziennie miliony osób na bardzo wiele sposobów. Począwszy od zwykłej komunikacji, prywatnych pogaduszek poprzez płacenie rachunków, czytanie najnowszych wiadomości z kraju i świata, sprawdzanie pogody do prowadzenia w Internecie całych firm, sklepów itd. Uczniowie korzystają z Internetu pisząc zadania domowe naukowcy publikują wyniki swych badań oraz dyskutują na różne tematy, maklerzy giełdowi śledzą kursy walut, analizy, prognozy, porównują wahania akcji z innymi giełdami na całym świecie. Poza wyszukiwaniem informacji Internet oferuje tez ogromne możliwości rozrywki. Gry prowadzone przez Internet z innymi użytkownikami z całego świata skupiają codziennie przed komputerami setki tysięcy ludzi. Za pomocą sieci można też na przykład poznać przyjaciół czy umówić się na randkę. Widać z tego, że Internet jest medium najszybciej się rozwijającym, bo oferującym korzyści dla wszystkich.

Obecnie nie dysponuję aktualnymi danymi, ale na rok 1995 zanotowano ponad 5,8 miliona komputerów tak zwanych serwerów, do których podpięte są mniejsze sieci komputerowe. Można więc na tej podstawie wnioskować, że w 1995 roku było na świecie ok. 60 000 000 komputerów podpiętych do sieci, a co roku notuje się ok. 190%-owy wzrost podpinanych komputerów.

Poniżej chciałbym przedstawić najważniejsze daty związane z projektem oraz powstaniem Internetu:

  • Rok 1940 - projekty Vanevara Bucha na temat MEMEXa - gigantycznego komputera, który miał pomieścić niewyobrażalnie dużą ilość danych. MEMEX miał być wyposażony w pierwowzór hypertekstu, który miał funkcjonować jako ścieżki łączące konkretne dane.
  • 1965 Ted Nelson definiuje pojęcie Hypertext
  • 1969 - powstaje pierwsza sieć informatyczna ARPANET - zaprojektowana na zamówienie sił zbrojnych USA na wypadek wojny.
  • 1979 - zaprojektowano podstawowe usługi wykorzystywane do dzisiaj w Internecie (WWW, e-mail, FTP)
  • 1981 - Wydana zostaje książka Teda Nelsona, który przedstawia w niej pomysł budowy gigantycznego dokumentu, który składałby się z części rozmieszczonych na serwerach rozlokowanych na całym świecie i połączonych ze sobą siecią. To w tej książce po raz pierwszy zdefiniowane zostały pojęcia linku, łącza i inne.
  • 1983 - Następuje podział ARPANETU na MILNET oraz cywilny NSFNET (pierwowzór Internetu)
  • 1989 - Tim Barnes-Lee publikuje pracę "Information Management: A Proposal", w która zawiera teorię WWW.
  • 1990 - powstaje pierwszy program do oglądania stron internetowych (pierwsza przeglądarka WWW)