1. Omówienie historii oraz podstawowych komponentów, dzięki którym Internet funkcjonuje.

Powszechnie określany nazwą "pajęczyny" lub "sieci globalnej" Internet udostępnia swoim użytkownikom ogromną liczbę ciągle rozwijających się usług. Najbardziej znaną z nich jest z całą pewnością WWW (skrót pochodzi od angielskiego World Wide Web).

Sam pomysł WWW zrodził się wśród szwajcarskich naukowców pracujących w Europejskim Laboratorium Fizyki Cząsteczek (CERN). WWW jest obecnie najpopularniejszą formą prezentowania informacji w sieci Internet. Stało się tak dzięki możliwości publikowania za pomocą WWW nie tylko tekstu, ale również, dźwięków, filmów, zdjęć itd. Usługa ta ogólnie rzecz biorąc oferuje dostęp do prawie, że nieograniczonego zbioru informacji (w formie tekstów, zdjęć, filmów, plików dźwiękowych) na wszystkie możliwe tematy. Nawigacja po stronach WWW polega na klikaniu myszką w interesujące nas, zaznaczone odpowiednio słowa lub obrazki (są to tak zwane odnośniki). Każdy odnośnik (zwany także hypertextem) jak sama nazwa wskazuje, jest połączony z konkretną stroną w sieci (odnosi się do niej), na której umieszczone są kolejne informacje, zdjęcia, filmy oraz kolejne odnośniki do innych stron WWW. Obsługa stron WWW, dzięki swojemu graficznemu interfejsowi jest na tyle prosta, że każdy (nawet osoba nieznająca zasad obsługi komputera) przy odrobinie dobrej woli i cierpliwości będzie w stanie korzystając z odnośników (inaczej zwanych też URL) wyszukać potrzebne wiadomości. Żeby mieć możliwość korzystanie z pełnego dobrodziejstwa stron WWW potrzebny jest oczywiście komputer podłączony do sieci Internet oraz tak zwana przeglądarka internetowa (program, za pomocą, którego strony WWW będą wyświetlane na naszym komputerze). Do najpopularniejszych przeglądarek internetowych należą obecnie Internet Explorer (jest wbudowany w system operacyjny Windows), Mozilla Firefox (w pełni darmowa) i Opera (również udostępniana bezpłatnie).

  1. Usługi pocztowe (e-mail)

Nazwa tej usługi, jak większość nazw związanych z informatyką pochodzi z języka angielskiego (Electronic Mail) i tłumaczy się ja jako poczta elektroniczna. Dla dużej grupy osób, właśnie usługa e-mail jest impulsem żeby podpiąć swój komputer do globalnej pajęczyny. Dzięki poczcie elektronicznej użytkownicy mogą wymieniać między sobą wiadomości zawierające nie tylko tekst, ale również niewielkie pliki (zdjęcia, muzyka w formacie mp3 itp.) Dodatkowo dotarcie takiego listu elektronicznego do nadawcy zajmuje zwykle nie dłużej niż kilka minut. Wszyscy korzystający z Internetu mają możliwość stworzenia sobie dowolnej ilości adresów pocztowych, (czyli stworzenia kont pocztowych, zarówno darmowych jak i płatnych). Oprogramowanie zajmujące się obsługą usługi e-mail zajmuje się wszystkimi aspektami związanymi z adresowaniem oraz dostarczaniem wysyłanych przez nas wiadomości. Po upływie kilku minut od nadania przesyłki jest ona odbierana przez serwer, na którym znajduje się konto pocztowe osoby, do której przesyłka została wysłana. Wiadomość czeka na serwerze aż jej adresat odczyta ją bądź skasuje, (np. gdy uzna, że nie warto jej czytać). Jak już wspomniałem wyżej, stworzenie sobie adresu internetowego wiąże się z otrzymaniem konta (czyli pewnej ilości miejsca na dysku) ma serwerze firmy, która oferuje usługę pocztową. Adres składa się z kilku części, z których pierwszą część mamy możliwość wybrać sobie samodzielnie (oczywiście pod warunkiem, że dana nazwa jest wolna). Drugą częścią adresu jest tak zwana "małpa", czyli znak @ natomiast część trzecia to nazwa usługodawcy, na którego serwerze założyliśmy nasze konto. Część czwartą stanowi najczęściej, dwuliterowe oznaczenie kraju (przykładowy adres e-mail będzie, więc wyglądał na przykład tak: ). Wysyłając wiadomość na adres poczty elektronicznej, może ją odebrać tylko i wyłącznie właściciel danego adresu. Jeżeli natomiast zależy nam na wysłaniu tego samego listu do większego grona ludzi powinniśmy przygotować tak zwaną listę mailową, zawierającą zbiór adresów osób, które otrzymają naszą wiadomość.

  1. CO TO JEST USENET?

Działanie USENETu, czyli tak zwanych grup dyskusyjnych jest podobne do usługi

e-mail jednak opiera się na założeniu, że napisana przez nas wiadomość może być przeczytana przez wszystkich użytkowników konkretnej grupy dyskusyjnej (często osób będących członkami takiej grupy jest kilkaset tysięcy), którzy maja możliwość dopisywania do niej swoich odpowiedzi. Grup dyskusyjnych poruszających najrozmaitsze zagadnienia są oczywiście miliony, dodatkowo każda z grup zawiera swoje podgrupy (np. grupa dyskusyjna miłośników UFO oraz obcych o nazwie alt.aliens-visitors posiada ok. 100 podgrup, na których toczą się dyskusje na wyszczególnione tematy z UFO związane). Dzięki temu tworzą się ogromne archiwa dyskusji na wszystkie możliwe tematy począwszy od opisywania problemu zakupu czy naprawy pralki na rozwiązywaniu problemów małżeńskich skończywszy. Każdy uczestnik grupy dyskusyjnej ma możliwość wysyłania wiadomości publicznej, która będzie odebrana przez wszystkich członków grupy, bądź też wiadomości prywatnej skierowanej tylko do konkretnego użytkownika grupy. Grupy dyskusyjne nie pełnią oczywiście jedynie funkcji prywatnej, bardzo często w ramach USENETu przeprowadzane są poważne debaty na różnych szczeblach.

Aby móc używać USENETu trzeba zaopatrzyć się w odpowiednie oprogramowanie (wbudowany w system operacyjny Windows program Outlook express wystarcza do tego celu w zupełności).

  1. KILKA SŁÓW NA TEMAT USŁUGI FTP

Usługa FTP, której nazwa wywodzi się od angielskiego "File Transfer Protocol" umożliwia użytkownikom szybką wymianę danych między oddalonymi od siebie komputerami. Precyzując tą definicję FTP pozwala użytkownikom na wysłanie plików (filmów, zdjęć, muzyki) ze swojego komputera na serwer i pobranie tych plików przez innych użytkowników z całego świata. Istnieje też możliwość udostępnienia zasobów naszego komputera w taki sposób, żeby inni użytkownicy globalnej pajęczyny mogli pobierać dane bezpośrednio z niego. Dzięki temu można bezpłatnie pobierać z Internetu bardzo wiele programów. Oczywiście żeby móc korzystać z usługi FTP również będziemy musieli zaopatrzyć się w stosowne oprogramowanie. (Najczęściej będzie to Total Commander, prosty klient FTP jest również wbudowany w najnowsze wersje przeglądarek internetowych). Pliki kopiujemy najczęściej za pomocą kliknięcia myszką w odpowiednim miejscu (bądź tak jak w przypadku Total Commandera naciśnięcia klawisza F5).

  1. ZASADY DZIAŁANIA TELNETu

Ten bardzo sprytny programik, został wymyślony by ułatwić użytkownikom (ciut bardziej zaawansowanym) pracę w sieci. Jego działanie opiera się na umożliwieniu wykonywania operacji na odległym, komputerze z naszego komputera. Może brzmi to trochę dziwnie, więc już wyjaśniam, o co chodzi. Dzięki telnetowi mamy możliwość siedząc w domu przy naszym komputerze załogować się na przykład na komputer znajdujący się na Massachusetts Institute of Technology i wykonywać obliczeń na tym komputerze tak jakbyśmy przy nim siedzieli. Telnet umożliwia też oczywiście połączenie się z Internetem. Jedynym minusem dla początkującego użytkownika telnetu jest fakt wykorzystywania przez niego jedynie środowiska tekstowego oraz stosowania pewnych procedur zaczerpniętych z systemu UNIX, których trzeba się nauczyć.

  1. KANAŁY IRC

Zasada działania IRC jest bardzo podobna do USENETu z tą jednak różnicą, że dyskusja odbywa się tu w czasie rzeczywistym ("na żywo"). Użytkownik pisze w oknie specjalnego programu wiadomość, program wyświetla ją na ekranach komputerów wszystkich użytkowników podłączonych do tego samego kanału IRC a oni odpisują to, co uważają za stosowne i w ten sposób toczy się rozmowa. Kanał można porównać do konkretnej grupy dyskusyjnej o danej tematyce np. kanał Krakow zawiera rozmowy mieszkańców Krakowa itd. Przystępując do dyskusji na kanale IRC musimy się do niego załogować podając swój pseudonim zależny tylko i wyłącznie od naszej inwencji twórczej. Inni użytkownicy dyskusji nie mają możliwości sprawdzić, kto kryje się, pod jakim pseudonimem a co za tym idzie odkryć naszych prawdziwych personaliów. Do prowadzenia dyskusji za pomocą IRCa konieczne jest również odpowiednie oprogramowanie.

  1. EWOLUCJA MULTIMEDIALNA STRON WWW

Do niedawna jeszcze witryny internetowe zawierały jedynie tekst uzupełniany niewielką ilością zdjęć. W miarę wzrostu przepustowości łącz internetowych oraz możliwości przeglądarek internetowych, strony WWW zaczęły obfitować we wszelkiego typu multimedialne dodatki taki jak muzyka w tle, animowana reklama, czy nawet gry komputerowe, w które gra się bezpośrednio na stronie internetowej.

  1. GRY KOMPUTEROWE A INTERNET

Ogromną zaletą Internetu, którą błogosławi każdy zapalony gracz jest możliwość prowadzenia rozgrywki w czasie rzeczywistym z innymi ludźmi z całego świata. Wspólne podboje, ataki akcje odbijania zakładników walki różnych stronnictw dają graczowi ogromną frajdę. Dodatkowo Internet umożliwia pobieranie dodatków do już posiadanych gier jak również solucji, (czyli opisów jak grać) oraz kodów, które stanowią ułatwienie dla mniej cierpliwych graczy.

  1. USŁUGI ON-LINE

Obecnie nie są już tak popularne jak kiedyś ze względu ogromnej dostępności WWW w dzisiejszych czasach. Jednak jeszcze do niedawna wielu użytkowników stawało się abonentami sieci on-line. Usługi te umożliwiały oferowanie abonentom pewnych grupy informacji (np. oferty motoryzacyjne, dane giełdowe, porady finansowe itd.), które były odpłatne. Po dokonaniu stosownej opłaty stajemy się abonentem danego serwisu internetowego i możemy otrzymywać na bieżąco dane przezeń oferowane. Dane są udostępniane tylko osobom, które wykupiły abonament, pozostali użytkownicy Internetu nie mają możliwości zobaczenia ta tych konkretnych stronach WWW, (ale nie oznacza to oczywiście, że nie mogą poszukać tych danych gdzie indziej na własną rękę). Dodatkowym atutem bycia abonentem jakiegoś serwisu jest możliwość komunikacji z innymi abonentami danego serwisu oraz jest możliwość dokonywania zakupów przez abonentów w specjalnych sklepach internetowych czy też granie w gry poprzez sieć.

  1. OPIS ROZWOJU GLOBALNEJ PAJĘCZYNY

Przeciętny użytkownik Internetu nie zdaje sobie sprawy jak głębokie korzenie ma idea sieci globalnej. Wszystko zaczęło się przed około trzydziestu siedmiu lat temu, gdy 1 września od zainstalowania na Uniwersytecie Kalifornijskim prototypową, wojskową sieć informatyczną o nazwie ARPANET. W niedługim czasie do ARPANETu podpięto jeszcze trzy kolejne uniwersytety. Nazwa sieci pochodziła od nazwy agencji wojskowej, która finansowała oraz koordynowała projekt (Advanced Research Project Agency). Celem projektu było sprawdzenie czy da się stworzyć rozległą sieć komputerową, która nie będzie zcentralizowana oraz będzie mogła działać poprawnie nawet w przypadku uszkodzenia niektórych jej fragmentów. Wyniki eksperymentu były niezmiernie ważne, ponieważ jak dotąd, każda sieć komputerowa była obsługiwana dzięki jednemu centralnemu komputerowi. W przypadku jego uszkodzenia, cała sieć przestawała działać. Dlatego też w czasie wojny sieć oparta na tego typu założeniach nie miała prawa bytu, ponieważ oczywistym jest fakt, że wszystkie ataki wroga skupiałyby się na wyłączeniu owego komputera z działania. Dlatego też dowództwo główne sił zbrojnych zdecydowało się na przeprowadzenie eksperymentu z wykorzystaniem sieci informatycznej o strukturze rozproszonej (koncepcję rozproszoną stworzyli naukowcy z RAND Corporation - zajmujący się przeprowadzaniem badań dla wojska). Przez kolejne dwa lata trwały prace nad rozbudowywaniem sieci, jednocześnie dołączano do prac coraz więcej ekip naukowców. Wtedy też powstały pierwsze projekty programów obsługujących oraz wykorzystujących możliwości tego typu sieci informatycznej. Do pierwszych sukcesów trzeba na pewno zaliczyć udane wykorzystanie możliwości podłączenia się do komputerów wpiętych do innych sieci i wykonywanie na nich obliczeń. Prace nad tymi projektami zaowocowały zaprojektowaniem w roku 1971 pierwszego w pełni funkcjonalnego programu do obsługi poczty elektronicznej. Dało to wszystkim ekipom naukowców pracujących nad siecią możliwość komunikowania się nie tylko w sprawach zawodowych, ale również prywatnych. Można powiedzieć, że byli oni przodkami dzisiejszych społeczności internetowych. W roku 1972 w Waszyngtonie na międzynarodowej konferencji poświęconej łączności komputerowej, zaprezentowano ARPANET po raz pierwszy. Projekt wzbudził ogromne zainteresowanie naukowców z USA oraz zagranicy, którzy zadeklarowali swoja pomoc przy projekcie. Powołano specjalną grupę roboczą mającą się zajmować sprawami sieci (International Network Working Group). Oczywiście Amerykanie dołączyli również do prac nad projektem naukowców z zagranicy. Już rok później zaowocowało to podpięciem do sieci Wielkiej Brytanii oraz Norwegii, dzięki czemu ARPANET przekształcił się w siec międzynarodową. Trwające nadal bardzo intensywnie prace doprowadziły do finalnego doprecyzowania standardów (stosowanych do dzisiaj): telnet (1972), FTP (1973), poczty e-mail (1977). Tak, więc założenia projektu sieci globalnej zostały spełnione w 100%, dodatkowo naukowcy z całego świata otrzymali bardzo efektywne narzędzie do komunikowania się między sobą. Ogromny sukces ARPANETU skłonił kierowników projektu do zmiany jego statusu, dzięki czemu ARPANET przestał już być projektem a stał się siecią użytkową, nad która opiekę sprawowało DCA (z ang. Defense Communications Agency - Wojskowa Agencja Łączności). Nadal jednak trwały wytężone prace nad rozwijaniem możliwości sieci. Zwłaszcza, że naukowcy zauważyli, że stosowany przez nich do tej pory protokół odpowiadający za komunikację, czyli NCP (z ang. Network Control Protokol) przy dużej ilości komputerów w sieci przestaje pracować prawidłowo. Dlatego też trwały usilne prace nad stworzeniem protokołu nowego typu.

Udało się to w roku, 1983 kiedy to oparto sieć na całym zestawie nowych protokołów nazwanych TCP/IP (Transmission Control Protokol / Internet Protokol). Dzisiejszy Internet jako podstawę funkcjonowania wykorzystuje nadal ten sam zestaw protokołów. Również na rok 1983 datuje się rozłam ARPANETu. Powodowane gigantyczną liczbą wniosków od uczelni oraz innych instytucji cywilnych kierownictwo ARPANETu zdecydowało się na wyodrębnienie z ARPANETu dwóch sieci. Pierwszą była sieć o przeznaczeniu ściśle wojskowym - nazwano ją MILNET (od skrótu Military Net -z ang. sieć wojskowa). Druga natomiast sieć miała być przeznaczona tylko do celów cywilnych (została jej nazwa ARPANET). Ostatecznie z biegiem lat nazwa Internet (pochodząca od zlepku International Net - sieć międzynarodowa) stopniowo wyparła nazwę ARPANET. Dodatkowo powstawanie coraz to nowych sieci, (co umożliwiał zestaw protokołów TCP/IP) spowodowało całkowite zlikwidowanie ARPANETu w 1990 roku. Rok 1983 przyniósł jeszcze jedną bardzo znaczącą innowację. Oto na Uniwersytecie Berkeley zaprezentowano opracowaną przez tamtejszych naukowców odmianę UNIXa, w której zaimplementowano obsługę zestawu protokołów, TCP/IP. Dzięki temu wreszcie pojedyncze komputery mogły być podłączane do Internetu, ale nie tylko. Dawało to też możliwość podłączania do Internetu całych sieci lokalnych, co spowodowało lawinowy wzrost podłączanych użytkowników. W związku ze wzrostem popularności oraz rozmiarów sieci Internet rosły również koszty jej utrzymania. Wojsko nie chciało już zajmować się siecią cywilna i tym samym narażać na koszty jej utrzymywania. Dlatego też obsługę oraz finansowanie Internetu przekazano pod skrzydła NSF (National Science Foundation - Narodowemu Funduszowi Nauki). Fundusz ten zdecydował się na inwestycję w stworzenie szybszego rdzenia, na którym Internet miał się opierać. Tak zwany backbone miał za zadanie umożliwienie bardzo szybkiego przesyłu danych między głównymi węzłami sieciowymi. Dzięki NSFowi i wprowadzeniu przez nich szybszego rdzenia dostęp do Internet mógł objąć swoim zasięgiem cały świat (np. Polskę podłączono do Internetu w 1991 roku). NSFNET (bo tak tez nazywano ta sieć) był jednak tylko i wyłącznie siecią naukową. Jednak parcie firm komercyjnych, które również chciały mieć dostęp do sieci było tak duże, że NSFNET wyodrębnił różne sieci tak zwane szkieletowe, dzięki którym specjalni dostawcy (zwani providerami) mogli sprzedawać firmom dostęp do Internetu. Dopiero w roku 1995 rząd Stanów Zjednoczonych podjął decyzję o zlikwidowaniu NSFNETu i całkowitemu skomercjalizowaniu sieci Internet. Badania dowodzą, że na koniec 1998 roku do sieci podpiętych było ok. 30 000 000 komputerów i ich liczba cały czas rośnie.

  1. CZYM JEST NETYKIETA?

Najprościej odpowiedzieć na to pytanie zastanawiając się nad poszczególnymi częściami wchodzącej w skład nazwy. Termin ten powstał z połączenia nazw net, (czyli popularna skrótowa nazwa Internetu) oraz etykieta, (czyli ogół norm, i poprawnych zachowań w konkretnych sytuacjach). Chodzi o to, żeby każdy człowiek korzystał z Internetu w sposób odpowiedzialny. Znaczenie ma tu przede wszystkim fakt, iż Internet nie jest jedną monolityczną siecią a ogromnym zbiorem pojedynczych sieci, dzięki którym użytkownicy mają możliwość wymieniania się informacjami. Częsty jest fakt krążenia wysłanej informacji poprzez wiele różnych sieci zanim trafi ona wreszcie do celu. Każda z tych sieci może posiadać specyficzne zasady obowiązujące jej użytkowników, do których to zasad musimy się stosować odwiedzając daną sieć. Trzeba również zwracać uwagę na fakt, że czynności dozwolone w jednych sieciach mogą być surowo karane w innych. Chodzi też o to, że możliwość zrobienia czegoś nie oznacza, że trzeba to zrobić. W dzisiejszych czasach wiele osób zapomina, że korzystanie z Internetu to przywilej a nie uprawnienie. Jednak w latach poprzednich często zdarzały się sytuacje, w których nieprzestrzegający netykiety użytkownicy byli banowani (tzn. odbierano im na pewien czas prawo do korzystania z sieci), obecnie to rozwiązanie jest jeszcze stosowane przez providerów poczty elektronicznej w przypadku rozsyłania spamu. Za uchybienie netykiecie uważane jest: umieszczanie w Internecie treści nielegalnych, obelżywych, wirusów komputerowych, używanie języka uznawanego powszechnie za wulgarny itd. Czasem w przypadku notorycznego łamania zasad przez użytkownika istnieje możliwość do odebrania mu prawa do korzystania z sieci na stałe. Istnieje specjalna komisja do spraw badania nadużyć w Internecie, która się takimi sprawami zajmuje. Oto kilka zasad, których należy przestrzegać korzystając z Internetu.

    • każdy jest odpowiedzialny za dbanie o porządek oraz utrzymanie skrzynki poczty e-mail
    • nie wolno przekraczać limitu miejsca na serwerze, przyznanego przez usługodawcę poczty e-mail
    • niepotrzebne wiadomości pocztowe należy usuwać, ponieważ zajmują one miejsce na serwerze pocztowym.
    • w skrzynce pocztowej powinny być przechowywane jedynie naprawdę ważne listy
    • listy e-mail można zgrywać na dysk komputera, żeby zwolnić miejsce na serwerze pocztowym lub też wykorzystać je w przyszłości
    • zawsze trzeba brać pod uwagę, że e-mail nie jest jednak całkowicie bezpieczną usługą dlatego też nie powinno się za jego pomocą wysyłać wiadomości o kluczowym znaczeniu (np. haseł do konta w banku, pinów kart kredytowych itd.)
    • regularnie sprawdzaj czy Twój komputer nie został zarażony wirusem
    • pracując w sieci pamiętaj, że osoby o uprawnieniach wyższych niż Twoje mogą mieć dostęp do Twoich katalogów, staraj się więc nie przechowywać prywatnych danych w takich katalogach.
    • Staraj się stosować do dekalogu netykiety:

- Nie używaj komputera do szkodliwych działań na rzecz innych ludzi

- Nie przeszkadzaj innym w pracy na komputerze

- Nie przeglądaj plików innych użytkowników bez pozwolenia.

- Nie wykorzystuj komputera do okradania innych.

- Nie wykorzystuj komputera do fałszowania danych.

- Nie korzystaj z pirackiego oprogramowania

- Nie wykorzystuj danych zawartych na komputerach innych użytkowników bez ich pozwolenia.

  1. BUDOWA SIECI INTERNET

Internet działa na zasadzie milionów połączonych ze sobą lokalnych sieci komputerowych. Zasady budowy są w miarę proste: sieci lokalne łączone są ze sobą i powstają jeszcze większe sieci, te z kolei są podłączane do sieci uczelnianych, które podłącza się natomiast do sieci miejskich, które podłączone są do krajowej sieci szkieletowej (najczęściej jest ich kilka). Krajowa siec szkieletowa ma za zadanie łączenie poszczególnych sieci miejskich danego państwa. Zwykle ich zasięg jest podobny do zasięgu AS-ów (Autonomicznych Systemów), czyli największych części składowych Internetu, które są połączone bezpośrednio rdzeniem Internetu.

Dzięki temu rozwój Internetu przebiega tak szybko. Dołączenie dodatkowego komputera czy też całej sieci wymaga jedynie zgody kierownictwa podsieci, do której chcemy się podpiąć. Sam proces podłączenia się jest bardzo prosty. Dodatkowo znaczenie ma fakt, że odłączanie czy też podpinanie nowych sieci bądź użytkowników nie ma wpływu na funkcjonowanie pozostałych części globalnej pajęczyny.

  1. ZAGADNIENIA ZWIZANE Z RUTINGIEM

Nazwa wywodzi się od Routera (ang. route - droga, trasa), czyli urządzenia, którego zadaniem jest łączenie ze sobą sieci lokalnych oraz odpowiednie przekierowywanie danych (ustalanie tras ich przesyłu) tak żeby z jednego komputera mogły dotrzeć na drugi niezależnie od jego położenia. Router ma przynajmniej dwa interfejsy sieciowe, z których każdy zawiera adres innej podsieci i na podstawie adresu docelowego zawartego w nagłówku wysyłanego pakietu, ma w taki sposób go przekierować żeby mógł on trafić do sieci oraz komputera, do którego jest adresowany. W przypadku przekazywania danych miedzy komputerami należącymi do tej samej podsieci np. 192.168.0.xxx router nie uczestniczy, ponieważ nie ma potrzeby przekierowywanie pakietów (mogą one być przekazywane bezpośrednio). Natomiast w przypadku wysyłania czy tez pobierania danych z komputera z innej podsieci np. 187.76.44.xxx wtedy dane są pobierane z wykorzystane routera, który wysyła pakiet do kolejnego routera a ten do następnego i tak dalej aż pakiet trafi do szukanej sieci i konkretnego komputera. Oczywiście przejście przez pakiety tej drogi jest bardzo krótkie a dzieje się tak, dlatego, że poszczególne routery posiadają dane, jaka drogą i przez jakie sieci należy przesłać pakiety, żeby trafiły one do celu w jak najkrótszym czasie. Jest to dość istotne podczas awarii routerów w innych podsieciach, bo wtedy pakiet zostanie automatycznie (bez naszej wiedzy) przesłany do adresata inną trasą. Na tym właśnie opierała się koncepcja i pierwsze założenia rozproszonych sieci informatycznych. Zastosowanie to niech zobrazuje przykład. Mamy trzy sieci o numerach 1, 2, 3, każda z nich jest połączona z dwoma pozostałymi sieciami. Dane z sieci 1 są wysyłane do sieci 2 bezpośrednio za pomocą ich routerów, którymi są połączone. W momencie awarii połączenia bezpośredniego między sieciami 1 i 2 (np. zerwanie kabla między blokami) dane zostaną przesłane z wykorzystaniem sieci 3.

  1. ADRESY ORAZ ICH KLASY

Użytkownik może zadawać sobie pytanie, w jaki sposób muszą w takim razie być adresowane dane oraz komputery i sieci, że routery zawsze "wiedzą" gdzie, jaki pakiet wysłać żeby trafił on do konkretnej maszyny. Rozwiązanie tego problemu stanowią klasy adresów IP komputera. Każdy komputer posiada unikalny w swojej podsieci adres IP, z kolei jego sieć również ma jakiś adres IP i tak dalej. Każdy adres IP składa się z dwóch członów. Człon pierwszy zawiera numer konkretnej sieci (jest taki sam dla wszystkich komputerów należących do niej), natomiast człon drugi to adres konkretnego komputera w tej sieci (jest, więc unikalny dla każdego komputera w danej podsieci). Początkowo protokół TCP/IP definiował podział adresów na dwa człony odgórnie, na podstawie trzech klas adresowych A, B, C, których nie można było sobie samodzielnie zmieniać. Jednak wraz ze wzrostem ilości podsieci oraz komputerów dołączanych do Internetu pojawił się problem deficytu adresów IP. Z drugiej strony wiele istniejących już sieci o przyznanych adresach klasy A, B, oraz C nie wykorzystywała w pełni wszystkich adresów, które posiadała z prostej przyczyny - w sieciach tych nie funkcjonowała aż tak duża liczba maszyn. Wymyślono, więc (stosowany do dzisiaj) system adresowania bezklasowego. System ten wykorzystuje nie klasy adresów a tak zwane maski podsieci, składające się z 27 bitów, z czego bit pierwszy oznacza numer sieci a pięć kolejnych bitów numer komputera

(np. 255.255.255.67).

  1. ADRESOWANIE DOMEN

Domeny zostały wymyślone ze względów wygody pracy. Chodzi o to, że obowiązkowym adresowaniem komputerów oraz podsieci muszą ze względów funkcjonalnych być adresy IP jednak z racji swojej konstrukcji numerycznej są one dość trudne do zapamiętania, dlatego też zrodził się pomysł stworzenia jakby nakładek, które będą łatwiejsze do stosowania oraz zapamiętania. Posiadanie domeny nie jest obowiązkowe, najczęściej wykupują je jedynie użytkownicy komputerów, którzy publikują w Internecie jakieś dane, bądź świadczą usługi. Dzięki temu użytkownik, który chce wywołać np. stronę WWW nie musi wpisywać adresu IP komputera, na którym ona się znajduje a jedynie domenę, jaką wykupił właściciel strony (np. onet.pl). Natomiast zwykłe maszyny domowe, których zadaniem nie jest pełnienie funkcji serwera informacji nie muszą wykorzystywać domen, ponieważ inni użytkownicy nie będą musieli łączyć się bezpośrednio z tym komputerem. Dodatkowych adresów typu symbolicznego używa się też dla komputerów, które podłącza się do sieci lokalnych i dopiero poprzez nie do globalnej pajęczyny. Komputery takie nie mają adresów IP jednak korzystanie z Internetu, przeglądanie stron WWW czy tez odbieranie poczty e-mail jest na nich możliwe właśnie dzięki adresom symbolicznym. Budowa adresu symbolicznego składa się z pewnej liczby nazw rozdzielonych przez kropki (analogia do adresów IP), jednakże owe kropki rozdzielające nie mają żadnego odniesienia do konkretnych oktetów (części) adresu IP. Jest to uwarunkowane przez różne czynniki, jednym z głównych jest różnica w liczbie części składowych adresu IP oraz adresu symbolicznego (IP składa się zawsze z 4 części natomiast adres symboliczny może mięć tych części znacznie więcej np.2, 4, 6, czasem 8). W porównaniu z adresem IP, który czyta się zawsze od strony lewej do prawej, adresy symboliczne odczytywane są od strony prawej do lewej, przy czym część pierwsza (ta maksymalnie z prawej strony) nazywana jest z ang. top-level domain, czyli domeną najwyższego poziomu (są to najczęściej 2 litery, które oznaczają dany kraj np. uk lub cz). Wyjątkiem w przypadku top-level domain są Stany Zjednoczone, gdzie nie ma obowiązku jej stosowania po pierwsze dlatego, że podczas tworzenia sieci Internet nie przewidziano aż tak dużego jej rozwoju zagranicą i stosowania rozszerzeń poszczególnych krajów a po drugie ustalono, że obywatele USA jako kolebki globalnej sieci nie muszą stosować tych rozszerzeń. Zamiast tego top-level domain w USA oznacza rodzaj działalności, jaką prowadzi dana firma, do której należy konkretny komputer (najczęściej jest to .com - dla firm, edu - dla instytucji naukowych, .gov - zarezerwowane dla rządu, .ml - dla wojska, .org - dla innych organizacji nie czerpiące zysków z działalności). Część kolejna (licząc od prawej strony) to najczęściej nazwa (bądź jej skrót) instytucji, która dany adres wykupiła. Czytając adres domenowy trzeba też zwrócić uwagę na najbardziej na część znajdującą się najbardziej z lewej strony, ponieważ komputery oferujące specyficzne usługi (takie, jak FTP, NEWS, WWW, GOPHER itd.) mają zaznaczony ten fakt w nazwie domenowej (np. ftp.microsoft.com) po to aby ułatwić użytkownikom ich znalezienie. Często, zwłaszcza w przypadku dużych firm może się zażyć, że kilka adresów domenowych jest przypisanych do tego samego adresu IP komputera (najczęściej serwera), mówimy wtedy istocie przydzielaniu aliasów.

16. KILKA SŁÓW NA TEMAT DNSów

Działanie DNSów czyli tak zwanych serwerów nazw polega na tłumaczeniu adresów domenowych na adresy IP ponieważ programy obsługujące sieć globalną potrafią adresować pakiety tylko za pomocą IP i nie "rozumieją" nazw domenowych. Praca serwerów DNS polega, więc na przechowywaniu ogromnych zbiorów tablic, w których zapisane są związki adresu domenowego danego komputera z jego adresem IP. Oczywiście tablica taka przy dzisiejszych rozmiarach Internetu nie jest możliwa do przechowywania na jakimkolwiek konkretnym komputerze na świecie, dlatego też istnieje na świecie wiele serwerów DNS, z których każdy przechowuje jedynie część nazw i oczywiście są one zorganizowane odpowiednio w celu wymieniania informacji o nazwach oraz adresach IP między sobą. Organizacja ta opiera się na strukturze rozproszonej to znaczy serwery DNS poszczególnych domen z konkretnych podsieci zawierają nazwy oraz adresy IP wszystkich komputerów z tej sieci. Sam serwer DNS również posiada adres IP. Adresy IP serwerów DNS poszczególnych sieci są zapisane w tablicy przez serwery DNS domen wyższego poziomu. Najwyższy poziom stanowią Root Name Servers czyli główne serwery nazw, które przechowują tablice z nazwami oraz adresami IP domen najwyższego poziomu (takich jak .com, .edu, pl, itd). W celach bezpieczeństwa istnieje kilka Root Name Servers. Wszystkie serwery DNS muszą posiadać adresy serwerów najwyższego poziomu, natomiast adres IP konkretnego serwera DNS muszą znać wszystkie komputery w sieci, którą on nadzoruje.

17. CO ZROBIĆ, ŻEBY MÓC AKTYWNIE KORZYSTAĆ Z INTERNETU?

Po pierwsze trzeba sobie wykupić konto na serwerze, które umożliwi nam publikowanie w Internecie własnych stron WWW, zakładając takie konto otrzymujemy tez od providera możliwość założenia sobie na jego serwerze adresu e-mailowego oraz konta FTP. Dzięki temu będziemy mogli aktywnie wykorzystywać potencjał globalnej pajęczyny. Otrzymanie konta może przebiegać na dwa sposoby. Albo wykupimy je u konkretnej firmy, albo poszukamy ofert darmowych. Pierwsze rozwiązanie zdecydowanie bardziej polecam dla osób myślących o długotrwałym wykorzystywaniu konta. Płacąc niewielkie pieniądze (obecnie od 50-100 zł rocznie) otrzymujemy konto o pojemności od 300 do 800 MB miejsca na serwerze providera, dzięki któremu możemy publikować, strony internetowe, zdjęcia filmy itd (przeciętna strona WWW zajmuje ok. 3-10 MB) oraz co najważniejsze pewność (w przypadku providerów o szerszej renomie), że nasze konto nie padnie po kilu miesiącach, co jest bardzo częste w przypadku serwerów darmowych. Darmowe konta polecam jedynie, jeżeli chodzi o adresy e-mailowe (np. onet.pl czy interna udostępniają darmowe konta e-mail) umieszczanie jednak np. strony WWW naszej firmy na prywatnym serwerze WWW nie jest dobrym pomysłem, gdyż oprócz wspomnianego już braku pewności co do tego jak długo dany serwer będzie działał, nasza strona będzie też upstrzona całą gamą obowiązkowych reklam, z których nasz darmowy serwer musi się utrzymywać.