Idea Hypertekstu

Po raz pierwszy idea Hypertekstu pojawiła się już w 1965 roku, kiedy to naukowiec Ted Nelson zaproponował ideę stworzenia ogromnego systemu (o nazwie Xandu) zawierającego niespotykanych dotąd rozmiarów zbiór wiadomości połączonych ze sobą właśnie za pomocą systemu nazwanego przez niego hypertextem.

Niecałe dwadzieścia pięć lat później teorię Nelsona wykorzystano podczas projektowania najpopularniejszej obecnie usługi na świecie, czyli stron WWW. Wykorzystanie hypertekstu w usłudze World Wide Web było genialnym posunięciem, można wręcz powiedzieć rewolucją. Odsyłacze potocznie nazywane linkami przenosiły użytkownika nie tylko (jak do tej pory) do innych dokumentów na jego serwerze, ale również mogły przekierować go do jakiegokolwiek serwera na świecie. Dzięki temu użytkownik ma możliwość praktycznie nie ograniczonego dostępu do ogromnych zasobów wiadomości. Idea hypertekstu choć jest tak rewolucyjna ma swoje korzenie jeszcze w latach czterdziestych. Pierwszym człowiekiem, który wspomniał o tego typu rozwiązaniu (nie nazywając go jednak jeszcze pojęciem hypertekst) był Vannevar Bush. Przedstawił on podczas prac nad zaprojektowanym przez siebie urządzeniem o nazwie memex, samą ideę hypertekstu, sprecyzowaną później przez wspomnianego już Teda Nelsona, który notabene już od trzydziestu lat pochłonięty jest pracami nad stworzeniem systemu Xandu (jak dotąd opublikowana przez niego lista wymagań została spełniona przez system HyperWave zwany wcześniej Hyper-G od nazwy uczelni, na której powstał - Austriackiej politechniki w Grazu.

Na czym polega rewolucyjność hypertekstu? Otóż podstawowa cecha dokumentów hypertekstowych to zawarte w nich odsyłacze, zwane również odnośnikami, które są połączone z innymi dokumentami znajdującymi się w Internecie. Odnośniki mogą kierować użytkownika nie tylko do innych dokumentów tekstowych, ale również do grafiki, plików muzycznych, filmów itd. Dokumenty tekstowe, na które możemy trafić w celach poprawnego wyświetlania ich na naszym komputerze są kodowane według ogólnie przyjętych norm. Jednymi z najbardziej popularnych są ISO-8859;PN-93 T-42118. Zawierają one informacje dla przeglądarki, w jaki sposób ma wyświetlać tekst na ekranie użytkownika. Dzieje się tak żeby przyspieszyć przesyłanie danych poprzez globalną sieć. Dokument jest zamieniany na zwykły kod znaków, bez formatowania, po czym zostaje przesłany do przeglądarki użytkownika, która wykorzystując kodowanie oraz polecenia podobne do tych wykorzystywanych przez edytory tekstowe, wyświetla go na ekranie komputera w formie identycznej (lub bardzo zbliżonej) do tej, w której był wysłany. Oprócz zwiększenia szybkości przesyłanych w ten sposób danych uniezależniamy się również od konkretnego systemu operacyjnego, czy tez platformy sprzętowej, (bo wszystko odbywa się dzięki mechanizmom w przeglądarce, którą można zainstalować na dowolnym systemie operacyjnym i dowolnym sprzęcie komputerowym). Opracowania wiadomości, która ma być wyświetlana jako strona WWW możemy dokonać nawet korzystając ze zwykłego edytora tekstu (np. Unixowy vi, dosowy edit czy Windowsowy Notepad). Nie jest konieczne nawet stosowane konkretnych dla danego języka znaków diakrytycznych, (czyli dla polskiego np. ą,ę,ć,ź,ż itd.) Następnie tak przygotowany dokument należy wysłać na serwer, na którym mamy założone konto. Konto można wykupić sobie u tak zwanego providera, czyli dostarczyciela usług i internetowych (hostingu) bądź tez znaleźć, (co nie jest zbyt trudne) konto na darmowym serwerze. Czasem, jeżeli administrator danego serwera nie zadbał oto, konieczne jest utworzenie sobie własnego katalogu o nazwie WWW lub tez public_html, w którym będziemy umieszczać wszystkie dokumenty, które zamierzamy publikować w Internecie. Katalog taki, musi mieć odpowiednie prawa dostępu tak, żeby inni użytkownicy Internetu mogli oglądać dokumenty w nim zawarte, najczęściej ustawiane zabezpieczenia na tym katalogu to 744 (ustawia się je unixowym poleceniem chmod).

Kilka słów na temat języka HTML

HTML czyli tak zwany język znaczników (z ang. HyperText Markup Language), jest stosowany do opisywania czy tez projektowania "szkieletu" strony WWW jak również łączenia poszczególnych elementów, które się na niej znajdują z innymi dokumentami w Internecie. HTML został stworzony podczas projektowania usługi WWW i ciągle ewoluuje. Każda nowa specyfikacja HTMLa zawiera nowe funkcje oraz możliwości. Dokumenty zapisane z wykorzystaniem tego języka mają zazwyczaj rozszerzenia htm lub html. Dzięki HTMLowi użytkownik a możliwość projektując dokument, który będzie publikowany w Internecie ustalić, w jaki sposób ów dokument będzie wyświetlany Za pomocą specjalnych poleceń, HTMLowych wplatanych w treść strony można ustalić, w jaki sposób dokument będzie interpretowany przez przeglądarkę Internetową innych użytkowników (kolor tekstu, akapity, nagłówki, itd.). Dzięki temu językowi można również wzbogacić swoją stronę WWW o zdjęcia bądź też o dokumenty innego typu (np. pdf). Jedna z głównych zalet HTMLa jest możliwość tworzenia za jego pomocą odnośników do innych dokumentów w Internecie. Jest to możliwe poprzez podanie w kodzie HTML adresu URL strony, do której użytkownik ma zostać przeniesiony. Adres URL definiuje jasno konkretny dokument znajdujący się w Internecie i nie może być dzięki niemu mowy o pomyłce (np. dwa takie same adresy, czy jeden adres dla dwóch różnych dokumentów). System dokumentów połączonych adresami URL to hypertekst. Właśnie to umożliwia przekierowanie użytkownika do wiadomości znajdującej się na odległym komputerze. Z systemu odnośników (hypertekstu) korzystają również encyklopedie multimedialne oraz słowniki i inne tego typu oprogramowanie.

Hypertekst

Jest systemem przedstawiania dokumentów w Internecie. Polega to na tym, że poszczególne słowa w danym dokumencie są linkami (tak zwanymi odsyłaczami lub też hyperłączami) do innej strony internetowej lub też konkretnego fragmentu w bieżącym dokumencie. Linki najczęściej odznaczają się od reszty tekstu. Mogą być podkreślone, pogrubione, napisane innym kolorem itd. Hypertekst jest systemem wykorzystywanym głównie przez strony internetowe, jednak ostatnio coraz częściej stosuje się go w różnego rodzaju oprogramowaniu (np. w plikach pomocy) czy też w programach multimedialnych (encyklopedie, słowniki itd.). Za przykład niech posłuży tutaj Multimedialna Encyklopedia Powszechna stworzona przez firmę Fogra Multimedia, która zawiera w sobie ponad dwa miliony odnośników.

Hyperlink

Inaczej zwany odnośnikiem, linkiem, odsyłaczem, funkcjonuje na zasadzie oferowania użytkownikowi możliwości przeniesienia się do innego dokumentu połączonego z nim hypertekstem. System ma możliwość śledzenia trasy, jaką przeszedł użytkownik, dzięki czemu może on w każdej chwili wrócić do strony, od której zaczął poszukiwania)(umożliwia to przycisk wstecz w przeglądarkach internetowych).

Najpowszechniejszy na świecie komputer osobisty używany dzisiaj przez praktycznie każdego nie odbiega zbytnio główną architekturą od swojego pierwowzoru - powstałego na początku 1981 roku PC/XT wyprodukowanego przez firmę IBM. Wpływ, jaki wywarły komputery osobiste na przełomie tych dwudziestu lat jest ogromny. Komputery są obecnie wszędzie: fabryki, szkoły, warsztaty, urządzenia domowego użytku, słowem każda dziedzina życia jest w dzisiejszych czasach zdominowana przez komputery. Bezdyskusyjnie można przyznać komputerowi typu PC tytuł jednego z największych osiągnięć w dziejach ludzkości. Jednakże IBM PC wcale nie był pierwszym komputerem osobistym produkowanym na skalę masową. Pionierem w tej dziedzinie była firma Apple, która stworzyła dwa komputery (Apple I oraz Apple II już w 1977 roku). Dlaczego więc najpopularniejszym komputerem świata nie jest, więc produkt firmy Apple? Chodziło o wybieg zastosowany przez firmę IBM, który polegał na powszechnym i darmowym udostępnieniu planów architektury swojego komputera PC/XT zastrzegając sobie patentem prawo jedynie do pewnych elementów. Dzięki temu każda firma na świecie, która chciała produkować komputery mogła to robić, ponieważ miała plany a części objęte patentem przez IBM kupowała od tej firmy. Bardzo znaną firma w latach osiemdziesiątych był na przykład Amstrad PC, firma oferująca komputery oparte na technologii IBM PC za niezbyt wygórowaną cenę (ok. 2500 zł). Dzięki temu obecnie 90 procent wszystkich komputerów na świecie bazuje na architekturze zaprojektowanej przez IBM. Duże znaczenie miały również firmy produkujące oprogramowanie komputerowe, dzięki któremu komputer mógł wykonywać konkretne zadania, np. arkusz kalkulacyjny o nazwie Lotus 1-2-3 zrewolucjonizował prowadzenie interesów, dzięki niemu przedsiębiorcy zaczęli kupować komputery do firm, by wykorzystując Lotusa działać efektywniej. Dziwi fakt, że za ciosem IBM nie poszedł też Apple, gdyby tak się stało, pewnie dzisiaj większość komputerów osobistych działało by na architekturze Apple, a IBM PC podzieliłby los Dragona 32, Commodore'a C64 lub tez BBC Micro, maszyn o których pamiętają dzisiaj nieliczni hobbyści. Jednak firma, Apple nie zdecydowała się na to, przez co sama zepchnęła się niejako do niszy a komputery IBM PC zawładnęły światem. Na tynku informatycznym wraz z rozpowszechnieniem się komputerów pojawiła się tez niezwykle silna konkurencja na rynku oprogramowania. Producenci sprzętu prześcigali się w produkowaniu coraz szybszych maszyn a producenci oprogramowania tworzyli coraz bardziej skomplikowane programy, które z kolei wymagały jeszcze lepszego sprzętu i tak dalej. Dzięki temu samonapędzającemu się systemowi, ceny części komputerowych oraz oprogramowania bardzo szybko spadają, (ponieważ co chwile wypuszczane są nowsze wersje) i zwykły użytkownik może sobie pozwolić na zakup części oraz oprogramowania.

Komputery mają obecnie wszelakie zastosowanie jednak pierwsze sukcesy osiągnęły na polu finansów oraz rachunkowości. Wpisywane do tej pory pracowicie w tomach zeszytów cyfry mogły być zapisane w arkuszu kalkulacyjnym, umożliwiającym później ogromna oszczędność czasu podczas dokonywania obliczeń na podstawie tych danych. Powiedzmy, że chcemy na podstawie posiadanych danych stwierdzić o ile wzrosną koszty wytworzenia wyrobu, przy zmniejszeniu jego ceny o 5%. Licząc tego typu zależność tradycyjnymi metodami, (czyli kartka + ołówek) zajęłoby to dużo czasu (czasem obliczenie pewnych wskaźników zajmuje kilka godzin) natomiast w arkuszu kalkulacyjnym wystarczy jedno kliknięcie myszką i wynik pojawia się na ekranie komputera, dodatkowo możemy być pewni, że komputer nie popełnił żadnego błędu rachunkowego.

Dużym ułatwieniem stało się też gromadzenie informacji w bazach danych zamiast w setkach tomów papierowych akt, poza olbrzymią oszczędnością miejsca baza danych umożliwia znalezienie, potrzebnych informacji przeciągu kilku sekund.

Dzięki oprogramowaniu firmy mogą obecnie dokonywać analiz, pomiarów, testów wszystkiego, czego tylko chcą, co więcej istnieją programy, które mówią, jakie badania należy zrobić i jakich danych dostarczyć żeby osiągnąć dany efekt.

Bazy danych umożliwiają przechowywanie danych osobowych klientów, dzięki czemu można wysłać list o tej samej treści, ale adresowany do wielu różnych odbiorców. Również edytory tekstów ewoluowały, zastępując dzięki swojej wygodzie oraz efektywności maszyny do pisania.

Skoro pojedynczy komputer umożliwia dokonywanie tak wspaniałych rzeczy to, co by było w przypadku połączenia kilku komputerów?. Sieci komputerowe, (bo tak nazywa się kilka komputerów połączonych razem) są wszechobecne w każdym przedsiębiorstwie, szkole, ale też i w prywatnych mieszkaniach. Dzięki sieci pracownicy mają możliwość korzystania z dużej mocy obliczeniowej (np. serwera) czy też mogą np. współpracować wspólnie nad projektem nie ruszając się sprzed swoich biurek, użytkownikom prywatnym sieć urozmaica rozrywkę (gry sieciowe) oraz pozwala na szybką komunikację.

Komputery przyczyniły się również do struktury zatrudnienia w przedsiębiorstwach. Zniknęły z firm pokoje wypełnione maszynami do pisania i pracującymi przy nich sekretarkami, nie znajdzie się też już prawie nigdzie wielkich hal wypełnionych od podłogi do sufitu setkami tysięcy tomów akt. Wszystko to zostało wyparte przez szybszy, wydajniejszy i tańszy system oparty na komputerach. Można by mieć pretensje, że przez komputery pracę straciły setki osób, jednak z kolei ogólna informatyzacja stworzyła setki tysięcy nowych miejsc pracy, powstały nowe zawody typu programista, administrator sieci, administrator baz danych, grafik komputerowy itd. Każdy może dzisiaj sprzedawać w Internecie produkty za pomocą sklepów internetowych, dzięki komputerom wiele osób może też pracować nie przychodząc do biura, lecz korzystając z komputera w domu.

Popularność komputerów spowodowała również ich wykorzystanie np. w biurach projektowych. Dzięki temu nie trzeba już skrupulatnie rysować ołówkiem na papierze milimetrowym ogólnego wyglądu przyszłego budynku, programy komputerowe specjalnie zaprojektowane do tego celu, są w stanie wspomóc architekta. Pomagają nie tylko dokładnie odwzorować szczegóły oraz skalę, ale można dzięki nim przeprowadzić nawet symulację działania na budynek czynników zewnętrznych, z trzęsieniem ziemi czy atakiem tornada włącznie. Dzięki temu budowane obecnie mieszkania są o wiele bardziej wytrzymałe i bezpieczne. Niektóre programy umożliwiają też tworzenie modeli trójwymiarowych budynków, które istnieją dopiero w planach architektów. Umożliwia to użytkownikowi spacer po mieszkaniu, które chce kupić (oczywiście wirtualny), zobaczenie jak będzie wyglądało rozmieszczenie ścian, czy pokoje będą wystarczająco przestronne i jasne itd.

Podobnie jak budynki tak i samochody nie uniknęły komputeryzacji. Począwszy od etapu projektu gdzie komputerowo obliczane są wszelkie możliwe siły działające na pojazd oraz przeciążenia, jakie jest on w stanie wytrzymać, poprzez projektowanie linii nadwozia, wzoru klamki, a nawet schowków na rękawiczki. Wszystko to dopracowuje się do perfekcji w komputerach i dopiero na tej podstawie tworzy się pierwsze prototypy. Dzięki komputerom można przetestować zachowanie samochodu, (który tak naprawdę jeszcze nie istnieje) w najróżniejszych warunkach atmosferycznych i sytuacjach. Dopiero po osiągnięciu zadowalających efektów buduje się prototyp i sprawdza jego parametry "na żywo", pozwala to oszczędzić ogromną ilość czasu i pieniędzy. Dodatkowo w już zaprojektowanym i produkowanym seryjnie samochodzie nie obejdzie się bez komputera sterującego poborem paliwa, mocą silnika, sposobem zachowania się kół podczas hamowania itd.

Kolejną dziedziną, która nie oparła się dominacji komputera, są wydawnictwa prasowe, które do tej pory tworzyły gazety za pomocą niezwykle pracochłonnych i starodawnych metod. Dzisiaj każdy artykuł pisany jest za pomocą edytora tekstu, zdjęcia poprawia się w Photoshopie czy GIMPIe i dopiero tak dopracowany artykuł wysyłany jest (najczęściej pocztą elektroniczną) do redakcji.

Następna dziedzina, która nie uchowała się przed komputeryzacją jest fotografia. Obecnie każde zdjęcie znajdujące się w magazynach kolorowych, czy nawet zwykłych gazetach jest poprawiane za pomocą profesjonalnych programów komputerowych. GIMP czy Photoshop to obecnie standardowe narzędzia pracy fotografów. Nawet dziecko potrafi już dzisiaj dorobić na zdjęciu nielubianego kolegi rogi, lub też zamienić psu i świni głowę. Podobne mechanizmy są wykorzystywane przez profesjonalistów. Gwiazdy muzyczne, aktorzy, piłkarze wszyscy oni zawsze mają poprawiane wizerunki cyfrowo zanim ich zdjęcie zostanie opublikowane w czasopiśmie. Często wręcz dochodzi do paradoksów, że modelka, czy aktorka, która przepięknie wygląda na okładce kolorowego pisma, "na żywo" nie zostaje nawet rozpoznana. Retusz zdjęć jest też stosowany w przypadku produktów, te spożywcze są bardziej apetyczne, mają żywsze kolory, samochody terenowe są prezentowane na szczytach gór itd. Sama fotografia również zmieniła się bardzo dzięki komputeryzacji. Nowoczesne aparaty cyfrowe oferują wyśmienitą jakość zdjęć, dodatkowo umożliwiają zrobienie kilku tysięcy zdjęć na raz, bez potrzeby wymiany filmu czy biegania do ciemni. Zdjęcia niepotrzebne można na bieżąco kasować, jest też możliwość nagrywania filmów.

Przemysł rozrywkowy również nie ustrzegł się przed komputeryzacją. Papierowe modele i gumowe maski zostały wyparte przez nowoczesne efekty zaprojektowane z wykorzystaniem komputerów. Można tez spotkać filmy, w których każda klatka została wygenerowana komputerowo (np. Toy Story 2) Potentatem w tej dziedzinie jest firma Silikon Graphics. Ogromna ilość scen filmowych jest również poprawiana cyfrowo, komputerowo tworzy się armie złożone z milionów żołnierzy itd. Dochodzi nawet do tego, że gdy aktor umrze podczas kręcenia zdjęć (tak jak np. Oliver Reed podczas kręcenie "Gladiatora") to w jego scenach zastępuje go inny aktor, któremu potem komputerowo przerabia się twarz i wygląda to tak jak tamten aktor, który zmarł. Studia zajmujące się efektami specjalnymi planują nawet stworzenie wirtualnych aktorów istniejących tylko w pamięci komputera (w Japonii stworzono już wirtualną piosenkarkę), którzy byli by o wiele mniej kłopotliwi i tańsi od ich rzeczywistych odpowiedników.

Prawie każdy obecny komputer posiada odtwarzacz (a często też i nagrywarkę) DVD, dzięki którym możemy cieszyć się oglądaniem na naszym komputerze filmów w najlepszej jakości, odwiedzanie strony internetowej filmu, gdzie mamy możliwość dyskusji z innymi kinomanami na temat danego filmu. Podobnie informatyka zrewolucjonizowała przemysł muzyczny. Praktycznie wszyscy piosenkarze korzystają dzisiaj z programów komputerowych poprawiających brzmienie, niwelujących lekkie fałszowanie, dodawanie nowych dźwięków, efektów (np. przenikania głosu itp.) czy chociażby wycinania z piosenek odgłosów wdechu czy innych niepożądanych. Ogromna większość piosenkarzy korzysta w swoich utworach z samplerów, syntezatorów, sekwenserów, przesterów i wszelkiego innego sprzętu. Wielu też łączy w swych utworach brzmienie zwykłych instrumentów oraz nowoczesnych generowanych elektronicznie dźwięków (przykładem niech będzie chociażby U2). Prosty PC ma w sobie wiele możliwości miksowania oraz przetwarzania muzyki, dostępnej dla każdego użytkownika. Nie są to, co prawda profesjonalne efekty jednak w porównaniu z tym, z czego korzystali np. The Beatles to i tak ogromny przeskok. Oprócz zmian w procesie tworzenia muzyki, komputery zmieniają tez sposób słuchania jej. Wymyślenie systemu kompresji plików mp3 oraz wmv spowodowało przeniesienie ogromnych zasobów do Internetu. Gdy tylko chcemy posłuchać jakiegoś utworu uruchamiamy program, ściągamy muzykę i cieszymy się jej brzmieniem. Najczęściej jest to jednak nielegalne, a za legalne kopie muzyki w formacie mp3 trzeba płacić. Są one jednak i tak Internetu wiele tańsze niż ich płytowe odpowiedniki. Dodatkowo odtwarzacze mp3 przechowujące muzykę na pamięciach typu flash są Internetu wiele wygodniejsze od tradycyjnych odtwarzaczy płyt (nawet tych przenośnych). Odtwarzacz mp3 oprócz możliwości słuchania muzyki ma przeważnie funkcję dyktafonu, radia, książki telefonicznej, PEN drive, jest niewielki i odtwarza muzykę niezależnie od tego czy siedzimy z nim spokojnie w fotelu, czy zjeżdżamy na rowerze po wybojach, nie istnieje tu znane z odtwarzaczy CD pojęcie przeskoczenia ścieżki czy zgubienie utworu.

Do ogromnego rozwoju komputeryzacji przyczyniły się niewątpliwie gry komputerowe. To dzięki nim producenci sprzętu starają się stworzyć jak najszybsze i najefektywniejsze procesory i karty graficzne natomiast producenci gier starają się oddać jak najlepiej rzeczywistość. Fabuła gier takich jak Doom III czy Quake III nie różni się niczym od swoich pierwowzorów (Doom I i Quake I) jednak, efekty specjalne, realizm, grafika i inteligencja przeciwników są poprawiane z każda następną wersją gry. Dlatego też zawsze będzie na nie popyt po mimo tego, że właściwie po przejściu jednej części tego typu gry zna się już je wszystkie.

Ogromnie rozwinęły się też gry, w które można grać przez sieć (zarówno lokalną jak i Internet). Tytuły takie jak Quake III czy Unreal Tournament choć nieco już leciwe nadal skupiają setki tysięcy graczy walczących między sobą. Szerzą się tez ostatnio bardzo popularne gry typu MMORPG czyli grane w czasie rzeczywistym gry przygodowe rozgrywające się przez Internet. Jednym z przedstawicieli tego typu gier jest Lineage II, ludzie, którzy w nią grają mówią często, że "Lineage to nie jest tylko gra". I mają rację. Jest to nieprawdopodobnie rozbudowany świat skupiający naraz tysiące graczy, w świecie tym każdy wykonuje różne zadania, rywalizuje ze sobą, tworzą się społeczności, gildie, wrogie stronnictwa, zawiązują się przyjaźnie, można nawet wejść w związek małżeński. Wiele osób uzależnia się od tego typu gier, zaczyna mylić rzeczywistość ze światem wirtualnym. Raz na czas słyszy się wiadomości, że ktoś zmarł przed komputerem z odwodniania lub głodu, (bo nie chciał od niego odejść), zdarzają się też przypadki pobić czy nawet zabójstw ludzi w rzeczywistości za kradzieże czy zbrodnie, które popełnili w wirtualnym świecie gry. Przedmioty używane w grach tego typu (miecze, pistolety, zbroje itd.) są wystawiane na aukcjach internetowych i kupowane za prawdziwe pieniądze. Obsesja sięga daleko…

Również szkolnictwo nie ciekło przed wszechobecną komputeryzacją. Nie chodzi tu tylko o to, że informatyka stała się przedmiotem obowiązkowym w każdej szkole. Poza poszukiwaniem w Internecie opracowań lektur szkolnych czy rozwiązań zadań matematycznych, uczniowie mają możliwość np. obejrzenia filmu na najróżniejsze tematy dzięki temu pisząc referat o powiedzmy lądowaniu w Normandii mogą bardziej zgłębić temat. Bardzo powszechną praktyką jest też tworzenie oraz prowadzenie stron internetowych szkół oraz for dyskusyjnych poszczególnych klas (czy grup na studiach), jest to bardzo pomocne.

Podłączenie komputera do Internetu dało nam jeszcze większe możliwości.

Możliwość znalezienia dowolnej informacji, przeczytane książki, opracowań naukowych, możliwość współtworzenia projektów (często o zasięgu światowym) lub zwykła pogawędka ze znajomymi to tylko nieliczne zalety Internetu. Praktycznie każdy bank oferuje już swoje usługi w Internecie, powszechnie stosuje się kursy e-learningowe (czyli prowadzone przez Internet) do szkolenia swoich pracowników niedługo będzie też można w każdej chwili zerknąć na oceny swoich dzieci poprzez stronę internetową. Wiele uniwersytetów zagranicznych udostępnia też możliwość studiowania na nich poprzez Internet (przyjeżdża się na uczelnię tylko raz na pół roku lub na rok w celu zdania egzaminów). Programy komputerowe coraz rzadziej są wyposażane w systemy pomocy (help) zamiast tego pomoc oferuje się za pomocą linka do strony internetowej firmy produkującej to oprogramowanie, na której znajdują się wszelkie potrzebne informacje.

Umożliwienie darmowego i szybkiego komunikowania się jest chyba największa zaletą komputera (oraz Internetu). Nie ma obecnie możliwości poruszania się w środowisku biznesowym bez posiadania konta e-mail. Braku komunikacji nie mógłby też wyobrazić sobie żaden student czy uczeń. Gdy następuje jakaś awaria Gadu-Gadu (najpopularniejszego polskiego komunikatora) ludzie wpadają w popłoch. Bez Internetu i związanych z nim możliwości komunikowania się czujemy się jak bez ręki. Rozwój komunikatorów internetowych to nie tylko programy, w których trzeba pisać. Istnieje wiele programów (najpopularniejszy w Polsce jest Skąpe) umożliwiających rozmowy głosowe bez używania telefonu, całkowicie za darmo. Dodatkowo podpinając kamerkę internetową możemy widzieć naszego rozmówcę. Za pomocą kamer i szybkich łącz wiele firm przeprowadza, wideokonferencje, dzięki czemu może zaoszczędzić ogromne pieniądze, które traci się, co rocznie na wysyłanie pracowników na delegacje i najróżniejsze spotkania a efekt jest ten sam, można usłyszeć opinie innych, podzielić się swoimi spostrzeżeniami, zweryfikować postępy itd. Ponad to można zaoszczędzić najcenniejszy ostatnio czynnik, czyli czas, którego pracownik czy manager nie musi tracić na podróż z jednego miasta czy kraju do innego. Możliwość przeprowadzania wideokonferencji mają też mieć telefony najnowszych generacji (tak zwanej sieci UMTS).

Komputer podłączony do Internetu ma niewyobrażalnie duże możliwości tym większe im lepiej potrafimy z komputera korzystać. Można powiedzieć, że każdą dowolnie wybraną informację na jakikolwiek temat jest się w stanie przy odrobinie wprawy znaleźć w Internecie. Dodatkowo kwitnie również handel internetowy. Wszelkiego typu sklepy internetowe oferują tańsze towary a aukcje internetowe umożliwiają nam pozbyć się z domu niepotrzebnych gratów, lub też kupić niedostępne nigdzie indziej przedmioty (np. na aukcji

e-bay sprzedawano kiedyś myśliwiec MIG 29 z pełnym uzbrojeniem). Nie ma też znaczenia czy osoba, od której kupujemy jakiś przedmiot mieszka w Anglii czy Brazylii, dzięki Internetowi świat stał się dużo mniejszy.

To dzięki Internetowi na światło dzienne wychodzą afery, które wstrząsnęły światem (chociażby sprawa Moniki Lewinsky), rządy poszczególnych państw zaczynają brać na poważnie to co pisze się o nich w Internecie. Dobrym przykładem wrażliwości na treści zamieszczane na WWW może być ostrzeżenie oraz zamykanie niektórych witryn przez nasz obecny rząd. Panowie Kaczyńscy "na siłę" chcieli zatamować szerzącą się w Internecie falę "kaczych" dowcipów, strasząc właścicieli witryn z takimi treściami grzywnami oraz w szczególnych przypadkach aresztowaniami (pokazuje to jak bardzo zaściankowym krajem jest jeszcze Polska). Globalna pajęczyna na zawsze zmieniła świadomość ludzi oraz ich sposób postrzegania świata. Nie dziwi już nikogo fakt umawiania się na randki przez czat, czy poszukiwanie za pomocą Internetu ekipy na Mount Everest. Wiele firm wprowadziło również innowacje odnośnie przyjęć do pracy. Nie przychodzi się już do pracodawcy z życiorysem i listem motywacyjnym a wysyła się je mailem, dzięki czemu pracodawca może zaprosić na rozmowę kwalifikacyjną tylko te osoby, które naprawdę spełniają wszelkie wymagane przez niego kryteria. Ponad to bardzo często spotykanym w dzisiejszych czasach rozwiązaniem jest wspólna praca za pomocą Internetu wielu osób z wielu krajów świata jednocześnie nad wspólnym projektem. Za pomocą sieci mogą komunikować się ze sobą bezpośrednio, wymieniać dane, sugestie, wyniki itd.

Łatwość, z jaką można stworzyć własną stronę WWW spowodowała ogromny napływ informacji do Internetu. Każdy może, bowiem stworzyć serwis, o czym tylko chce (począwszy od rodzajów owłosienia u niedźwiedzi polarnych, poprzez fankluby zespołów muzycznych a na serwisach poświęconych własnej twórczości malarskiej skończywszy). Dodatkowo ogromna popularność zdobywają też internetowe pamiętniki (tak zwane blogi), w których ludzie opisują swoje przeżycia i udostępniają je do czytania innym użytkownikom. Bardzo dużym zainteresowaniem cieszą się tez fora internetowe, które wypierają bardzo owocnie powszechne do tej pory grupy dyskusyjne. Forum można, bowiem stworzyć w kilka minut (istnieją gotowe pakiety instalacyjne, które wystarczy rozpakować i wgrać na serwer), poza tym, do uczestniczenia w forum nie trzeba tak jak w przypadku grup dyskusyjnych posiadać specjalnego oprogramowania, po prostu odpalamy przeglądarkę internetową, wpisujemy w wyszukiwarce interesująca nas tematykę, znajdujemy forum i wymieniamy opinie na interesujące nas tematy.

Jednak tak jak wszystkie rzeczy na świecie Internet nie jest też pozbawiony wad. Z powodu ogólnej jego dostępności oraz możliwości publikowania dowolnych Informacji w tym także pornografii, utworów muzycznych i oprogramowania objętych prawami autorskimi itd. Ogromny postęp, jaki dokonał się w rozwoju sieci globalnej, pozostawił niestety w tyle wszelkie ustawodawstwo, przepisy i prawa, które nie są po prostu przystosowane do nowych realiów. Nie znają pojęcia wirtualnej kradzieży i tym podobnych. Obecnie wielu prawników cały czas prowadzi wytężone prace nad wymyśleniem i wprowadzeniem odpowiednich przepisów. W sytuacji, gdy komputer staje się podstawowym urządzeniem w domu, sterującym wszystkimi innymi sprzętami jest to po prostu konieczne.

Oto kilka najważniejszych dat związanych z ewolucją komputerów:

  • Rok 1981 firma IBM prezentuje światu pierwszy komputer typu PC/XT jednak ceny zarówno komputera jak i podzespołów są obłędne (dodatkowa kostka pamięci RAM to wydatek rzędu tysiąca dolarów, dysk twardy o pojemności trzystu MB czyli kosmicznej jak na owe czasy, kosztował również kosmiczną kwotę osiemnastu tysięcy dolarów.
  • Rok 1982 - Zostają wyprodukowane pierwsze komputery "kompatybilne" z IBM PC (czyli oparte na opublikowanej przez IBM architekturze ale wykonane przez firmy: Columbia Data Systems czy też Compaq).
  • W tym roku po raz pierwszy zaczęto stosować w listach e-mail tak zwane emotikony czyli uśmieszki z nawiasów i dwukropków np. ;)
  • Rok 1983 - Oprogramowanie z arkuszem kalkulacyjnym Lotus 1-2-3 zalewa biura firm w USA, firma IBM wypuszcza na rynek nowe wersje komputerów o oznaczeniach AT oraz XT, powstają też pierwsze sprzedawane powszechnie drukarki laserowe (firma Hawlett-Packard).
  • Rok 1984 - na rynek zostaje wprowadzony komputer Macintosh firmy Apple (pierwszy komputer na świecie z graficznym interfejsem użytkownika), firma Intel prezentuje swój najszybszy procesor 80286, zostaje wymyślony pierwszy prototyp CD-ROMu.
  • Rok 1985 - na rynek oprogramowania trafia pierwszy graficzny system operacyjny przeznaczony na komputery PC - Microsoft Windows, w Internecie tworzą się pierwsze domeny najwyższego poziomu (czyli .com, .uk, itd.)
  • Rok 1986 - Firma Compaq prezentuje pierwszy komputer z procesorem Intel 80386, powstanie protokołu NNTP, dzięki któremu możliwe staje się tworzenie w Internecie grup dyskusyjnych.
  • Rok 1987 - Wprowadzenie na rynek systemów operacyjnych Windows 2.X (dla PC) oraz OS/2 (dla Macintoshy), rewolucja w prezentowaniu grafiki przez komputer spowodowana stworzeniem karty VGA.
  • Rok 1988 - pojawiają się pierwsze wzmianki na temat problemu roku 2000, pojawia się pierwszy globalny wirus komputerowy (nazwany Internet worm), który zaraził 10% całego ówczesnego Internetu.
  • Rok 1989 - firma Intel wypuszcza na rynek pierwsze procesory 80486, powstaje pierwszy rozbudowany edytor tekstowy dla systemu Microsoft Windows, zostaje wymyślony format zapisu plików graficznych .gif .
  • Rok 1990 - powstanie systemu operacyjnego Microsoft Windows 3.0, tworzą się pierwsze strony WWW napisane z użyciem języka HTML.
  • Rok 1991 - światło dzienne ujrzała nowa wersja systemu operacyjnego Windows (3.1), firma AMD wkracza na rynek producentów procesorów, korporacje Apple, Motorowa oraz IBM rozpoczynają wspólne przedsięwzięcie mające na celu zbudowanie super komputera (Power PC), upowszechnia się format zapisy zdjęć w trybie .jpg
  • Rok 1992 - Upowszechniona zostaje usługa WWW, pojawiają się pierwsze wersje systemu operacyjnego Linux.
  • Rok 1993 - powstaje kamień milowy w dziedzinie rozrywki komputerowej - gra DOOM, zostaje też wymyślony sposób kodowania obrazu MPEG, na rynek trafiają tez pierwsze przeglądarki internetowe.
  • Rok 1994 - Premiera systemu Microsoft Windows 95, powstaje przeglądarka Netskape Nawigator, tworzy się portal internetowy Yahoo! .
  • Rok 1995 - firma Intel prezentuje procesor Pentium Pro, po raz pierwszy zostaje wykorzystany system audio do odtwarzania muzyki z komputera, na ekrany kin wchodzi film Toy Story - w całości wykonany komputerowo.
  • Rok 1996 - wynalezienie DVD, do sprzedaży trafiają modemy o prędkości 56K, rewolucja w grafice - karty SVGA, firma Microsoft rozpoczyna prace nad systemem Windows NT 4.0
  • Rok 1997 - Firma AMD zaczyna zdobywać rynek swoimi procesorami K6, Intel wypuszcza Pentium II oraz wprowadza technologię MMX, firma Apple prezentuje system operacyjny Mac OS 8, w firmie Microsoft trwają prace nad systemem Windows 98.
  • Rok 1998 - firma Apple raz na zawsze zmienia wizerunek komputera osobistego wprowadzając na rynek komputer iMac o bardzo odważnym designie i różnych kolorach obudów, do komputerów PC trafia natomiast gotowy system operacyjny Windows 98.
  • Rok 1999 - powstają procesory Intel Pentium III oraz AMD Athlon, ludzie zaczynają popadać w obsesję odnośnie problemu Y2K, (czyli problemu roku 2000 i zmiany dat w zegarach), firma IBM wypuszcza do sprzedaży najbardziej pojemny dysk na świecie (73,4 GB).
  • Rok 2000 - Firma Apple wprowadza na rynek komputer G4, Microsoft zostaje posądzony o praktyki monopolistyczne, firma AMD wprowadza na rynek procesor Durom, Intel rozpoczyna prace nad Pentium IV
  • Rok 2001 ceny podzespołów komputerowych znacznie spadają, przeciętny śmiertelnik może sobie pozwolić na zakup Pentium IV.

Co to jest tranzystor?

Pierwsze tranzystory zostały zbudowane w 1947 roku przez ekipę naukowców pracujących w laboratoriach firmy Bell, dowodzonych przez amerykanów Brattaina i Bardeena. Były one zrobione z wykorzystaniem germanu, czyli metalopodobnego pierwiastka chemicznego. Zadaniem tranzystora było wzmacnianie przepływającego przezeń sygnału elektrycznego. Prototyp z 1947 roku potrafił wzmocnić impuls o mniej więcej 100 razy. W dzisiejszych czasach praktycznie nie można sobie wyobrazić życia bez tranzystorów. W kolejnych latach trwały prace nad udoskonaleniem tranzystorów. Zaowocowało to powstaniem w roku 1948 tranzystora ostrzowego, wymyślonego przez amerykanów W.H. Brattain'a oraz J. Bardeena a w rok później stworzenie przez W Shockleya tranzystora warstwowego. W 2001 roku naukowcy holenderskiego Uniwersytetu w miejscowości Delft zbudowali najmniejszy na świecie tranzystor (składa się on z jednej tylko cząsteczki). Jego rozmiar to 10-9metra, (czyli jeden nanometr), tranzystor ten do zmiany swojego stanu używa jednego elektronu. Dzięki temu wynalazkowi, może postępować dalsza miniaturyzacja komputerów i innych urządzeń elektrycznych oraz ogromny wzrost ich mocy obliczeniowych.

Typy tranzystorów

Tranzystor jest półprzewodnikiem, który umożliwia kontrolowany przepływ impulsów elektrycznych.

Ze względu na sposób działania tranzystorów można je podzielić na:

  • Bipolarne - tworzone w głównej mierze z krzemu, czasem z germanu
  • Unipolarne, czyli tak zwane polowe

Można tez podzielić tranzystory pod względem kolejności, w jakiej ułożone są warstwy półprzewodnikowe na tranzystory typu:

  • NPN
  • PNP

Dodatkowo rozróżnia się też podział tranzystorów na:

  • Dyfuzyjne - czyli posiadające jednorodną bazę
  • Dryftowe - posiadające bazę niejednorodną

Ponad to wśród tranzystorów tak zwanych polowych, (czyli typu FET - Field Effect Transistor) wyróżniamy:

  • Tranzystory z izolowaną bramką, czyli 1GFET z ang. Insulated Gate FET oraz tranzystory MOSFET czyli z ang. Metal Oxide Semiconductor FET.
  • Tranzystory JFET czyli tak zwane złączowe z ang. Junction FET

Można również podzielić tranzystory ze względu na sposoby, w jakie przewodzą one prąd. Wyróżnia się wtedy:

  • Tranzystory ze zubożonym kanałem, czyli takim, w którym zawarto niewielką liczbę nośników w porównaniu do podstawy tranzystora, dzięki czemu kanał tranzystora nie zanika nawet podczas zewnętrznej polaryzacji tranzystora tego typu.
  • Tranzystor z kanałem wzbogacanym, polegające na tym, że tranzystor ma rodzaj przewodnictwa odwrotny niż podstawa, dlatego też w przypadku braku przeciwnej polaryzacji nie występuje on w tranzystorze.

Tranzystor może podobnie jak dioda mieć dużą, małą, lub średnią moc. Zależy to w głównej mierze od powierzchni, jaka tranzystor zajmuje oraz od sposobu, w jaki odprowadza on ciepło. Podziału tranzystorów można również dokonać ze względu na zakres częstotliwości, jakie są przez niego przetwarzane na:

  • Tranzystory o dużej częstotliwości
  • Tranzystory o niewielkiej częstotliwości

Częstotliwość danego tranzystora zależy od rozmiarów jego części składowych, rodzaju procesu technologicznego oraz czasu trwania tego procesu jak również od cech półprzewodnika użytego do ich budowy.

Budowa tranzystorów

Najpopularniejsze tranzystory, (czyli bipolarne) są zbudowane z trzech części półprzewodnikowych (bazy, emitera oraz kolektora), o antagonistycznym rodzaju przewodnictwa, powstają w nich dzięki temu 2 łącza. Łącze PN tak zwane emiterowe oraz łącze NP, czyli kolektorowe.

Wśród tranzystorów polowych można wyróżnić:

  • Tranzystory zawierające złącza PN (tak zwane tranzystory złączowe)
  • Tranzystory posiadające bramkę izolowaną

Omówienie tranzystorów FET, (czyli innymi sowy unipolarnych czy też polowych).

Nazwa tych tranzystorów pochodzi od angielskiego skrótu Field Effect Transistor. Budowa tego typu tranzystora sprowadza się do posiadania przez niego kanału wzbogaconego lub zubożonego P lub N. W tego typu tranzystorach wyróżnia się elektrody o następujących nazwach:

  • D oznacza dren, z ang. Drain
  • S to źródło z ang. Source
  • G jest bramką z ang. Gate

Sterowaniem przepływu prądu w tranzystorach polarnych zajmują się nośniki, których dany tranzystor zawiera więcej. Mogą to być elektrony (tak jak w tranzystorach typu N) bądź też przerwy (jak w przypadku tranzystorów typu P). Natężenie impulsu elektrycznego, który przepływa przez tranzystor typu polowego jest zależna od wysokości napięcia miedzy drenem oraz źródłem jak również od oporności kanału. Tranzystory polowe dzielą się na tranzystory złączowe, czyli takie, które wykorzystują łącze PN oraz na tranzystory z bramką izolowaną.

Podstawy komputeryzacji.

Za pierwowzory komputerów można uznać budowane przez starożytnych Greków pierwsze liczydła. Kolejnym znaczącym krokiem było zbudowanie w 1642r pierwszej mechanicznie wykonującej obliczenia maszyny. Dokonał tego Francuz Blaise Pascal, matematyk i filozof, jednak jego maszyna potrafiła jedynie dodawać oraz odejmować. Dopiero w roku 1671 niemiecki filozof i matematyk Gottfried W. Leibniz stworzył maszynę, za pomocą, której można było mechanicznie wykonywać cztery podstawowe działania matematyczne. Prekursorem w dziedzinie projektowania urządzeń liczących, które można było produkować na skalę masową był Szwed Wilhelm Odhner, który zaprezentował stworzoną przez siebie maszynę w roku 1779. Do dzisiaj stosuje się wymyślone przez niego arytmometry. Następny krok w dziedzinie budowy maszyn liczących poczynił w 1822 roku Anglik Charles Babbage, jego maszyna umożliwiała interpretowanie za pomocą rachunku różniczkowego, tablic matematycznych. Pierwszą maszyną wykonującą obliczenia na podstawie z góry ustalonego dla niej programu oraz prezentującego wyniki w formie cyfr był MARK-1. Maszynę tą zbudował Amerykański naukowiec Howard H. Aiken a prace nad nią trwały aż przez siedem lat (od 1937 do 1944 roku). Aiken opierał się w swych pracach na doświadczeniach Johna von Neumana. Rozmiary Marka-1 były tak duże, że trzeba było trzymać go w kilku dużych pomieszczeniach. Zmniejszenie rozmiarów komputerów stało się możliwe dzięki zastosowaniu do ich budowy przekaźników elektronicznych (najpierw w formie lamp, później półprzewodnikowych tranzystorów). W 1946 roku zbudowano pierwszy elektroniczny komputer o nazwie ENIAC. Tego przełomowego osiągnięcia dokonali amerykańscy naukowcy i J.P. Eckert oraz John W. Mauchly. Na kolejne kroki nie trzeba było długo czekać. Rok 1950 było rokiem budowy pierwszego komputera do celów nie wojskowych. Wraz z wynalezieniem tranzystora oraz układów scalonych miniaturyzacja oraz spadek kosztów wytworzenia podzespołów doprowadziły do powstania komputerów osobistych, przeznaczonych do zastosowań domowych dla zwykłych użytkowników. Dalsza miniaturyzacja sprawia, że cały czas rosną może obliczeniowe oraz maleją ceny podzespołów komputerowych. Polscy naukowcy z Zakładu Aparatów Matematycznych Polskiej Akademii Nauk zbudowali pierwszy rodzimy komputer w roku 1958 nosił on nazwę XYZ.

Czym jest mikroprocesor?

Jest to atomowy, (czyli niedający się podzielić) układ scalony, za pomocą, którego możemy otrzymać dane przezeń przetworzone. Procesor nie ma jednak możliwości samodzielnego działania. Konieczne są tez do jego poprawnego działania inne elementy, np. wprowadzające dane, na których procesor operuje, przechowujące wyniki, prezentujące dane użytkownikowi itd. Działanie procesora sprowadza się do przetwarzania prowadzonych do niego danych zgodnie z zadanym programem. Dane potrzebne procesorowi, programy, oraz wyniki obliczeń przechowywane są w pamięci komputera. Pamięć ta dzieli się na dwie grupy:

  • Pamięć swobodnego dostępu, czyli RAM (z ang. random acces memory). Pamięć tą wykorzystują do działania wszystkie programy uruchamiane na komputerze. Procesor przechowuje w niej dane, na których aktualnie pracuje.
  • Pamięć tylko do odczytu, czyli ROM (z ang. read only menory). Z pamięci tej możliwy jest tylko odczyt zapisanych w niej wcześniej danych, znajdują się w niej dane niezbędne do uruchomienia komputera oraz pracy procesora.

Komputer musi też posiadać możliwość komunikowania się z urządzeniami zewnętrznymi, czyli myszka, monitor, klawiatura, ale też dysk twardy, napędy optyczne, drukarki itd. Do wykonywania tego zadania służą mu tak zwane układy I/O czyli wejścia/wyjścia (od angielskich słów input/output). Procesor łączy się z wszystkimi elementami komputera za pomocą trzech typów magistrali (tak zwanych szyn):

  • adresowej - dzięki której procesor ma dostęp do miejsc w pamięci gdzie znajdują się potrzebne mu do wykonania operacji dane
  • rozkazów - którą biegną polecenia co ma być wykonane
  • danych - za jej pomocą przesyłane są na których wykonywane są operacje

Sposób przetwarzania danych przez komputer.

Przetwarzanie grafiki, filmów, muzyki czy obliczanie skomplikowanych zadań matematycznych nie stanowi obecnie problemu dla żadnego komputera. Jak to się jednak dzieje, że wpisywane przez nas litery czy rysowane obrazki, są rozumiane przez procesor komputera? Przecież tranzystory, z których procesor jest zbudowany nie mają możliwości odróżnienia czy piszemy np. C czy rysujemy księżyc. Komputer może rozumieć dane tylko i wyłącznie w postaci liczb (i to w systemie dwójkowym, ale o tym za chwile). Jak więc zamienić literę na liczbę? To zadanie nie wydaje się już zbytnio trudne, wystarczy przyporządkować literze a cyfrę 1, b cyfrę 2 itd. Ok. wiemy, więc jak procesor interpretuje liczby, ale co z obrazkami lub zdjęciami? Wbrew pozorom nie jest to wcale takie trudne. Obraz wyświetlany jest przez monitor zawsze w jakiejś konkretnej rozdzielczości (np. 1024x768) oznacza to, że w jednej poziomej linii wyświetlanej na ekranie monitora mieści się 1024 punktów (tak zwanych pikseli) a wszystkich linii może być maksymalnie 768. Każdy punkt na ekranie ma, więc swoje współrzędne (numer linii w poziomie i pionie) teraz tylko trzeba nadać mu odpowiedni kolor. Jak to zrobić? Podobnie jak w przypadku liter, każdy kolor ma przyporządkowany odpowiedni numer. Jak teraz te wszystkie numery przetłumaczyć tak, aby mogły z nich korzystać tranzystory, czyli procesor? Żeby to wyjaśnić muszę najpierw skupić się na zapisywaniu przez nas liczb. Liczbę na przykład 1274 zapisujemy jako 1*103+2*102+7*101+4*100 (oczywiście większość z nas nawet nie zdaje sobie sprawy z tego, robimy to po prostu automatycznie) jest to tak zwany system dziesiętny, czyli taki, w którym każdą liczbę można zapisać za pomocą cyfr od 0 do 9 i gdzie podstawą miar jest liczba 10 i jej wielokrotności. Ale nie zawsze w taki właśnie sposób zapisywano liczby. Istniały dawniej systemy wykorzystywane przez ludzi, oparte na innej podstawie, np. Sumerowie korzystali z systemu gdzie podstawą miar była liczba 12, z systemu tego korzystamy dzisiaj podczas np. mierzenia czasu (1 godzina równa się 60 minut, w naszym systemie dziesiętnym logiczniej było by podzielić godzinę na 100 minut). Stworzenie mikroprocesora, który działałby wykorzystując system dziesiętny jest niezmiernie trudne. Tranzystor może przyjmować, bowiem jedynie dwa stany, to znaczy włączony, (gdy płynie przez niego prąd) lub wyłączony, (gdy sygnał elektryczny nie jest przepuszczany). Z tego, więc powodu wszystkie dane w komputerze są sprowadzane do postaci 1 lub 0 i dopiero wtedy mogą być interpretowane przez procesor. Na szczęście specjalnego systemu dwójkowego pozwalającego zapisać każdą liczbę jedynie za pomocą liczb 0 i 1 nie trzeba było wymyślać. Cały system z opisanymi zasadami przeprowadzania działań matematycznych został opracowany już w starożytnych Chinach. Na prostym przykładzie przedstawię notację liczby 19 w systemie dwójkowym to 10011. Jest tak, dlatego ponieważ:

1*24+0*23+0*22+1*21+1*20 równa się właśnie 19. W ten sam sposób można zapisać dowolną liczbę dziesiętną za pomocą tylko i wyłącznie zer i jedynek. Każde 0 oraz każda 1- czyli innymi słowy każdy znak rozumiany przez komputer to tak zwany bit. Połączenie 8 bitów tworzy bajt. Pierwsze komputery pracowały na ośmiobitowych porcjach danych, obecnie wykorzystywane są porcje 64 bitowe, co znacznie zwiększyło wydajność. Za pomocą bitów i bajtów oraz ich wielokrotności wyraża się wszystkie pojemnościowe parametry komputera. Żeby, więc nie pogubić się w tych wszystkich oznaczeniach podam tutaj najważniejsze przeliczniki:

  • 8 bitów = bajt
  • 210 bajtów = Kilo bajt (KB)
  • 220 bajtów = megabajt (MB)
  • 210 megabajtów = gigabajt (GB)

Układy scalone

Po raz pierwszy układ scalony został stworzony w 1961 roku przez amerykańskiego naukowca Boba Noyce'a pracującego w zakładach Fairchild Semiconductors. Jednak teoria tego rewolucyjnego wynalazku zrodziła się jeszcze w 1959 roku w firmie Teras Instruments a jej pomysłodawca był Jack Kirby. Innowacją wymyślona przez Noyc'a był pomysł drukowania całego obwodu (w postaci karty) poprzez wykorzystanie procesu fotograficznego. Masowa produkcja układów scalonych przypada na tok 1962, a okres najbardziej burzliwego rozwoju rozpoczął się wraz z odkryciem właściwości dwutlenku krzemu oraz technologii planarnej, (wykorzystywanej do dzisiaj). Układy scalone są miniaturowymi zbiorami przełączników, kondensatorów i diod, zespolonych nierozerwalnie i wykonanych w jednym cyklu technologicznym, na podstawce (w dzisiejszych czasach jako podstawek używa się płytek krzemu). Układy scalone są zamknięte w ścisłej obudowie zabezpieczającej układ przez niepożądanym działaniem zanieczyszczeń, wilgoci i innych szkodliwych czynników).

Występuje wiele podziałów układów scalonych.

Ze względu na podejście konstrukcyjno - technologiczne układy scalone dzieli się na:

  • układy warstwowe czyli takie, które zawierają części tak zwane bierne, (czyli rezystor, kondensator, cewka), nałożone są na bierne (czyli najczęściej ceramiczne) podłoże, natomiast elementy półprzewodnikowe są osobno wlutowywane zewnętrznie do układu.
  • Układy półprzewodnikowe są to natomiast układy, w których wszystkie elementy są atomowe, nie można wyodrębnić poszczególnych elementów a w razie awarii naprawić układu. Układy tego typu są tworzone poprzez specjalne procesy fizyko-chemiczne.

Układy scalone można również podzielić ze względu na skalę integracji, z ang. scale integration (czyli to jak bardzo są upakowane elementy na jednej podstawce):

  • VLSI - bardzo duża skala integracji - na płytce jest umieszczonych ok. miliona elementów
  • LSI - duża skala integracji - na płytce zawartych jest od stu do kilku tysięcy elementów
  • MSI - średnia skala integracji - na płytce zawartych jest ok. stu elementów
  • SSI - mała skala integracji - płytka może pomieścić maksymalnie 10 elementów.

Układy scalone można podzielić również po względem zastosowania na analogowe oraz cyfrowe.

Jedną z nowinek było wyprodukowanie przez firmę Hitach układów scalonych o grubości mniejszej niż 0,4 mm. Dzięki tak niewielkim rozmiarom układy te można np. montować w banknoty czy wykorzystać do innych celów użytkowych, ponieważ nie jest im straszne zginanie czy zgniatanie. Dodatkowo na każdym tego typu chipie można zmieścić 128 bitów danych.

Kilka słów na temat Internetu.

Przeciętny użytkownik Internetu nie zdaje sobie sprawy jak głębokie korzenie ma idea sieci globalnej. Wszystko zaczęło się przed około trzydziestu siedmiu lat temu, gdy 1 września od zainstalowania na Uniwersytecie Kalifornijskim prototypową, wojskową sieć informatyczną o nazwie ARPANET. W niedługim czasie do ARPANETu podpięto jeszcze trzy kolejne uniwersytety. Nazwa sieci pochodziła od nazwy agencji wojskowej, która finansowała oraz koordynowała projekt (Advanced Research Project Agency). Celem projektu było sprawdzenie czy da się stworzyć rozległą sieć komputerową, która nie będzie zcentralizowana oraz będzie mogła działać poprawnie nawet w przypadku uszkodzenia niektórych jej fragmentów. Wyniki eksperymentu były niezmiernie ważne, ponieważ jak dotąd, każda sieć komputerowa była obsługiwana dzięki jednemu centralnemu komputerowi. W przypadku jego uszkodzenia, cała sieć przestawała działać. Dlatego też w czasie wojny sieć oparta na tego typu założeniach nie miała prawa bytu, ponieważ oczywistym jest fakt, że wszystkie ataki wroga skupiałyby się na wyłączeniu owego komputera z działania. Dlatego też dowództwo główne sił zbrojnych zdecydowało się na przeprowadzenie eksperymentu z wykorzystaniem sieci informatycznej o strukturze rozproszonej (koncepcję rozproszoną stworzyli naukowcy z RAND Corporation - zajmujący się przeprowadzaniem badań dla wojska). Przez kolejne dwa lata trwały prace nad rozbudowywaniem sieci, jednocześnie dołączano do prac coraz więcej ekip naukowców. Wtedy też powstały pierwsze projekty programów obsługujących oraz wykorzystujących możliwości tego typu sieci informatycznej. Do pierwszych sukcesów trzeba na pewno zaliczyć udane wykorzystanie możliwości podłączenia się do komputerów wpiętych do innych sieci i wykonywanie na nich obliczeń. Prace nad tymi projektami zaowocowały zaprojektowaniem w roku 1971 pierwszego w pełni funkcjonalnego programu do obsługi poczty elektronicznej. Dało to wszystkim ekipom naukowców pracujących nad siecią możliwość komunikowania się nie tylko w sprawach zawodowych, ale również prywatnych. Można powiedzieć, że byli oni przodkami dzisiejszych społeczności internetowych. W roku 1972 w Waszyngtonie na międzynarodowej konferencji poświęconej łączności komputerowej, zaprezentowano ARPANET po raz pierwszy. Projekt wzbudził ogromne zainteresowanie naukowców z USA oraz zagranicy, którzy zadeklarowali swoja pomoc przy projekcie. Powołano specjalną grupę roboczą mającą się zajmować sprawami sieci (International Network Working Group). Oczywiście Amerykanie dołączyli również do prac nad projektem naukowców z zagranicy. Już rok później zaowocowało to podpięciem do sieci Wielkiej Brytanii oraz Norwegii, dzięki czemu ARPANET przekształcił się w siec międzynarodową. Trwające nadal bardzo intensywnie prace doprowadziły do finalnego doprecyzowania standardów (stosowanych do dzisiaj): telnet (1972), FTP (1973), poczty e-mail (1977). Tak, więc założenia projektu sieci globalnej zostały spełnione w 100%, dodatkowo naukowcy z całego świata otrzymali bardzo efektywne narzędzie do komunikowania się między sobą. Ogromny sukces ARPANETU skłonił kierowników projektu do zmiany jego statusu, dzięki czemu ARPANET przestał już być projektem a stał się siecią użytkową, nad która opiekę sprawowało DCA (z ang. Defense Communications Agency - Wojskowa Agencja Łączności). Nadal jednak trwały wytężone prace nad rozwijaniem możliwości sieci. Zwłaszcza, że naukowcy zauważyli, że stosowany przez nich do tej pory protokół odpowiadający za komunikację, czyli NCP (z ang. Network Control Protokol) przy dużej ilości komputerów w sieci przestaje pracować prawidłowo. Dlatego też trwały usilne prace nad stworzeniem protokołu nowego typu.

Udało się to w roku, 1983 kiedy to oparto sieć na całym zestawie nowych protokołów nazwanych TCP/IP (Transmission Control Protokol / Internet Protokol). Dzisiejszy Internet jako podstawę funkcjonowania wykorzystuje nadal ten sam zestaw protokołów. Również na rok 1983 datuje się rozłam ARPANETu. Powodowane gigantyczną liczbą wniosków od uczelni oraz innych instytucji cywilnych kierownictwo ARPANETu zdecydowało się na wyodrębnienie z ARPANETu dwóch sieci. Pierwszą była sieć o przeznaczeniu ściśle wojskowym - nazwano ją MILNET (od skrótu Military Net -z ang. sieć wojskowa). Druga natomiast sieć miała być przeznaczona tylko do celów cywilnych (została jej nazwa ARPANET). Ostatecznie z biegiem lat nazwa Internet (pochodząca od zlepku International Net - sieć międzynarodowa) stopniowo wyparła nazwę ARPANET. Dodatkowo powstawanie coraz to nowych sieci, (co umożliwiał zestaw protokołów TCP/IP) spowodowało całkowite zlikwidowanie ARPANETu w 1990 roku. Rok 1983 przyniósł jeszcze jedną bardzo znaczącą innowację. Oto na Uniwersytecie Berkeley zaprezentowano opracowaną przez tamtejszych naukowców odmianę UNIXa, w której zaimplementowano obsługę zestawu protokołów, TCP/IP. Dzięki temu wreszcie pojedyncze komputery mogły być podłączane do Internetu, ale nie tylko. Dawało to też możliwość podłączania do Internetu całych sieci lokalnych, co spowodowało lawinowy wzrost podłączanych użytkowników. W związku ze wzrostem popularności oraz rozmiarów sieci Internet rosły również koszty jej utrzymania. Wojsko nie chciało już zajmować się siecią cywilna i tym samym narażać na koszty jej utrzymywania. Dlatego też obsługę oraz finansowanie Internetu przekazano pod skrzydła NSF (National Science Foundation - Narodowemu Funduszowi Nauki). Fundusz ten zdecydował się na inwestycję w stworzenie szybszego rdzenia, na którym Internet miał się opierać. Tak zwany backbone miał za zadanie umożliwienie bardzo szybkiego przesyłu danych między głównymi węzłami sieciowymi. Dzięki NSFowi i wprowadzeniu przez nich szybszego rdzenia dostęp do Internet mógł objąć swoim zasięgiem cały świat (np. Polskę podłączono do Internetu w 1991 roku). NSFNET (bo tak tez nazywano ta sieć) był jednak tylko i wyłącznie siecią naukową. Jednak parcie firm komercyjnych, które również chciały mieć dostęp do sieci było tak duże, że NSFNET wyodrębnił różne sieci tak zwane szkieletowe, dzięki którym specjalni dostawcy (zwani providerami) mogli sprzedawać firmom dostęp do Internetu. Dopiero w roku 1995 rząd Stanów Zjednoczonych podjął decyzję o zlikwidowaniu NSFNETu i całkowitemu skomercjalizowaniu sieci Internet. Badania dowodzą, że na koniec 1998 roku do sieci podpiętych było ok. 30 000 000 komputerów i ich liczba cały czas rośnie.

Sposoby wykorzystania Internetu

Nie da się ukryć ogromnego potencjału, jaki niesie ze sobą globalna sieć. Składają się na się na nią dziesiątki usług takich jak: WWW, e-mail, USENETu, telnet, i inne. Z nich wszystkich można korzystać będąc podpiętym do sieci. Ogromna większość usług jest udostępniana użytkownikom powszechnie i za darmo jednak część usług jest zabezpieczona bądź zablokowana i mogą z niej korzystać tylko nieliczni (np. wojsko).

Kilka słów na temat USENETu.

Działanie USENETu, czyli tak zwanych grup dyskusyjnych jest podobne do usługi

e-mail jednak opiera się na założeniu, że napisana przez nas wiadomość może być przeczytana przez wszystkich użytkowników konkretnej grupy dyskusyjnej (często osób będących członkami takiej grupy jest kilkaset tysięcy), którzy maja możliwość dopisywania do niej swoich odpowiedzi. Grup dyskusyjnych poruszających najrozmaitsze zagadnienia są oczywiście miliony, dodatkowo każda z grup zawiera swoje podgrupy (np. grupa dyskusyjna miłośników UFO oraz obcych o nazwie alt.aliens-visitors posiada ok. 100 podgrup, na których toczą się dyskusje na wyszczególnione tematy z UFO związane). Dzięki temu tworzą się ogromne archiwa dyskusji na wszystkie możliwe tematy począwszy od opisywania problemu zakupu czy naprawy pralki na rozwiązywaniu problemów małżeńskich skończywszy. Każdy uczestnik grupy dyskusyjnej ma możliwość wysyłania wiadomości publicznej, która będzie odebrana przez wszystkich członków grupy, bądź też wiadomości prywatnej skierowanej tylko do konkretnego użytkownika grupy. Grupy dyskusyjne nie pełnią oczywiście jedynie funkcji prywatnej, bardzo często w ramach USENETu przeprowadzane są poważne debaty na różnych szczeblach.

Aby móc używać USENETu trzeba zaopatrzyć się w odpowiednie oprogramowanie (wbudowany w system operacyjny Windows program Outlook express wystarcza do tego celu w zupełności).

Zalety grup dyskusyjnych.

Każdy użytkownik podpięty do globalnej sieci ma możliwość wymiany informacji za pomocą USENETu. Czasem jednak zaczynają denerwować wiadomości, które już po wielokroć czytaliśmy, bądź też czyjeś prywatne pogaduchy. Dlatego, żeby dowiedzieć się konkretnych informacji na dany temat najlepiej zaznajamiać się z działami najczęściej zadawanych pytań czyli FAQ (z ang. "Frequently Asked Questions"). W działach tych możemy znaleźć pytania oraz odpowiedzi dotyczące najczęściej pojawiających się problemów. Do plików zawierających FAQi można dostać się trzema drogami. Pierwsza polega na przeglądaniu całej grupy, co spowoduje, że po ok. 2 tygodniach plik taki zostanie wysłany do naszego komputera w przypadku braku samozaparcia można odszukać pliki FAQ za pomocą wyszukiwarek internetowych oraz pobrać je z serwerów FTP.

Jedną z najszybciej rozwijających się usług na przełomie lat 1994/95 była usługa WWW czyli z ang. World Wide Web. Pomysłodawcą jej był Tim Berners-Lee naukowiec z laboratorium CERN w Szwajcarii. Pomysł publikowania dokumentów za pomocą usługi WWW opierał się na wymyślonej już wcześniej idei hypertekstu. Odznaczające się w tekście słowa, często podkreślone, bądź podświetlone innym kolorem, posiadają funkcję przeniesienia użytkownika do innej strony zawierającej dane na interesujący go temat. Podobnie na zasadzie odnośników działa również pomoc w większości obecnych programów. Wystarczy kliknąć w interesujący nas opis i zostaniemy przeniesieni na stronę internetową (firmy, która owo oprogramowanie napisała), na której będzie bardzo obszernie przedstawione rozwiązanie danego problemu. Genialność hypertekstu polega właśnie na tym, że owa strona może znajdować się na komputerze odległym od naszego o tysiące kilometrów a i tak zostanie nam wyświetlona w przeciągu kilku sekund.

Nowość

Początki usługi WWW były tylko w formie tekstu, poruszanie się po sieci wymagało znajomości komend oraz szybkiego operowania klawiaturą. Nadal można jeszcze połączyć się w ten sposób, jednak nikt już tego nie robi. Postęp zapoczątkowała w 1990 roku ekipa zapaleńców z uniwersytetu Illinois lider ekipy, student Marc Andersen wymyślił pierwszą graficzną przeglądarkę internetową na świecie. Mosaic - bo tak nazywał się program był nakładką na tekstowe środowisko webowe. Dzięki temu Internet stał się bardziej dostępny dla każdego. Krótko po sukcesie Mosaica zaczęły ukazywać się programy znane do dzisiaj takie jak Netscape Nawigator, czy Cello czy Win Web. Netskape Nawigatora projektowała ta sama ekipa, która stworzyła Mosaica. Dzięki graficznemu interfejsowi Internet nagle stał się bardzo popularny, zaczęto za jego pomocą przesyłać oraz publikować miliony różnych informacji w najróżniejszej formie, począwszy od tekstu, poprzez zdjęcia, muzykę, na filmach skończywszy. Sieć stworzyła ogromne możliwości reklamy oraz zarabiania pieniędzy.

Zabezpieczanie danych

Aby można było w pełni efektywnie korzystać z Internetu potrzebny jest system bezpiecznego przesyłania danych, tak żeby nikt postronny nie mógł się do nich dostać. Istniejące sposoby szyfrowania są znane na równi zabezpieczeniowcom jak i hakerom, nie gwarantują, więc pewnego zabezpieczenia danych. Obecnie dość często stosowanym zabezpieczeniem są certyfikaty oraz protokół SSL, jak również klucze zmienne 64 i 128 bitowe.

Rozwój Internetu ostatnimi czasy następował w sposób bardzo gwałtowny. W ciągu zaledwie kilku lat przerodził się z niewielkiej wojskowej a później naukowej sieci do wymiany informacji w ogólnoświatowe medium, z którego korzysta tyle samo lub nawet więcej użytkowników niż z radia czy telewizji. Dawniej połączenie z siecią wymagało zainstalowanego modemu oraz podpiętej do niego linii telefonicznej. Modem działał na zasadzie przekaźnika zamieniając sygnały komputera na takie, które mogły podążać analogową linią telefoniczną, którą trafiały do tak zwanego providera czyli usługodawcy, podpiętego do Internetu światłowodem i udostępniającego innym użytkownikom możliwość korzystania z sieci. Konieczność przekształcania przez modem sygnałów cyfrowych na analogowe i odwrotnie, ograniczało dość znacznie prędkość transmisji danych. Kolejnym sposobem na podłączenie się do Internetu było podpięcie sobie Internetu poprzez tak zwane łącze ISDN, jednak i ono miało wady, mianowicie maksymalną prędkość połączenia w wysokości jedynie 128 kilobajtów/sekundę. Obecnie najczęściej wykorzystywanym sposobem do łączenia się z Internetem jest telewizja kablowa, sieć bezprzewodowa lub oferowana przez TPSA usługa Neostrada.

Wszystko to stało się jednak możliwe dzięki wynalezieniu telefonicznej linii asymetrycznej, czyli tak zwanego ADSL. Dzięki temu rozwiązaniu można było zacząć przesyłać dane za pomocą łączy telefonicznych nawet do 99% szybciej niż do tej pory. Dodatkowo połączenie internetowe nie zajmuje wtedy połączenia telefonicznego. Maksymalną przepustowość sieci działających w systemie ADSL określa się na 8 megabitów na sekundę dla danych odbieranych oraz 1 megabit dla danych wysyłanych (między innymi, dlatego połączenie tego typu nazywa się połączeniem asymetrycznym). Wielkim plusem ADSL jest fakt, że do łączenia się z Internetem tym sposobem można używać istniejącej infrastruktury telekomunikacyjnej.

Dostęp do Internetu poprzez inne urządzenia

Komputer osobisty nie jest jedynym urządzeniem elektrycznym, poprzez które można połączyć się z globalną pajęczyną. Możliwość taką dają swoim klientom już np. operatorzy kablówek, gdzie klient może odwiedzić WWW za pomocą specjalnych przystawek podpinanych do telewizora. Dane biegną do sieci po tak zwanych kablach światłowodowych o bardzo dużej przepustowości. Przystawka, która zawiera w sobie de facto bardzo zubożony komputer, pozwalający jedynie na wykonywanie operacji związanych z dostępem użytkownika do Internetu, przystawka taka posiada, więc możliwości odbierania oraz wysyłania e-maili, posiada wbudowaną przeglądarkę WWW oraz program do komunikowania się w sieci. Często zawiera również niewielkich rozmiarów dysk twardy, na którym można zapisywać dane. Pojawiają się opinie, że niedługo może się okazać, że połączenie z Internetem właśnie za pomocą telewizorów (dla wielu osób znacznie mniej skomplikowane niż za pomocą komputera) stanie się bardzo popularne.

Kolejną innowacją dla osób chcących na bieżąco odbierać i wysyłać e-maile nie zależnie od miejsca pobytu są tak zwane terminal e-maile. Są to małe urządzona o wielkości telefonów komórkowych pozwalające użytkownikom na stały kontakt ze swoją internetową skrzynką

e-mailową. Mogą bezproblemowo pisać oraz wysyłać wiadomości, jednak nie oferują żadnych innych usług. To rozwiązanie odchodzi już jednak w niepamięć a to ze względu na ogromny rozwój telefonów komórkowych. Obecnie telefonia komórkowa aż roi się od najnowszych rozwiązań, każdy telefon posiada już możliwość połączenia z Internetem lub WAPem, większość oferuje również swoim klientom usługę odbierania oraz wysyłania

e-maili, wbudowany aparat cyfrowy, radio czy odtwarzacz mp3 to obecnie standard. A to jedynie początek, bo zapowiadana rewolucyjna technologia UMCS ma umożliwiać przesyłanie za pomocą telefonu nie tylko dźwięku, ale też i obrazu, oczywiście w czasie rzeczywistym. Popularność telefonów komórkowych rośnie w oszałamiającym tempie. Wiele osób decyduje się na odłączenie od sieci stacjonarnej ze względu na porównywalne koszty rozmów i ceny abonamentów.

Trzeba jednak zwracać uwagę na problem przeciążenia sieci. Internet jest zbudowany z pewnej liczby hubów połączonych za pomocą światłowodów, światłowody te mają pewne limity w przesyłaniu danych, podłączanie do sieci coraz większej liczby ludzi oraz urządzeń ma wpływ na obniżanie się przepustowości sieci a nawet może zaowocować jej przeciążeniem. W dobie ciągle powiększanych limitów transferów i szybkości łączy, nie jest to wcale problem abstrakcyjny.

Informacje w Internecie

Globalna pajęczyna stała się bardzo popularna również dzięki ilości informacji, które można dzięki niej odnaleźć. Pierwotnie, bowiem Internet oferował swoim użytkownikom jedynie możliwość wymiany poczty, przesłanie pliku czy podyskutowanie na łamach usenetu. Dopiero wraz ze spopularyzowaniem usługi WWW opartej na hypertekście, sieć zaroiła się od milionów stron na najróżniejsze tematy. Każdy może tworzyć własne strony, łączyć je za pomocą, linków z innymi o podobnej tematyce przyczyniając się tym samym do dalszego rozwoju pajęczyny. Strony WWW przyniosły ogromną popularność sieci Internet jednak nie poprzestano na tym i ciągle rozwijają się nowe technologie jeszcze bardziej zwiększające jego popularność. Jedną z takich właśnie nowinek był język programowania java, dzięki któremu można pisać rozbudowane programy komputerowe zintegrowane ze stronami WWW. Działanie takiego programu odbywa się w całości dzięki przeglądarce WWW oraz kodzie programu na serwerze. Użytkownik nie musi pobierać go na dysk, nawet nie musi wiedzieć, że to co właśnie ogląda to program napisany w języku java.

Świat multimediów

Poza możliwościami wyszukiwania informacji bardzo istotnym czynnikiem, dzięki któremu Internet zdobył sobie taką popularność są zamieszczane w nim ogromne zasoby multimediów. Stało się to wszystko możliwe dzięki wzrostowi przepustowości łączy oraz mocy obliczeniowych komputerów, nie bez znaczenia są też nowsze sposoby kodowania i zmniejszania rozmiarów plików z filmami czy muzyką. Obecnie nie ma problemów żeby obejrzeć na żywo przez Internet najnowsze wiadomości czy zwiastun filmu, teledysk itd. Do nie dawna jeszcze konieczne było mozolne pobieranie danego pliku na dysk by móc się cieszyć jego oglądaniem. Każda nowoczesna przeglądarka internetowa umożliwia swojemu użytkownikowi obejrzenie plików multimedialnych, dodatkowo można również podczas ściągania danego pliku na dysk niejako dobrać się do niego za pomocą przeglądarki i podejrzeć czy rzeczywiście jest to ten plik, o który nam chodziło.

Jak na razie filmy oraz teledyski, które można oglądać bezpośrednio przez Internet nie zachwycają jakością, jednak dzięki nowym sposobom kodowania plików oraz większej przepustowości sieci coraz bardziej powszechne stają się radiowe rozgłośnie internetowe, czy telewizje Internetowe. Ich ogromną zaletą jest możliwość gigantycznego zasięgu przy praktycznie minimalnych kosztach, ponieważ wszystko odbywa się za pośrednictwem łączy internetowych. Powszechne stają się tez usługi wykupywania sobie filmów, które usługodawca udostępnia nam do oglądania bezpośrednio przez Internet. Popularność aparatów cyfrowych czy niewielkich kamer cyfrowych powoduje, że sieć zalewana jest przez krótkie amatorskie filmy o bardzo zróżnicowanej tematyce. Wielką popularnością cieszą się tez kamerki internetowe, dzięki którym można np. rozmawiając z kimś za pomocą komunikatora internetowego, widzieć swojego rozmówcę.

Problem piractwa komputerowego

Wielką popularność zdobyły ostatnimi czasy w Internecie pliki muzyczne w formacie mp3. Stało się tak, dlatego, że pliki te przy niewielkich rozmiarach oferują wyśmienitą jakość dźwięku. Dzięki niewielkim rozmiarom mp3 można przesłać za pomocą e-maila czy też nagrać je na płytę CD (zmieści się wtedy na niej ok. 10 godzin muzyki). Dodatkową popularność mp3 przyniósł znaczny spadek cen przenośnych odtwarzaczy tych plików. Są one niezmiernie wygodne, ponieważ w urządzonku wielkości zapalniczki można przechować kilka lub kilkanaście godzin muzyki, dodatkowo odtwarzacze mp3 nie mają kłopotów z odtwarzaniem muzyki podczas biegania czy jazdy na rowerze, (co bardzo często zdarzało się w przypadku odtwarzaczy CD). Czy tak wspaniały wynalazek jak mp3 może, więc mieć jakieś wady? Otóż tak. Niewielkie rozmiary plików oraz łatwość publikowania danych w Internecie przyczyniły się do powstawania specjalnych stron WWW, na których można za darmo pobrać utwory muzyczne, przez co firmy fonograficzne i sami artyści tracą rok rocznie setki milionów dolarów. Upowszechniające się w rozmiarach epidemii programy do wymiany danych p2p (Kazza, DC, Bearshare, E-donkey) powoduj, że bardzo niewiele osób kupuje teraz płyty CD swoich ulubionych wykonawców a jedynie ogranicza się do ściągnięcia ich mp3 z sieci, okradając w ten sposób piosenkarzy z zysków. Ten sam proceder króluje w przypadku nagrań filmowych oraz sposobu kompresji plików filmowych Divx. Często filmy pojawiają się na płytach CD czy DVD jeszcze przed ich oficjalna premierą w kinach. Firmy tracą w ten sposób miliony dolarów.

Handlowanie w Internecie

Ogólna dostępność stron WWW przyczyniła się do powstania wielu serwisów handlowych. Tak zwane sklepy internetowe przeżywają okres ogromnego rozkwitu. Bardzo łatwo jest rozpocząć taką działalność handlową, ponieważ nie trzeba inwestować na początku pieniędzy w lokal, opłacanie pracowników itd. Komputer wystarcza, cały sklep może być prowadzony za pomocą komputera, co w znacznym stopniu obniża koszty prowadzenia takiej działalności, a to z kolei doprowadza do obniżenia cen w sklepach tego typu. Pojawiły się, więc księgarnie internetowe (np. amazon.com) sklepy ze sprzętem komputerowym, itd. Ponad to dzięki Internetowi każdy może kupować oraz sprzedawać towary, nie trzeba zakładać działalności gospodarczej czy otwierać firmy itd., umożliwiają nam to istniejące w sieci serwisy aukcyjne. Żeby umożliwić tego typu działalność w Internecie, musiały oczywiście powstać specjalne systemy zabezpieczeń, szyfrowane protokoły, klucze, hasła dostępu itd. umożliwiają nam prowadzenie transakcji przez Internet.

Co dalej?

Rozwój sieci Internet zaskoczył wszystkich. Niewielki wojskowy projekt, rozrósł się do gigantycznych rozmiarów i zawojował świat. Globalna pajęczyna jest obecnie, jak sama nazwa wskazuje, przedsięwzięciem ogólnoświatowym, nie ma jednej scentralizowanej grupy ludzi, która zarządzałaby Internetem. Każdy kraj stara się we własnym zakresie uregulować prawnie funkcjonowanie poszczególnych usług. Wielkie firmy bardzo chciałby by "położyć łapę" na sieciowym potencjale, możliwość założenia swojej strony internetowej czy adresu

e-mail nie jest, bowiem nigdzie przez nikogo skrupulatnie kontrolowany. Panuje ogólno pojęta demokracja. Ponad to Internet umożliwia każdemu użytkownikowi publikowanie dowolnych informacji na dowolne tematy, dzięki czemu powoli osłabia się pozycja radia, prasy czy telewizji. Jednak często ogromna ilość informacji, które można w Internecie napotkać to zwykłe plotki, lub prowokacje. Trzeba ten stan rzeczy tłumaczyć młodym jeszcze "wiekiem" Internetu. Nie można jednak zaprzeczyć, że sieć cały czas ewoluuje i dojrzewa, przybywa poważnych serwisów oraz rzetelnych źródeł informacji. Ciężko prognozować jak globalna sieć może wyglądać za 5 czy 10 lat. Jedno jest pewne - na pewno będzie pełniło ogromnie ważną rolę w naszym życiu.