W poniższym tekście chciałbym omówić najbardziej znaczące według mnie osiągnięcia, które przyczyniły się do obecnej ekspansji informatyki na świecie. Oczywiście trzeba od razu zaznaczyć, iż trzeba tu mówić bardziej o trwającym wieloletnim stopniowym procesie niż o jakimś jednym konkretnym rewolucyjnym wynalazku. Dzięki owemu procesowi komputery stały się dzisiaj wszechobecne zarówno w pracy, jak i w domu,

Tranzystor

Opisując czynniki mające największy wpływ na rozwój informatyki nie sposób nie wspomnieć o tranzystorze. Twórcami tego przełomowego osiągnięcia byli trzej amerykanie W. H. Brattain, W. B. Shockley oraz J bardeen. Za swoje osiągnięcie wszyscy oni zostali uhonorowani nagrodą Nobla (w 1956 r). Docenienie ich pracy przez akademię rozwiało wątpliwości nielicznych sceptyków na temat ogromnego potencjału, jaki niosło ze sobą wynalezienie tranzystora.

Działanie tego rewolucyjnego wynalazku opiera się na wzmacnianiu sygnałów elektrycznych, co czyni tranzystor dzięki swojej trójelektrodowej i zarazem półprzewodnikowej budowie. Rozróżnia się różne typy tranzystorów w zależności od funkcji, jakie pełnią (a co za tym idzie zależnie również od ich budowy). Najczęściej wykorzystywanymi są: wzmacniające, dekodujące, przełącznikowe itd. Wszystkie tranzystory można podzielić na unipolarne (tak zwane polowe) oraz bipolarne.

Wynalezienie układu scalonego.

Powstanie układu scalonego było spowodowane chęcią dalszej miniaturyzacji w elektronice. Lata pięćdziesiąte były niewątpliwie okresem burzliwego rozwoju tranzystora, zachwycano się jego niewielkimi rozmiarami oraz o wiele mniejszą awaryjnością w porównaniu do lamp próżniowych. Tranzystory stały się wszechobecne. Niestety jednak nie dało się ich jeszcze w pełni wykorzystać do pewnych zastosowań, ponieważ nadal były zbyt duże. Barierą miniaturyzacji okazała się konieczność łączenia tranzystorów z innymi urządzeniami za pomocą przewodów. Powstał, więc projekt żeby stworzyć cały układ elektroniczny, który na jednej wspólnej podstawie zawierałby już w sobie tranzystory, połączenia oraz elementy dyskretne. Najciekawsze jest to, że na owo rozwiązanie wpadało dwóch zupełnie niezależnie pracujących naukowców. W ten właśnie sposób powstał układ scalony (z ang. IC, czyli intergrated circuit).

Cała idea IC opiera się na jak najbardziej pomniejszonym, układzie połączonych ze sobą milionów elementów, w skład, których wchodzą: tranzystory, diody, kondensatory, rezystory itd. Ogromną zaleta tego rozwiązania jest fakt, iż układ taki może być stworzony w całości w jednym cyklu produkcyjnym, co umożliwia jego produkcję na skalę masową. Układy scalone można zbudować na dwa sposoby. Sposób pierwszy polega na wykonaniu układu w całości z jednego kryształu półprzewodnika. Układy takie nazywane są układami monolitycznymi. Drugi sposób opiera się natomiast na nakładaniu na podstawę, (która izoluje) elementów układu w formie warstw. Noszą one nazwę układów cienkowarstwowych.

Początki tworzenia układów scalonych przypadają na rok 1958. Obecne produkowane na masową skalę układy scalone są tworzone poprzez tak zwane trawienie oraz maskowanie fotograficzne podstawek krzemowych. Najbardziej znane rodzaje układów scalonych to procesory komputerów oraz pamięci półprzewodnikowe.

Powstanie komputerów osobistych (PC)
Osiągnięcia opisane powyżej przyczyniły się walnie do stworzenia używanych do dzisiaj komputerów osobistych. Sam pomysł zbudowania maszyny komputerów rozmiarach oraz koszcie na tyle niewielkim żeby mógł pozwolić sobie na niego przeciętny użytkownik, powstał już w latach siedemdziesiątych. Pierwszą firmą, której udało się wprowadzić ten pomysł w życie była amerykańska firma Apple. Zbudowany przez nią komputer Apple I był pierwszą na świecie masowo produkowaną maszyną przeznaczoną dla użytkowników indywidualnych. Firma poszła za ciosem wprowadzając w roku 1981 na rynek komputer Apple II, do którego standardowo dołączano oprogramowanie Apple Write (prosty edytor tekstowy) oraz Lotus (arkusz kalkulacyjny). Dzięki temu możliwości, jakie ofiarował zwykłemu użytkownikowi komputer osobisty znacznie wzrosły, można było, bowiem zastąpić nim maszynę do pisania oraz wykonywać dzięki niemu proste obliczenia. Niedługo po sukcesie firmy Apple do walki o rynek komputerów osobistych włączyła się forma IBM, prezentując swój komputer PC/XT. Dzięki udostępnieniu przez tą firmę planów budowy całej architektury komputera (IBM opatentował tylko jeden układ) oparte na komputerze PC/XT maszyny mogła budować każda firma na świecie. Przyczyniło się to niewątpliwie do ogromnej popularności komputerów tego typu. Obecnie ogromna większość komputerów osobistych bazuje właśnie na schematach PC/XT natomiast komputery firmy Apple to niewielki jedynie procent rynku (sprzedawane są głównie w USA). Następny etap, umożliwiający spopularyzowanie komputerów na tak ogromną skalę, jaką widzimy dzisiaj, to wprowadzenie graficznego interfejsu użytkownika z ang. GUI. Do owego momentu obsługa komputera sprowadzała się jedynie do wpisywania komend na ekranie, co dla osób nieposiadających odpowiedniej wiedzy stanowiło barierę nie do przeskoczenia. Nowy zaprezentowany interfejs graficzny opierał się na wykorzystaniu myszki do poruszana się za jej pomocą po ekranie monitora i uruchamianiu poszczególnych programów poprzez wskazanie ich kursorem. Ten sposób korzystania z komputera wymyśliła, co prawda firma Xerox, jednak odsprzedała ona prawa do niego firmie Apple. Tam pomysł został rozbudowany i dopracowany, co zaowocowało wypuszczeniem na rynek w 1984 roku komputera Macintosh - pierwszego komputera osobistego z GUI, który okazał się hitem i przyniósł firmie Apple ogromne pieniądze. Opierając się na sukcesie konkurencji firmy Commodore oraz ATARI wprowadziły w 1985 roku na rynek wyposażone w GIU komputery Amiga 1000 i ATARI 520ST. Końcówka lat osiemdziesiątych oraz początek dziewięćdziesiątych to jednak ogromna dominacja komputerów typu PC oraz systemu operacyjnego firmy Microsoft, czyli Windowsów. Obecnie nadal ogromna większość komputerów na świecie działa na architekturze opierającej się na wymyślonym przez firmę IBM komputerze PC/XT IBM oraz systemie operacyjnym Windows. Szacuje się, że jest to ok. 80% wszystkich komputerów na świecie. Ostatnimi czasy popularność systemu Windows maleje na rzecz darmowego systemu operacyjnego Linux.

Skrót PC stosowane dzisiaj do wszystkich niemalże komputerów osobistych pochodzi z języka angielskiego i oznacza Personal Computer - komputer osobisty. Jest to, więc maszyna przeznaczona do domowych zastosowań dla użytkowników indywidualnych. Pomysł wprowadzenia na rynek komputerów tego typu by ł dość rewolucyjny, ponieważ do owego czasu na komputer mogły pozwolić sobie jedynie najpotężniejsze firmy. Lata osiemdziesiąte to czas ogromnego boomu na komputery osobiste. Powstały w tym okresie ATARI (o ośmiobitowych procesorach), Commodore a także pierwsze Apple i wreszcie PC/XT firmy IBM. Obecnie skrót PC znaczy, że komputery tego typu są kompatybilne z pierwowzorem (tzn. PC/XT).

Powstanie Internetu

Czym była by obezna informatyka bez Internetu? Zapewne wszystko rozwijało by się o wiele wolniej o ile w ogóle nie nastąpiła by stagnacja na rynku informatyki. To właśnie dzięki internetowi można obecnie mówić o społeczeństwie informatycznym. Bardzo często kupuje się komputery jedynie ze względu na możliwość korzystania z Internetu. Czym więc jest Internet? Najprościej mówiąc jest to gigantyczna ogólnoświatowa siec komputerowa składająca się z milionów innych podsieci oraz komputerów, w której za darmo można odnaleźć dowolną informację na dowolny temat. Sama nazwa Internet pochodzi z języka angielskiego od słów International Net czyli sieć międzynarodowa. Internet opiera swoje działanie na standaryzowanym zestawie protokołów tak zwanym TCP/IP (z ang. Transfer Control Protocol/ Internet Protocol). Początkowo (od 1969 roku) Internet był projektem wojskowych sił zbrojnych USA przygotowywanym na wypadek wojny. Z powstałej do tych celów sieci informatycznej zwanej ARPANET. W roku 1984 wydzielono cywilną część tej sieci i nazwano ją NSFNETem (od organizacji zajmującej się nadzorowaniem ową cywilną częścią). Sieć ta była wtedy dostępna jednak tylko dla środowisk akademickich oraz na akowców. Dopiero z czasem udostępniono ją do powszechnego użytku osobom prywatnym. W dzisiejszych czasach Internet jest podstawowym medium, z którego korzystają zarówno firmy, studenci, naukowcy oraz osoby prywatne (bez względu na ich wiek). Oprócz wyszukiwania informacji, które dzięki hypertekstowi i usłudze WWW stało się niezwykle szybkie i łatwe Internet wykorzystywany jest do przesyłania wiadomości (np. usługa e-mail), można za jego pomocą pobierać oraz udostępniać innym filmy, zdjęcia (usługa FTP) czy porozmawiać "na żywo" z ludźmi oddalonymi o tysiące kilometrów (IRC, chat). Ponad to Internet jest też szeroko wykorzystywany w celach rozrywkowych (gry internetowe) oraz zarobkowych (sklepy internetowe, firmy prowadzące szkolenia internetowe itd.). Wszystkie te zalety powodują rok rocznie lawinowy wzrost użytkowników korzystających z Internetu.

Co to jest hypertekst?

Hypertekst jest systemem lub można tez powiedzieć sposobem prezentowania wiadomości w Internecie polegającym na pobieraniu żądanych przez użytkownika wiadomości z różnych komputerów znajdujących się w Internecie. Wiadomości te są połączone ze sobą tak zwanymi linkami, po kliknięciu, w które użytkownik zostaje przeniesiony na konkretną stronę WWW w celu dalszego zgłębiania wiedzy na dany temat. Linki są najczęściej słowami w tekście, które są oznaczone innym kolorem, często linkami są też zdjęcia lub obrazki. Najczęściej hypertekst można znaleźć na stronach internetowych, ale pojawia się on też w różnego rodzaju oprogramowaniu (najczęściej jako oferowana pomoc) oraz we wszelkiego typu oprogramowaniu multimedialnym (słowniki encyklopedie itd.).

Mam nadzieję, że powyższy tekst, choć trochę przybliżył historię komputera oraz związanych z jego budową najważniejszych osiągnięć człowieka. Warto, choć trochę orientować się w historii jednego z najważniejszych osiągnięć człowieka, jakim niewątpliwie było zbudowanie komputera.