Ciekawe, czy twórcy pierwszych komputerów, służących za coś tylko trochę lepszego niż maszyna do pisania, zdawali sobie sprawę, że w przeciągu zaledwie dwudziestu - trzydziestu lat staną się one nieodzownymi towarzyszami życia i będą zdolnie nie tylko do obróbki tekstu i łączenia się z Internetem, ale będą też w stanie z powodzeniem zastąpić szereg urządzeń multimedialnych, począwszy od magnetofonu, poprzez telewizor, a skończywszy na zestawie kina domowego i nowoczesnym "salonie gier".
Na sukces tego typu rozwiązań miał niewątpliwie wpływ ogromny rozwój technologiczny. Mowa tutaj nie tylko o procesorach i pamięci operacyjnej, ale także o możliwościach nowoczesnych kart rozszerzeń, takich jak karta dźwiękowa, czy w końcu graficzna. Nowoczesne karty graficzne posiadają nawet własne miniprocesory, dzięki którym przy minimalnej tylko pomocy procesora głównego są w stanie wygenerować najbardziej nawet wymagającą grafikę, potrzebną zwłaszcza do gier komputerowych. Ulepszenie kart dźwiękowych także pociągnęło za sobą odciążenie procesora, dlatego komputery z dobrymi kartami rozszerzeń pracują szybciej nie tylko w zastosowaniach muzycznych czy graficznych, ale także algorytmicznych, ponieważ procesor nie musi się kłopotać o jednoczesne wykonywanie obliczeń i wyświetlanie grafiki - tym zajmuje się osobna jednostka.
Największy rozwój sprzęt komputerowy zawdzięcza graczom i ich ulubionym grom komputerowym. Apetyty graczy z biegiem czasu rosną - chcą oni gier lepszych, bardziej widowiskowych, o realistycznej grafice. Twórcy sprzętu muszą podołać postawionemu przed nim zadaniu, natomiast twórcy gier chcą zawsze wycisnąć jak najwięcej z istniejącego sprzętu. Ta machina nakręca się sama, można więc powiedzieć, że gry komputerowe powodują rozwój sprzętu komputerowego, zwłaszcza kart graficznych, i oczywiście odwrotnie. Dzięki grom komputer powoli staje się maszyna w pełni multimedialną. Nie wiadomo, czy gdyby nie wymagania gier komputerowych rozwój PC potoczyłby się tym samym torem.
W całej historii pecetów istnieją momenty przełomowe, na których chcę się teraz skupić.
Kamienie milowe
Pierwszym procesorem dla komputerów osobistych, który odniósł sukces, jest procesor firmy Intel - 8080. Był to procesor ośmiobitowy i pracował z zawrotną jak na tamte czasy prędkością - około 2-3 MHz. Procesory te oczywiście niemal nie posiadały wsparcia dla grafiki, jednak dla komputerów, które wówczas pracowały wyłącznie w trybie tekstowym, do zastosowań biurowych był całkiem wystarczający.
Pierwszym 16-bitowym procesorem był wyprodukowany w 1978 roku w laboratoriach Intela procesor 8086. jego częstotliwość taktowania zegara dochodziła do pięciu megaherców.
Przełomem na rynku procesorów był wyprodukowany 1985 roku procesor Intel 80386 DX oraz jego uboższej wersji SX (ta wersja nie posiadała koprocesora). Posiadał on wsparcie dla wyświetlania grafiki i pozwalał na instalowanie prostych graficznie gier, dlatego szybko podbił serca i umysły graczy. Kolejny procesor z tej linii, 80486, rozpoczął na dobre erę gier komputerowych. Wraz z nim nieśmiało zaczęły pokazywać się pierwsze zaawansowane karty grafiki i akceleratory graficzne. Jak na tamte czasy możliwości kart graficznych były oszałamiające - rozdzielczość obrazu dochodziła nawet do 320x240 pikseli, co dawało ogromne możliwości twórcom gier komputerowych. Pierwsze tak skomplikowane gry, które mogłyby wykorzystać pełen potencjał kart graficznych VGA zaczęły się pojawiać już na początku lat dziewięćdziesiątych.
Mniej więcej równo z kartami graficznymi na rynku zaczęły pojawiać się karty muzyczne. Standardowy zestaw dźwięków z głośniczka systemowego przestał wystarczać graczom. Jedną z pierwszych i odnoszących do tej pory największe sukcesy jest karta graficzna Sound Blaster formy Creative. Dzięki zastosowaniu w niej nowoczesnych rozwiązań możliwe było słuchanie muzyki w pełnym stereo. Wkrótce też na rynku pojawił się kolejny Sound Blaster - Sound Blaster 16, dzięki któremu można było obsługiwać dźwięk szesnastobitowy.
Rok 1992 pełen jest nowości na rynku sprzętu komputerowego. Intel wypuszcza nową wersję procesora 486 (DX2), który jest w stanie obsługiwać podwójną częstotliwość magistrali. Oprócz tego poza Intelem na rynku zaczynają istnieć takie firmy jak AMD (do dziś jest to największy konkurent Intela jeśli chodzi o produkcję procesorów) oraz Cyrix. Rok 1992 jest też rokiem pojawienia się nowych kart graficznych, SVGA, które zdolne są wyświetlać grafikę w rozdzielczości 640x480. Jednak nadal żaden sprzęt nie był w stanie właściwie wykorzystać jej możliwości, ponieważ zbyt wolna była magistrala danych. Znów producenci procesorów musieli zacząć "nadganiać".
Do roku 1995 udało się wprowadzić standard nowoczesnych magistrali systemowych - PCI - które zastąpiły stare, powolne magistrale ISA. Oprócz tego Intel wprowadza na rynek pierwszy procesor z rodziny Pentium (początkowo miał to być procesor 586, jednak Intelowi zabroniono wykorzystywania samych cyfr jako znaku zastrzeżonego). Można stwierdzić, że wraz z rozwojem Pentium na rynku pojawia się coraz więcej coraz nowszych kart graficznych, w tym także karty wyposażone w sprzętowe akceleratory grafiki trójwymiarowej (ach, te marzenia o Rivie TNT z akceleratorem VooDoo…). Wraz z rozwojem sprzętu pojawiały się coraz lepsze gry komputerowe, pierwsze gry wykorzystujące efekt trójwymiarowy, takie jak Quake czy Wolfenstein.
Kolejnym krokiem milowym stało się wprowadzenie do PC jako standardu napędów CD-ROM. Programy i gry przenoszone na dyskietkach stały się przestarzałe. Nowoczesne programy oraz gry komputerowe wymagały dużo więcej miejsca niż dawne, dwuwymiarowe gierki, dlatego nastało zapotrzebowanie na niedrogie, ale wydajne nośniki danych. Z pomocą przyszła technologia optyczna i dyski CD. Dzięki nim można było zapisać do 650-700 MB danych na jednym krążku, co wystarczało ówczesnym twórcom gier komputerowych oraz programów. Należy stwierdzić, że ówczesne twarde dyski często były tylko kilkakrotnie większe (może 2-3 GB?) Poza oczywistym zwiększeniem pojemności, dyski optyczne miały inną przewagę nad dyskietkami - dostęp do danych następował u nich zdecydowanie szybciej. Oprócz tego dane wypalone na płytkach CD miały dużo większą szansę na pozostanie nieuszkodzonymi, ponieważ dyski CD miały dużo większą odporność na uszkodzenia niż delikatne dyskietki, które wystarczyło położyć przy głośnikach, a pole magnetyczne było zdolne zniszczyć całą zawartość dyskietki. Niestety, napędy dyskietek nadal są montowane w obudowach komputerów, jednak mam nadzieję, że przy dzisiejszym rozwoju pamięci przenośnej Flash uda się całkowicie zrezygnować z dyskietek już w najbliższej przyszłości.
CD standardowo można podzielić na płyty tłoczone oraz płyty przeznaczone do zapisu. Płyty tłoczone posiadają w warstwie nośnika danych (zwykle jest to warstwa poliwęglanowa) wytłoczone wgłębienia, które reprezentują różne bity danych. Wbrew powszechnemu przekonaniu, płyty CD-R, które mogą być "wypalone" w domowych nagrywarkach, wcale nie posiadają takich wgłębień. Tajemnicą "wypalania" płyt CD-R jest specjalna substancja, która pod wpływem światła laserowego ciemnieje i pochłania światło lasera tak, jakby było to wgłębienie. Pewną modyfikacją tej substancji jest materiał wykorzystywany w płytach CD-RW. Ten materiał pod wpływem światła o danej długości fali ciemnieje, jednak po naświetleniu laserem o nieco zmienionych parametrach staje się znów przezroczysta.
W roku 1995 następuje także kolejne wielkie wydarzenie, mianowicie pojawienie się systemu operacyjnego Windows 95, który w zasadzie był nakładką graficzną na system operacyjny DOS. Pojawienie się na rynku takiego graficznego systemu zrewolucjonizowało gry komputerowe. Wątpię, aby twórcy DOSa mogli przypuszczać, że szybko zostaną wyparci przez system operacyjny Windows oparty na rewolucyjnym systemie okien. Do dziś system Windows, choć już nieco zmieniony, święci swoje triumfy i jest w Europie najbardziej popularną platformą multimedialną, przeznaczoną nie tylko do grania w gry komputerowe, ale także do zaawansowanej pracy, na przykład graficznej czy też rozrywki w postaci oglądania filmów i słuchania muzyki. Niestety, prędzej czy później musiało nastąpić odejście DOSa do lamusa, ponieważ jego ubogie możliwości graficzne przegrały z kretesem z rozbudowanymi, graficznymi systemami operacyjnymi, które potrafiły wykorzystać w pełni możliwości coraz nowocześniejszych kart graficznych.
Microsoft nie siadł na laurach. Wraz z wypuszczeniem na rynek systemu operacyjnego Windows 95, zdefiniował system różnych bibliotek graficznych, znanych do dziś jako DirectX (obecnie standardem jest jego wersja dziewiąta). Moduł ten składa się z wielu pomniejszych elementów, takich jak:
- Direct Draw - jest to podstawowa biblioteka, przeznaczona do wspomagania grafiki 2D
- Direct 3D - podstawowy komponent do grafiki 3D
- Direct Sound - komponent ten obsługuje dźwięk
- Direct Music - od wersji szóstej DirectX wprowadzono osobny moduł do obsługi muzyki
- Direct Input - ten moduł odpowiedzialny jest za obsługę urządzeń wejściowych
- Direct Play - ogólny komponent wspomagający obsługę sieci komputerowej
Dzięki bibliotece DirectX programiści i producenci dostali do ręki najnowocześniejsze narzędzie służące do tworzenia aplikacji multimedialnych i gier. Należy jednak pamiętać o jednej, dość poważnej wadzie tego typu bibliotek: są one wolniejsze. Nic dziwnego, im wyższy jest poziom, na którym pisane są aplikacje, tym bardziej są one przenośne ale mniej wydajne. Gdyby napisać konkretne programy pod konkretne urządzenia, na pewno działałoby to szybciej, jednak wówczas nigdy nie udałoby się standaryzować rozwiązań graficznych i multimedialnych. Zresztą rozwój sprzętu jest tak duży, że zwykle nie zauważa się dziś tych ułamków sekund, które można by oszczędzić na pisaniu bezpośrednim, bez używania DirectX. Obecnie istnieje wiele różnych bibliotek graficznych. Wiele aplikacji wykorzystuje na przykład bibliotekę OpenGL (biblioteka ta została stworzona przez firmę Silicon Graphics, głównie używana była do tworzenia grafiki komputerowej w systemach CAD). Jednak aby nie wprowadzać zamieszania, większość gier komputerowych korzysta z coraz doskonalszych wersji DirectX. Zaletą tej biblioteki jest niewątpliwie fakt, iż możliwe jest wykorzystanie całego potencjału sprzętowego (jeśli na przykład karta graficzna sprzętowo wspomaga renderowanie obrazu, DirectX jest w stanie wykorzystać to do optymalizowania wyświetlania grafiki). DirectX bezpośrednio potrafi współpracować ze sprzętem za pośrednictwem bibliotek dynamicznych dołączanych do sprzętu przez producentów.
Swego rodzaju przełomem w świecie pecetowych gier komputerowych stało się pojawienie się na rynku firmy 3DFX, która rozpoczęła szybką ekspansję. Produkowane przez tę firmę karty graficzne i akceleratory grafiki zrewolucjonizowały rynek gier. Wraz z pojawieniem się Pentiuma MMX, który to procesor posiadał specjalna listę rozkazów do wspomagania wyświetlania grafiki trójwymiarowej, nowoczesne karty graficzne stały się potężnym narzędziem multimedialnym. Jak na owe czasy, karty graficzne firmy 3DFX mogły wyświetlać dużo więcej szczegółów, a także potrafiły wyświetlać animacje z dużą liczbą klatek na sekundę. Największym osiągnięciem firmy było wyprodukowanie akceleratora graficznego Diamond Monster 3D, który współpracował z kartami graficznymi VGA i SVGA, dzięki któremu możliwe było stworzenie bardzo realistycznych obrazów. Swoje odbicie znalazły w tym oczywiście gry komputerowe. Akcelerator Diamond współpracował zarówno z systemami operacyjnymi DOS, jak i z Windowsami. Poza tym sprzętowo wspomagał standard DirectX, dzięki czemu stał się potęgą na rynku akceleratorów grafiki. Oprócz tego, w niedługim czasie po pojawieniu się karty na rynku, dodano do niej sterowniki pozwalające na sprzętowa obsługę OpenGL. Możliwości chipsetu firmu 3DFX były jak na owe czasy ogromne. Przede wszystkim możliwe było nakładanie tekstur, które mogły być korygowane do perspektywy, cieniowanie obiektów i różnego rodzaju modelowanie tekstur. Dodatkowo możliwe stało się dodawanie takich efektów jak mgły, przezroczystości i polimorfizm. Dzięki tym wszystkim zabiegom grafika mogła wzbogacić się o źródła światła, efekty soczewkowe (kręgi światła imitujące odbijanie się światła słonecznego w soczewce aparatu fotograficznego), czy też rozmywanie pikseli, dzięki czemu obiekty w grach przestały być tak "kanciaste".
W czasie, gdy triumfy święciła firma 3DFX, na rynku pojawiła się niewielka firma zajmująca się tworzeniem kart graficznych. Firma nazywała się NVidia. Jej debiut na rynku był wyjątkowo udany - pojawiła się karta graficzna Riva, która szybko stała się konkurencją dla rozwiązań firmy 3DFX. Wielu użytkowników komputerów marzyło wówczas o karcie Riva, lub o jej rozszerzeniu, Rivie TNT. Karta ta spełniała wszystkie wymogi ówczesnych graczy i stała się prawdziwą konkurencją dla VooDoo produkowanych przez firmę 3DFX. Tak jak wśród procesorów trwała walka pomiędzy koncernami Intel i AMD, tak na rynku kart graficznych rozpoczęła się prawdziwa batalia pomiędzy 3DFX oraz NVidią.
Kroki milowe - ciąg dalszy
Bardzo ważnym wydarzeniem w rozwoju technologicznych komputerów osobistych było wprowadzenie na rynek napędów i dysków DVD. Dzięki tej technologii rozpoczęła się rewolucja w świecie nośników filmów. Dziś płyty DVD niemal całkowicie wyparły już stare kasety i magnetowidy. Jakość obrazu w filmach DVD znacznie przerasta możliwości kaset VHS. Poza tym możliwe jest także dołączanie do filmów technologii przestrzennego dźwięku. Płyty DVD, które mogą pomieścić kilka gigabajtów danych stały się podstawowym nośnikiem dla nowoczesnego kina domowego. Dzięki ścieżkowemu zapisowi dźwięku i oddzieleniu go od obrazu, filmy nagrane na DVD można oglądać na przykład w różnych wersjach językowych. Większość filmów DVD ma też różne dodatki, takie jak gagi z planu, wywiady z aktorami i producentami filmu. Często też istnieje specjalna ścieżka, na której nagrany jest komentarz reżyserski, dzięki czemu można dowiedzieć się naprawdę dużo ciekawostek o konkretnych częściach filmu.
Obecnie nośniki DVD powoli wypierają płyty CD z rynku tanich nośników danych. Nagrywarki DVD przez ostatnie lata bardzo straciły na cenie. Płyty CD i DVD obecnie mają już tę samą cenę, standardowo też instaluje się nagrywarki DVD w nowych komputerach. Obecnie trwają prace nad udoskonaleniem technologii niebieskiego lasera, dzięki której będzie możliwe nagrywanie płyt o pojemności nawet 30 GB. Pierwsze tego typu urządzenia i płyty pojawiły się na rynku, jednak wciąż jest to technologia zbyt droga jak na kieszeń zwykłego użytkownika.
Dyski DVD dzięki temu, że warstwa nośnika danych jest w nich niemal dwukrotnie cieńsza, mogą być tworzone w technologii dwuwarstwowej. W zależności od tego, która warstwa ma być naświetlana lub odczytywana, zmienia się nieco parametry lasera w czytniku takich płyt. Nagrywarki i napędy Dual Layer rozpoczynają swoją ekspansję na rynek.
Grafika
Wraz z pojawieniem się na rynku nowych kart graficznych i akceleratorów firmy 3DFX - VooDoo 2 - stało się jasne, że rynek graficzny na świecie rozwija się w tempie niemal zatrważającym. Nowy akcelerator VooDoo 2 był wyposażony w funkcję "multiteksturowania", dzięki czemu możliwe było na jedną powierzchnię nakładać wiele tekstur o różnym stopniu przezroczystości, co dawało ogromne możliwości w modelowaniu obiektów. Jednostki sterujące multitekstrurowaniem pozwalały na nakładanie dwóch warstw w jednym takcie zegarowym, dzięki czemu renderowanie powierzchni w grach trójwymiarowych takich jak Quake stało się dużo bardziej wydajne i szybsze. Poza tym akcelerator ten umożliwiał takie algorytmy jak rozmywanie trójliniowe, dzięki czemu jeszcze bardziej poprawiła się jakość tekstur i zmniejszyła widoczność poszczególnych pikseli. Efekt taki nazywa się filtrowaniem tekstur. Zrozumienie mechanizmy rozmywania jest dość proste - dla każdego punktu leżącego na styku różnych tekstur pobiera się kilku jego sąsiadów, a następnie wylicza średnie wartości barw, które powinny być wyświetlane w tych punktach. Dzięki temu linia łącząca tekstury jest rozmyta, a całość sprawia wrażenie łagodnego przejścia od jednej tekstury do drugiej. Kiedy mamy do czynienia z filtrowaniem dwuliniowym, za każdym razem porównywane są pary punktów i dla nich jest wyliczana nowa wartość koloru. Niestety, rozmywanie dwuliniowe często prowadzi di zbytniego rozmazania obrazu, co na dłuższą metę nie jest dobrym efektem. Wprowadzona w VooDoo 2 technika filtrowania trójliniowego jest rozszerzeniem tej koncepcji. Najpierw wykonuje się porównywanie dwuliniowe, a następnie jeszcze raz porównuje się ze sobą efekty jego działania, dzięki czemu jakość obrazu jest nieporównywalnie lepsza, chociaż wymaga więcej mocy obliczeniowej. Całe szczęście VooDoo 2 sam radził sobie z teksturami, z minimalnym wkładem procesora głównego.
Odpowiedzią firmy NVidia na VooDoo 2 było wypuszczenie na rynek karty Riva TNT. W odróżnieniu od VooDoo, które były tylko akceleratorami, Riva zawsze była pełna kartą graficzną ze wspomaganiem grafiki zarówno dwu jak i trójwymiarowej. Rewolucją było wykorzystanie dla niej nowoczesnego łącza do kart graficznych - łącza AGP. Sprzętowo Riva wspomagała wyświetlanie kolorów 32-bitowych, czyli TrueColor. Niestety, istniała wada kart Riva TNT, mianowicie zdarzało się, że odmawiały współpracy z niektórymi płytami głównymi, zwłaszcza tymi opartymi na technologii firmy AMD. Te płyty były zmuszone do pracy z akceleratorami grafiki VooDoo, jednak po pewnym czasie zaczęły wychodzić na jaw braki i niedociągnięcia. Porównanie VooDoo 2 i Rivy TNT było zdecydowanie z korzyścią dla tej drugiej, a firma 3DFX i jej karty zaczęły znikać z rynku. Było to spowodowane tym, że najnowsze gry miały zbyt duże wymagania sprzętowe jak na karty o szesnastobitowym kolorze i złączach PCI.
Wkrótce firma 3DFX poszła po rozum do głowy i wyprodukowała nareszcie pełną kartę graficzną, znaną jako VooDoo 3. Wszystkie dotychczasowe rozwiązania, jakie wymyśliła firma, zostały ściśnięte w jednym urządzeniu. Multiteksturowanie, wspomaganie grafiki 3D i 2D, a także ogromna wydajność miały zapewnić karcie VooDoo 3 koronę królowych kart graficznych. Nareszcie zrezygnowano z tworzenia wychodzących z użycia osobnych akceleratorów graficznych na rzecz pełnych kart graficznych ze zintegrowanymi mechanizmami wspomagania grafiki trójwymiarowej.
Rzeczywiście, VooDoo 3 było kartą rewelacyjną. Zadziwiała ona nie tylko wydajnością i możliwościami tworzenia tekstur, ale także szybkością działania i doskonałą jakością obrazu. Niestety, szybko okazało się, że oprócz wszystkich dobrych rozwiązań, VooDoo 3 stało się także składnicą wielu błędów technologicznych firmy 3DFX. Nie udało się firmie stworzyć karty, która obsługiwałaby kolory 32-bitowe, co było głównym zastrzeżeniem do poprzednich wersji VooDoo. Nadal też korzystano z nieco zbyt wolnego jak dla kart graficznych złącza PCI, zamiast wykorzystywać szybkie łącza AGP. Dlatego też VooDoo 3 było swego rodzaju pożegnaniem się firmy 3DFX z rynkiem własnych kart graficznych. W późniejszym okresie dominacja kart NVidii stała się bardzo widoczna - aż do pojawienia się firmy ATI i ich kart Radeon.
Kolejną rewolucyjna zmianą na rynku kart graficznych było wyprodukowanie przez NVidię pierwszej karty z rodziny GeForce. GeForce 256 został następcą kart z serii Riva. Była to pierwsza karta, która była przystosowana do obsługiwania złącza AGP o poczwórnej prędkości. GeForce stał się rewolucją, ponieważ, jak podkreślała NVidia, był pierwszym w pełni samodzielnym procesorem graficznym, który pozwalał nie tylko nakładać tekstury na obiekty tworzone przez główny procesor komputera, ale wykonywał wszystkie etapy tworzenia obiektów, od nadania im kształtu, poprzez teksturowanie, a skończywszy na ustawianiu źródeł światła. Dzięki temu główny procesor w komputerze mógł zajmować się innymi rzeczami, co znacznie przyspieszało pracę komputera. Zdarzało się, że postaci w grze zbyt szybko się poruszały, ponieważ procesor główny był na tyle odciążony że mógł bez przeszkód z dużą szybkością reagować na przemieszczanie się bohatera. Technologia wykorzystana w karcie GeForce została nazwana Transformation and Lighting (T&L). Technologia ta została wymuszona na grach po wprowadzeniu na rynek około roku 2001 kolejnej wersji DirectX 7. Oprócz technologii T&L producenci GeForce'a wprowadzili rewolucyjną metodę kompresji tekstur, dzięki czemu tekstury mogły być tworzone w bardzo dużej rozdzielczości, co zdecydowanie poprawiało jakość obrazu, a jednocześnie dzięki kompresji nie zajmowały dużo miejsca i nie musiały być ładowane do pamięci operacyjnej przez szynę AGP.
Procesory
Rozwój procesorów przez cały czas jest bardzo gwałtowny. Przyspiesza go głównie mała wojna technologiczna dwóch największych firm zajmujących się ich produkcją - AMD i Intela. Za każdym razem, kiedy jedna z firm wprowadzi na rynek jakieś nowe rozwiązanie, druga za chwilę wprowadza coś lepszego, tak aby zaspokoić wymagania klientów. Dzięki takiej konkurencji najlepiej żyje się użytkownikom - otrzymują coraz nowsze i lepsze rozwiązania za coraz niższą cenę.
Pierwszą odpowiedzią firmy AMD na procesor Pentium był procesor K5. Zegar procesorów z tej linii produkcyjnej taktował z częstotliwością od 75 do 166 MHz. Procesor ten, tak jak Intelowski Pentium, posiadał 32 kB pamięci podręcznej pierwszego poziomu. Tak jak konkurent, był tworzony w technologii 0,35 mikrometra.
Procesory Pentium II, wyprodukowane przez firmę Intel w drugiej połowie lat dziewięćdziesiątych, spotykane są w różnych wersjach. Najtańsze modele Pentium II 233 i 266 MHz produkowane były w technologii 0,35 mikrona tak jak ich poprzednik. Nowocześniejsze układy były zasilane napięciem 2 V i wykonane zostały w technologii 0,25 mikrona. Oba typy procesorów zewnętrznie niczym się nie różniły i przystosowane były do współpracy ze złączem typu SLOT. Obie rodziny Pentium II odziedziczyły po poprzednikach pełen zestaw instrukcji MMX, dzięki czemu mogły z powodzeniem wspomagać funkcje multimedialne.
AMD zawdzięcza pierwsze sukcesy chipom opartym na licencjonowanej technologii Intela. Hitem okazał się jednak procesor K6 II. Wyposażony został w znany pod nazwą 3Dnow! zestaw 21 dodatkowych instrukcji zmiennoprzecinkowych, dzięki którym stał się poważnym konkurentem Intelowskich pakietów MMX. K6 II zbudowano w technologii 0,25 mikrona, co pozwoliło osiągnąć duże częstotliwości magistrali (100 MHz) i samego procesora (300 - 475 MHz).
Intel szybko dostrzegł, że na rynku tanich procesorów został prawie wyparty przez procesor K6 II. Dlatego też naprędce zaprezentował rodzinę procesorów Celeron (modele 266 i 300 MHz). Pierwsze Celerony wewnętrzną architekturą niemal niczym nie różniły się od dwuwoltowej wersji Pentium II (technologia 0,25 mikrona). Ze względu na przyjętą strategię rynkową układy te pozbawiono pamięci podręcznej L2 oraz możliwości pracy w systemach wieloprocesorowych, dzięki czemu możliwe było dość spore obniżenie cen. "Wyrzucenie" pamięci cache L2 okazało się chybionym posunięciem - wydajność całego systemu odczuwalnie spadła, dlatego w nowszych wersjach Celeronów przywrócono obsługę pamięci podręcznej drugiego poziomu. Wydajność Celeronów w popularnych biurowo - domowych zastosowaniach niejednokrotnie przewyższa "pełne" modele Pentium II.
Kolejnym krokiem Intela było wyprodukowanie w końcu lat dziewięćdziesiątych procesora Intel Pentium III. Pentium III jest bezpośrednim następcą Pentium II. Długi czas produkowany był w technologii 0,25 mikrona i zasilany napięciem 2 V. Wykorzystywał nową wersję obudowy SECC2 (Single Edge Contact Cartridge) dla złącza typu SLOT.
Standardowe wersje Pentium III wyposażono w 512 kB pamięci podręcznej poziomu drugiego, zintegrowany z jądrem procesora. Organizacja pamięci podręcznej (32 KB) L1 nie uległa zmianie. Nowością w stosunku do architektury Pentium II, oprócz wzrostu wydajności jądra, jest wprowadzenie zestawu 70 instrukcji SSE (Streaming SIMD Extension), znanych wcześniej jako KNI (Katmai New Instructions). To właśnie dzięki nim możliwości procesorów Pentium III wzrosły bardziej, niż wynikałoby to z kosmetyki architektury i wzrostu częstotliwości zegara. Jednostka SSE to osiem dodatkowych rejestrów obsługiwanych przez moduł artymetryczny, realizujący do czterech operacji zmiennoprzecinkowych w jednym cyklu zegara. Zestaw nowych rozkazów ma na celu usprawnienie przetwarzania grafiki trójwymiarowej, odtwarzania plików wideo, audio i wyświetlania grafiki 2D. Dzięki tym zabiegom Pensum III stał się szybko podstawowym standardem wykorzystywanym w nowych systemach komputerowych, ponieważ stanowił smakowity kąsek dla wszystkich tych użytkowników, dla których komputer powinien być przede wszystkim maszyną multimedialną. Procesor Pentium III nazywano "procesorem dla graczy", i rzeczywiście była to prawda - wielu graczy bardzo zapaliło się do tego procesora.
I znów pojawiła się odpowiedź firmy AMD. Wprowadzono procesor Athlon, którego zegar taktował z częstotliwością od 500 do 700 MHz, czyli porównywanie z Pentiumem III. Dzięki technologii 0,25 mikrona stal się poważnym zagrożeniem dla Intela, który szybko zaczął prace nad nowocześniejszymi rozwiązaniami. Procesor Athlon był pierwszym procesorem, który wykorzystywał technologię 0,18 mikrometra, co znacznie przyćmiło blask chwały konstruktorów Intela. Procesor ten jako pierwszy osiągnął magiczne 1 GHz.
W roku 2000 pojawiła się uboższa wersja Athlona, przystosowana tak jak Intelowski Celeron do zastosowań domowych. Rewolucją było zwiększenie pamięci podręcznej procesora do 128 kB, ale jednocześnie zmniejszono pamięć podręczną drugiego poziomu do 64 kB, co wpłynęło na obniżenie ceny bez wielkiej utraty wydajności sprzętu. Również ten procesor był produkowany w technologii 0,18 mikrometra.
W listopadzie roku 2000 firma Intel zaprezentowała szczytowe osiągnięcie na rynku procesorów multimedialnych. Był to Pentium IV. Następca Intel Pentiuma III wywołał spore zamieszanie. Posiadał szereg innowacyjnych rozwiązań i technologii. Jest to procesor siódmej generacji. W stosunku do poprzednika ma zmniejszoną liczbę tranzystorów wykorzystywanych w obliczeniach. Dzięki temu mógł być taktowany dużo szybszym zegarem. Procesor ten jest wyposażony w technologię wspomagania obliczeń zmiennoprzecinkowych (Double Pumped Integer Arithmetic and Logic Unit), dzięki któremu możliwe jest przyspieszenie zegara niemal dwukrotnie. Lista instrukcji procesora została rozszerzona o dodatkowe 144, dzięki czemu możliwe jest wspomaganie takich procesów, jak kompresja i dekompresja obrazów w czasie rzeczywistym lub zaawansowane szyfrowanie danych. Także pamięć podręczna uległa zwiększeniu. Maksymalna przepustowość magistrali systemowej o częstotliwości 533 MHz wynosi nawet do 3,2 GB/s, dzięki nowoczesnym technologiom. Intel Pentium IV posiada sporą pamięć podręczną i jest wykonywany w technologii 0,18 lub 0,13 mikrometra. Intel Pentium IV korzysta z gniazda Socket 423, choć Intel chce wprowadzić nowe gniazdo, o 478 pinach. Najnowszy Intel Pentium IV wprowadzony na rynek posiada zegar o częstotliwości 3,73 GHz, chociaż słyszy się już o pierwszych procesorach czterogigowych. Największą innowacją i postępem technologicznym było wprowadzenie technologii Hyper-Threading, czyli wielowątkowości. Umożliwia to pracę z kilkoma programami jednocześnie, a także świetnie wspomaga to aplikacje działające wielowątkowo. Jako że sam system operacyjny jest wielowątkowy, technologia Hyper-Threading przyspiesza pracę komputera i poprawia jej wydajność o ok. 25%.
I znów odpowiedź Firmy AMD - procesor Athlon XP, który może być taktowany zegarem o częstotliwości do 2 GHz. Większa wartość częstotliwości nie była możliwa ze względu na ograniczenie technologiczne - technologia 0,18 mikrometra nie pozwalała na to. Rdzeń procesora Athlon XP posiada zintegrowany zestaw SSE.
Obecnie trwają prace nad wprowadzeniem na rynek procesora Intel Pentium V. Oprócz tego firma AMD ukazała światu nowoczesne procesory Sempron, które konkurują z Pentium IV wyposażonym w technologię Hyper-Threading. Na rynku procesorów trwa zimna wojna technologiczna i nie wiadomo, jak może się ona zakończyć, o ile w ogóle się zakończy. Ważne jest, że dzięki takiej "dwufirmowej" konkurencji użytkownicy na całym świecie mogą korzystać z najnowocześniejszych technologii, o których twórcy pierwszych procesorów mogli tylko marzyć. Podsumowując, przez ostatnie trzydzieści lat prędkość procesorów wzrosła od 4 MHz do 4 GHz, co oznacza prawie tysiąckrotny wzrost! Na pewno jest się czym chwalić. Miejmy nadzieję, że przez kolejne trzydzieści lat prędkość procesorów wzrośnie równie poważnie, co około roku 2040 powinno dać nam cztery teraherce. Niewyobrażalna prędkość.
Podsumowanie
Komputery osobiste przez całą swoją historię przeszły niesamowitą metamorfozę. Postęp technologiczny zmienił je z "maszyn do pisania" w poważne urządzenia multimedialne, zdolne w jednym urządzeniu złączyć funkcje takich urządzeń jak telewizor, zestaw kina domowego, wydajne wieże stereo, nie wspominając o nieopisywanych tutaj zastosowaniach, jak na przykład prywatne studio fotograficzne. Obecnie nie jest chyba ciężko sobie wyobrazić, że komputer jest jednostka centralną, obsługującą wszystkie urządzenia elektryczne w domu, takie jak lodówka czy pralka. W niedalekiej przyszłości może się okazać, że wystarczy kliknięcie myszką aby nastawić pranie, włączyć kuchenkę czy też nastawić wodę na kąpiel.
Rozwój technologiczny nakręca się sam. Czy to dzięki konkurencji takich firm jak Intel czy to dzięki twórcom coraz bardziej wymagających gier komputerowych. Jedno jest pewne - za kilka lat cały ten tekst będzie przestarzały. Jak bardzo - to się okaże.