Słowem wstępu
Płyta główna jest jednym z najbardziej podstawowych elementów komputera. Dzięki płycie głównej jest możliwa komunikacja pomiędzy wszystkimi komponentami komputera. Płyta główna jest wyposażona w specjalne gniazda, w których należy umieścić takie komponenty jak procesor, karty pamięci operacyjnej RAM (Random Access Memory) czy tez różnego typu karty rozszerzeń takie jak karta sieciowa, graficzna, dźwiękowa czy telewizyjna. Poza tym płyta Głowna jest też wyposażona w układy sterujące, dzięki którym możliwa jest praca komputera, a także system BIOS, czyli specjalny, sprzętowy program, który obsługuje wszelkie urządzenia wejścia-wyjścia. Cały system jest tak wydajny, jak wydajna jest płyta główna. Nawet jeśli mamy bardzo dobre karty rozszerzeń i najnowszy procesor, słaba jakość płyty głównej może być "wąskim gardłem", przez które wydajność całej konfiguracji sprzętowej znacznie spada. Obecnym standardem wykonania płyt głównych jest standard ATX. Różne płyty główne mogą różnić się między sobą, nawet jeśli są wykonane w tym samym standardzie. Różnice mogą polegać na przykład na ilości gniazd, a także na ilości pamięci operacyjnej, jaką może "udźwignąć" płyta. Płyty wyprodukowane w standardzie ATX są łatwe do rozpoznania. Są to wszystkie te płyty, dzięki którym komputery po wyłączeniu systemu operacyjnego same wyłączają zasilanie w komputerze. Poza tym płyty wyprodukowane w tym standardzie umożliwiają użycie wentylatora zasilacza do ochłodzenia procesora, dzięki czemu zmniejsza się hałas, jaki wytwarza komputer podczas pracy. Standardem dla płyt ATX są sloty PS/2, do których podłącza się myszkę i klawiaturę, w odróżnieniu od dawnych slotów szeregowych (dziś myszkę, klawiaturę i inne urządzenia peryferyjne podłącza się do komputera standardowo poprzez szybkie łącze USB).
Rodzaje procesorów
Najważniejszą częścią komputera jest tak naprawdę procesor. To on steruje wszystkimi operacjami wykonywanymi w komputerze. Jest jakby "mózgiem" komputera. Procesor należy umieścić w specjalnym gnieździe na płycie głównej. Najczęściej są to gniazda typu ZIF lub SLOT. Procesor w potocznym rozumieniu jest pojedynczym lub czasem podwójnym mikroprocesorem. Składa się z jednostki arytmetyczno-logicznej, która jest odpowiedzialna za wykonywanie wszelkich obliczeń numerycznych i logicznych, które są wymagane przez dany program. Oprócz jednostki ALU procesor posiada także jednostkę sterującą przepływem informacji do i z procesora, a także coraz częściej dodatkowe elementy, zwane koprocesorami, które wspomagają procesor w pewnych standardowych zastosowaniach, na przykład numerycznych lub graficznych. Procesor wykonuje wszelkie operacje zgodnie z rozkazami, jakie płyną do niego z pamięci operacyjnej. W zależności od szybkości procesora, jest on w stanie wykonać od kilkuset do kilku milionów operacji na sekundę. Aby określić ilość operacji wykonywanych w procesorze, wprowadza się pojęcie mikrosekundy (1 μs = 0,000001 s) i nanosekundy (1 ns = 0,000000001 s). Jeśli wejść głębiej w budowę procesora, można w nim wymienić takie jednostki i elementy jak rejestry, z których najczęściej jeden lub kilka jest wyróżnionych i nazwanych akumulatorami, jednostka arytmetyczno-logiczno-przesuwająca (Arithmetic Logic Shifter Unit), jednostka wykonująca operacje zmiennoprzecinkowe, układ sterujący, dekoder rozkazów (prosty element logiczny), a także pamięć podręczna poziomu pierwszego (tzw. cache L1) i drugiego (tzw. cache L2). Najważniejszym parametrem określającym procesor jest częstotliwość taktowania zegara, czyli wielkość, która określa ile operacji na sekundę jest w stanie wykonać procesor. Obecnie standardem zaczyna być 3 GHz, chociaż jeszcze dziesięć lat temu było to nie więcej niż 300 MHz. Oprócz tego jako parametry procesorów podaje się także ilość bitów w słowie adresowym oraz jakość szyny danych. (wcześniej 8, 16, obecnie 32 bity; wchodzą już na rynek procesory 64-bitowe) Procesory fizycznie wykonane są z milionów, czy nawet miliardów tranzystorów umieszczonych na specjalnej krzemowej płytce. Zwykle od technologii wytwarzania, czyli od szerokości ścieżek zależy szybkość procesora, czyli częstotliwość taktowania jego zegara. Chodzi tutaj głównie o szerokość ścieżek wyżłobionych w materiale krzemowym. Najczęściej spotykaną technologią jest technologia 0,18 mikrona, choć obecnie technologia pozwala na produkowanie procesorów o szerokości ścieżek mniejszej niż 0,07 mikrona, dzięki czemu możliwe jest osiąganie przez nie tak dużych częstotliwości taktowania zegara.
Większość obecnie produkowanych procesorów jest tworzona w oparciu o architekturę superskalarnego jądra RISC (Reduced Instruction Set Computing). Aby uzyskać taką liczbę rozkazów, jak w procesorach opartych na technologii CISC (Complex Instruction Set Computing - kompletna lista rozkazów), układa się rozkazy procesora w specjalne sekwencje, dzięki którym możliwe jest wykonanie każdej instrukcji.
Obudowy różnych typów procesorów różnią się względem siebie. Wyróżniamy różne typy obudów: SEC (Single Edge Connector); SECC (Single Edge Connector Cartridge); SECC2(Single Edge Connector Cartridge2); PGA(Pin Grid Array); PPGA(Plastic Pin Grid Array); FC-PGA(Flip Chip Pin Grid Array); SEPP(Single Edge Processor Package) i inne.
Cechy procesorów
Jedną z ważniejszych cech procesora jest rodzaj złącza, do jakiego pasuje procesor. Kupując nowy procesor należy wziąć pod uwagę, jakim złączem dysponuje płyta główna, ponieważ większość płyt i procesorów nie jest ze sobą kompatybilna.
Typ gniazd Slot 1 wprowadzono na potrzeby procesora Intel Pentium II (wcześniej były Sockety - 7 oraz 8). Procesor umieszczony w takim gnieździe jest prostopadły do płyty głównej. Kasetki, w których umieszczane są procesory pod Slot 1 to tzw. Single Edge Package, czyli kasetki z pojedynczą krawędzią (tak jest na przykład w Intel Celeronach 266 MHz) lub Single Edge Contact, czyli kasetki o kontakcie przez jedną krawędź (te kasetki przechowują procesory Intel Pentium II oraz III).
Typ gniazd Slot 2 wykorzystywany jest przez Intel Pentium II i Intel Pentium III. W odróżnieniu od Slotu 1, gdzie pasują procesory o 242 pinach, w Slot 2 można włożyć procesor o 330 pinach.
Gniazdo Socket 370 jest wykorzystywane przez nowe Intel Celerony oraz Intel Pentium III. W tym gnieździe procesor umieszczony jest równolegle do płyty głównej (jest to tzw. typ ZIF gniazd). Gniazdo Socket 370 ma kolor biały. Posiada 370 otworów dla pinów i ma wymiary 50mm x 50mm. Pasują do niego procesory Intel Celeron PPGA (ang. Plastic Pin Grid Array) lub FCPGA (ang. Flip-Chip Plastic Pin Grid Array).
Socket 423 posiada, jak nazwa wskazuje, 423 otwory na piny procesora. Gniazdo to jest wykorzystywane przez starsze wersje Intel Pentium IV i ma wymiary 61mm x 73mm. Nowe Intel Pentiumy IV korzystają z gniazda Socket 478, o 487 otworach na piny procesora. Inne gniazda (starsze) to np. Socket 7 i Socket 8, wykorzystywane przez procesory piątej generacji, jakie jak Intel Pentium czy AMD, a także dla Pentium Pro, wprowadzonym jako specjalny procesor dla urządzeń serwerowych.
Kolejną ważną cechą procesorów jest napięcie, pod jakim pracują. O ile w nowszych płytach głównych jest to wykrywane automatycznie, o tyle starsze Sockety 7 nie potrafiły tego dokonać. Na szczęście obecnie raczej nie kupuje się procesorów ani płyt głównych pod Socket 7, dlatego można być niemal pewnym, że płyta główna zareaguje odpowiednio na konkretny rodzaj procesora.
Bardzo ważnym elementem każdego procesora jest pamięć podręczna. Zwykle są to cache pierwszego i drugiego poziomu. W niektórych płytach głównych produkowanych pod procesory AMD istnieje też swego rodzaju pamięć podręczna trzeciego poziomu, co także wpływa dodatnio na działanie procesora. Pamięć pierwszego poziomu ma obecnie standardowy rozmiar od 512 kB, zaś pamięć podręczna drugiego poziomu to od 2 MB. Pamięć podręczna jest pamięcią typu RAM, o bardzo szybkim czasie dostępu, ponieważ dane z niej nie muszą przechodzić przez magistralę danych, a są dostępne z poziomu procesora niemal natychmiast.
Procesor podczas swojej normalnej pracy wydziela dość sporą ilość ciepła, dlatego bardzo ważne jest, aby chronić przed nim jego własne obwody. Do tego celu wykorzystuje się różnego rodzaju systemu chłodzenia. Najczęściej spotykanym rodzajem takiego systemu jest po prostu wiatraczek, podobny do tego, który znajduje się wewnątrz zasilacza. Obecnie coraz większą furorę robi chłodzenie wodne, które działa na zasadzie chłodnicy samochodowej. Jego zdecydowaną zaletą jest brak jakiegokolwiek hałasu. Ogromne procesory mogą być chłodzone nawet ciekłym azotem. Bardzo ważne jest, aby pamiętać o chłodzeniu. Większość komputerów wyposażonych jest w czujniki, które wyłączają komputer w momencie osiągnięcia przez procesor zbyt wysokiej temperatury. Jednak kiedy takie czujniki zawiodą, a system chłodzący nie spełni swojego zadania, może nastąpić nawet uszkodzenie, czyli po prostu przepalenie się procesora.
Największymi potentatami na rynku procesorów są obecnie firmy Intel oraz AMD, które konkurują ze sobą jak równy z równym. Dzięki ich malej wojnie technologicznej szybkość, z jaką rozwijają się procesory jest olbrzymia. W kilkanaście lat ich prędkość wzrosła tysiąckrotnie!
Rodzaje płyt głównych
Jak wspominałam wyżej, obecnie większość płyt głównych jest produkowana zgodnie z wytycznymi standardu ATX. Płyty ATX charakteryzują się między innymi lepszym rozmieszczeniem wszelkich gniazd, dzięki czemu dostęp do nich jest ułatwiony. Oprócz tego, płyty ATX posiadają wiele zintegrowanych złączy, takich jak USB, łącza szeregowe i PS-2. Dzięki takiemu połączeniu zwiększa się funkcjonalność płyty i nie trzeba dokupywać kosztownych części. Dodatkowo, jak wspomniałam wyżej, płyty ATX posiadają wbudowaną funkcję Soft Power. Dzięki wprowadzeniu tego standardu możliwe jest sterowanie zasilaniem elektrycznym z poziomu płyty głównej. Oznacza to, że możliwe jest oszczędzanie energii dzięki sterowaniu systemem uśpienia systemu. Poza tym sama płyta główna potrafi wyłączyć komputer po zamknięciu systemu. Stare płyty główne po zamknięciu systemu wymagały ręcznego wyłączenia zasilania (Ach, to stare pomarańczowe hasło: "Możesz teraz bezpiecznie wyłączyć komputer"!). W nowoczesnych płytach głównych istnieje także armia czujników, dzięki którym system operacyjny może bez problemu monitorować takie elementy konfiguracji sprzętowej jak napięcie zasilające czy aktualna temperatura procesora, dzięki czemu może szybko wykryć jakiekolwiek nieprawidłowości. Wszystko to dzięki płycie głównej.
Istnieją różne odmiany płyt głównych opartych na standardzie ATX. Na uwagę zasługuje Mikro ATX, płyty główne, które doskonale nadają się do zastosowań biurowych, ponieważ nie są drogie, a posiadają wystarczającą funkcjonalność. Płyty te są wyposażone w cztery sloty na karty rozszerzeń i tylko dwa gniazda pamięci, dlatego nie są zbyt dobre do komputerów, które mogą być rozbudowywane o wiele kart i kości pamięci. Natomiast dla standardowych zastosowań są, jak wspominałam, idealne.
Innym od ATX standardem produkowania płyt głównych jest, będący pewnym rozszerzeniem ATX standard WTX. Architektura ta pozwala na rozszerzenie funkcjonalności płyty o dodatkowy moduł rozszerzający, tak zwaną kartę rozszerzającą Riser Card, dzięki której możliwe jest dołączenie do płyty jeszcze większej ilości kart i innych złączy, takich jak adaptery wejścia-wyjścia, karty sieciowe czy też kontrolery SCSI.
Wcześniej, zanim wprowadzono standard ATX, na rynku królowała technologia zwana AT (lub Baby AT - płyty produkowane w tym standardzie były mniejsze niż normalne płyty AT). Bardzo nieekonomiczną cechą tego typu płyt głównych był fakt, że złącza szeregowe i równoległe umieszczone były z tyłu obudowy, połączone z płytą za pomocą specjalnych taśm, które niemal uniemożliwiały dostęp do złączy pamięci głównej oraz do slotów na karty rozszerzeń. Aby cokolwiek wymienić w takim komputerze, najczęściej trzeba było po prostu wszystko porozłączać, składając komputer niemalże na nowo. Dla niezbyt wprawionego użytkownika było to dość trudne, ponieważ trzeba było zapamiętać dokładnie gdzie co było przyłączone, aby nie zepsuć poprzedniej konfiguracji. Poza tym, nie wszystkie karty rozszerzeń mogły być instalowane na tego typu kartach, ponieważ umiejscowienie gniazda procesora przy kartach rozszerzeń skutecznie blokowało karty dłuższe niż standardowe.
Innym standardem tworzenia płyt, choć rzadko spotykanym, jest standard LPX. Płyty główne produkowane w tym standardzie były zdecydowanie tym, co można nazwać "pójściem na ilość, a nie na jakość". Płyty te nie posiadały w ogóle możliwości umieszczenia w nich kart rozszerzeń! Dopiero specjalna karta rozbudowująca posiadała sloty do kart rozszerzeń. Było to podyktowane chęcią producentów do stworzenia płyty jak najtańszej, przeznaczonej do komputerów typu desktop, które spełniają często w firmach rolę odrobinę bardziej rozwiniętej maszyny do pisania i dużego kalkulatora. Płyta w standardzie LPX była wyposażona w zintegrowane z nią łącza szeregowe i PS-2.
Gniazda rozszerzeń
Ogromna ilość różnych urządzeń i ich producentów, oraz różnych rodzajów płyt głównych wymusiła na producentach stworzenie standardów, dzięki którym byłoby możliwe, aby różne karty rozszerzeń pracował poprawnie z różnymi typami płyt głównych. Na szczęście udało się to, i obecnie złącza obecne na płytach głównych są ustandaryzowane. Poszczególne komponenty konfiguracji sprzętowej komunikują się ze sobą za pomocą specjalnych szyn danych, zwanych magistralami. Istnieją zasadniczo dwa rodzaje magistrali. Pierwszy z nich to tak zwana magistrala zewnętrzna. Odpowiada ona za komunikację pomiędzy jednostką centralną komputera a urządzeniami peryferyjnymi. Drugim rodzajem magistrali jest magistrala wewnętrzna. Dzięki niej sprawowana jest kontrola nad urządzeniami znajdującymi się wewnątrz jednostki centralnej.
W samej płycie głównej można znaleźć dużo różnych rodzajów gniazd rozszerzeń. Poniżej przedstawię krótkie opisy niektórych z nich.
a) Gniazda PCI (ang. Peripheral Component Interconnect). Gniazda PCI zostały wprowadzone w roku 1993. Wiele kart jest przystosowanych dla tej właśnie architektury. Standard PCI obsługuje zarówno trzydziestodwu-, jak i sześćdziesięcioczterobitową magistralę danych. Gniazda PCI to głównie gniazda wykorzystywane przez karty telewizyjne, dźwiękowe czy też modemowe i sieciowe. Czasem zdarza się wykorzystywanie tych złączy przez karty sieciowe, jednak ze względu na istnienie lepszej alternatywy dla kart sieciowych (złącza AGP), jest to raczej rzadkość niż reguła.
b) Gniazda AGP (ang. Accelerated Graphic Port). Są to gniazda, które w roku 1997 wprowadził nie kto inny jak firma Intel. Gniazda te są przeznaczone wyłącznie dla kart graficznych. Ich przepustowość jest większa niż przy zwykłych złączach PCI, dlatego często przyłączenie tej samej karty graficznej do portu AGP pozwala na uzyskanie lepszej grafiki niż po przyłączeniu do slotu PCI. Oprócz tego złącze AGP pozwala na to, aby karta graficzna korzystała z własnej pamięci podręcznej, dzięki czemu jeszcze bardziej jest zwiększona jej wydajność. Właśnie na potrzeby grafiki, zwłaszcza grafiki komputerowej, powstały porty i szyny danych AGP. Wyróżnia się cztery rodzaje magistrali AGP, każda o coraz większej przepustowości, od 266Mb/s, aż do ośmiokrotnych, a nawet szesnastokrotnych magistrali AGP, których przepustowość wynosi odpowiednio 8*266 i 16*266 Mb/s.
Współcześnie używane chipsety
Chipsetem nazywamy specjalny zestaw układów scalonych, najczęściej wyspecjalizowany w konkretnym zastosowaniu. Dzięki chipsetom w płytach głównych możliwy jest mechanizm współpracy pomiędzy poszczególnymi elementami w komputerze. Możliwa jest zatem komunikacja pomiędzy elementami systemu komputerowego i udostępniony jest mechanizm połączeń i przepływu konkretnych porcji informacji. Chipset jest czymś w rodzaju pośrednika pomiędzy komponentami komputera a procesorem i pamięcią operacyjną. Chipset, jak nazwa wskazuje, składa się z zestawu chipów, czyli wysoko rozwiniętych elementów elektronicznych złożonych z dużej liczby układów scalonych. Często chipy są rozmieszczone w strategicznych miejscach na płycie głównej, a czasem skupiają się w jednym punkcie.
Współcześnie chipsety tworzą swego rodzaju zestaw połączeń pomiędzy szynami danych. Na szczęście szyny często są ze sobą zsynchronizowane dzięki wprowadzeniu obowiązku ustawiania ich częstotliwości na wielokrotności 33 MHz. Istniały pomysły na rozwiązania asynchroniczne, które teoretycznie mogłyby być szybsze, ponieważ nie musiałyby trzymać się tych wytyczonych ram 33 MHz, ale okazało się, że narzut związany z połączeniami pomiędzy takimi asynchronicznymi szynami pochłania cały zapas wytworzony przez szybsze szyny danych, a nawet jeszcze zwiększa czas potrzebny na komunikowanie się.
Istnieje także ciekawe rozwiązanie zwane rozwiązaniem pseudosynchronicznym. Zostało ono zaproponowane przez firmę produkującą chipsety Apollo. Takie rozwiązanie bazuje na tym, że połączenia realizowane są poprzez bufory o wielu wejściach zegarowych, dzięki czemu nie są ograniczone przez zegar systemowy i mogą posiadać tak zwany zmienny timing. Dla przykładu, każdy bank pamięci może poprzez chipsety Apollo posiadać indywidualny timing. Niestety, technologia ta nie spotkała się z wielkim uznaniem ze strony producentów płyt głównych, którzy nie są do tej pory zainteresowani zakupieniem tej technologii i wykorzystaniem jej w swoich systemach, mimo że tego typu chipsety rzeczywiście przyspieszają komunikację pomiędzy szynami danych.
Obecnie opracowuje się inne rozwiązanie, które rezygnuje z połączeń pomostowych pomiędzy szynami danych. Ich miejsce zajmują niewielkie koncentratory, znane jak dotąd jako rozwiązania makroskopowe w sieciach komputerowych. Na takiej samej zasadzie przełączania danych maja bazować nowoczesne płyty główne.
Współczesny chipset zawiera takie elementy jak:
- kontrolery pamięci głównej (operacyjnej)
- kontrolery korygowania błędów na magistrali danych
- kontrolery prędkości magistrali systemowej
- kontrolery pamięci podręcznej drugiego lub trzeciego poziomu, w zależności od tego, która z nich znajduje się na płycie głównej
- kontrolery procesora lub procesorów
- kontrolery magistrali złączy na karty rozszerzeń (PCI, AGP…)
- kontrolery przerwań systemowych
- zegar rzeczywisty, odliczający czas w sekundach lub częściach sekundy od początku ery komputeryzacji (1.01.1970)
- kontrolery portów PS-2, czyli portów klawiatury i myszy
- kontrolery napędów dysków (w tym dyskietek, płyt CD i DVD)
- kontrolery portów, zwłaszcza portów szeregowych i nowoczesnych portów USB
- kontrolery oszczędzania energii w komputerze
Płyta główna w swoim skomplikowaniu przypomina niezły bałagan na dużym strychu. W jaki sposób zapanować nad tym wszystkim - oto jest wyzwanie dla producentów sprzętu komputerowego. Aby ogarnąć ten cały miszmasz wykorzystywane są specjalne interfejsy pomiędzy szynami danych, sterowniki sprzętowe, dzięki którym jest możliwe korzystanie z klawiatury i myszy. Całość jest sterowana za pomocą sprzętowych przerwań.
Dostęp do pamięci operacyjnej - wąskie gardło?
Niestety, nawet najszybsze procesory w połączeniu z powolna jak dotąd pamięcią operacyjną nie są w stanie wykrzesać z siebie maksimum swoich możliwości. Pamięć operacyjna szybko się rozwija - standardem jest pamięć o częstotliwości 500 i więcej megaherców - jednak nadal jest to dużo za mało w związku z rozwojem procesorów, których standardowy już zegar taktuje nawet z częstotliwością 3,5 gigaherców, zatem prawie dziesięć razy szybciej. Poza tym już bardzo wolne są urządzenia peryferyjne, jak dyski czy klawiatura - procesor bardzo często bezczynnie czeka na informacje z zewnątrz, co sprawia, że marnuje się ogromna ilość mocy obliczeniowej. Dlatego wciąż trwają prace, aby przynajmniej przyspieszyć dostęp do pamięci operacyjnej.
Obecnie standardem jest pamięć DDR2 o częstotliwości około 533 MHz. W ciągu ostatnich kilku lat nastąpił niemal milowy krok w rozwoju pamięci. Jeszcze nie tak dawno standardem była pamięć o częstotliwości 133 MHz, a pamięć pracująca w standardzie DDR była odległą przyszłością. Pamięć DDR stała się obecnie ogromną konkurencją dla starych SDRAM, w zasadzie w nowych komputerach nie stosuje się już powolnej pamięci SDRAM. Obecnie trwają prace nad wprowadzeniem na rynek pamięci DDR3, która jeszcze bardziej zbliży się do procesorów pod względem częstotliwości działania. Większość obecnie produkowanych płyt głównych nawet nie przewiduje instalowania pamięci SDRAM, a niektóre są już zbyt nowoczesne dla zwykłej pamięci DDR, której nowszą wersją jest oczywiście DDR2.
Nośniki danych
Istnieje wiele różnych nośników danych, na których dane są zapisywane w bardzo różny sposób. Przykładem może być pamięć magnetyczna oraz jej najlepszy reprezentant - dyskietka. Dyskietka (dysk elastyczny, ang. Floppy Disk) jest to krążek wykonany z giętkiego tworzywa sztucznego, pokryty warstwą materiału magnetycznego. Grubość krążka z folii jest mniejsza niż 0,1 mm, a grubość warstwy magnetycznej wynosi tylko 0,0025 mm. Dyskietka jest opakowana w obudowę z tworzywa sztucznego.
Zapis danych odbywa się na koncentrycznych ścieżkach, których liczba może być równa 40 lub 80. Zwykle używa się dyskietek 3,5 cala, jednak dawniej stosowano także dyskietki o innej średnicy. Informacja na dyskach może być zapisywana z podwójną gęstością (Double Density, DD) lub z wysoką gęstością (High Density, HD). Gęstość zapisu podawana jest w bitach na cal (bits per inch.BPI) i wynosi od kilku do kilkunastu tysięcy.
Dyskietka o pojemności 1.44 MB posiada po obu stronach po 80 ścieżek podzielonych na 18 sektorów o jednakowej długości-512 bajtów. Ścieżka to miejsce położenia głowicy podczas odczytu lub zapisu na dysku. Ścieżki dzielone są na sektory. Cylinder to zespół tych samych ścieżek w napędzie wielotalerzowym. Podstawowym fragmentem dysku z punktu widzenia systemu operacyjnego jest tak zwany klaster (ang. cluster). Klaster to najmniejsza jednostka zapisu danych na dysku, która dla dyskietki wynosi 1,2 sektory. Informacja o tym, w których klasterach został zapisany dany plik, znajduje się na dysku w specjalnej tablicy zwanej tablicą rozmieszczenia plików (alokacji) plików, w skrócie FAT. Na podobnej zasadzie co dyskietki działają także dyski twarde, jednak tam zapis jest bardziej trwały ze względu na to, że dyski są twarde, a nie miękkie, jak to jest w dyskietkach. Zapis informacji polega na odpowiednim przemagnesowaniu pól nośnika magnetycznego. Dzięki zastosowaniu specjalnych elementów, zwanych głowicami czytająco-piszącymi, możliwe jest dokonanie takiego namagnesowania. Na głowicy nawinięta jest cewka elektromagnetyczna, w której płynie prąd, tworząc elektromagnes, który jest w stanie precyzyjnie namagnesować konkretne pole nośnika danych. Odczyt polega na indukcji prądu elektrycznego w cewce. Pole magnetyczne pochodzące od namagnesowanego odcinka nośnika, przenika rdzeń głowicy i indukuje w cewce siłę elektromotoryczną, która jest następnie wzmacniana i formowana w impuls cyfrowy, traktowany później jako impuls zegarowy lub bit danych, w zależności od metody zapisu informacji.
Innym rodzajem nośników danych są nośniki optyczne. Wykorzystywane są do nich lasery o różnej częstotliwości i długości fali. Typowym przedstawicielem pamięci optycznej jest CD-ROM. Wielkość współczesnego oprogramowania jest znaczna. Pakiety programów czy gry zajmujące kilkaset megabajtów lub więcej nie są niczym niezwykłym. Wewnątrz komputera znajdują miejsce na dyskach twardych. Ponieważ dyski twarde nie są w zasadzie pomyślane jako urządzenia przenośne, a na dodatek są zbyt drogie, dlatego też ogromne znaczenie mają płyty CD-ROM i DVD będące nośnikami oprogramowania tanimi i o dużej pojemności. CD-ROMy wywodzą się z rewolucyjnego rozwiązania wprowadzonego w technice zapisu dźwięku, opracowanego wspólnie przez firmy Philips i Sony. W jego wyniku powstały płyty kompaktowe audio zapisie cyfrowym. Szybko okazało się, że zapis ten nadaje się doskonale do zastosowania w technice komputerowej. W ten sposób powstały CD-ROMy i ich napędy.
CD standardowo można podzielić na płyty tłoczone oraz płyty przeznaczone do zapisu. Płyty tłoczone posiadają w warstwie "danonośnej" wytłoczone wgłębienia, które reprezentują różne bity danych. Wbrew powszechnemu przekonaniu, płyty CD-R, które mogą być "wypalone" w domowych nagrywarkach, wcale nie posiadają takich wgłębień. Tajemnicą "wypalania" płyt CD-R jest specjalna substancja, która pod wpływem światła laserowego ciemnieje i pochłania światło lasera tak, jakby było to wgłębienie. Pewną modyfikacją tej substancji jest materiał wykorzystywany w płytach CD-RW. Ten materiał pod wpływem światła o danej długości fali ciemnieje, jednak po naświetleniu laserem o nieco zmienionych parametrach staje się znów przezroczysta. Stąd właśnie tajemnica wymazywania danych z płyty CD-RW.
Nośnikiem jest przeźroczysta warstwa poliwęglanowa, w której wytłoczone są wgłębienia. Warstwa ta pokryta jest napyloną warstwą aluminium odbijającą światło. Całość zabezpieczona jest od góry lakierem, na którym są wykonane ewentualne nadruki.
Kolejnym krokiem w optycznych nośnikach danych było wprowadzenie do powszechnego używania płyty DVD, a zwłaszcza DVD-R. Różnica polega tylko na tym, że wiązka lasera jest cieńsza, dzięki czemu możliwe było zapisanie na takiej płycie kilkakrotnie więcej danych niż na płycie CD. DVD jest skrótem od Digital Versatile Disc, czyli uniwersalny dysk cyfrowy. Zwykle używa się tych płyt do zapisywania plików filmowych o dużej jakości, a także coraz częściej powstają gry komputerowe oparte właśnie na tej technologii. Istnieją także płyty DVD, które są dwustronne, to znaczy nośniki danych, które są cieńsze niż w przypadku zwykłych płyt CD są naniesione na obie strony płyty, co, jak nietrudno wydedukować, zwiększa pojemność płyty dwukrotnie.