Krótkie wprowadzenie
Jednym z podstawowych używanych w komputerach urządzeń jest dysk twardy. Bez niego nie byłoby możliwe przechowywanie danych, dlatego jest tak ważnym elementem systemu komputerowego. Dyski twarde charakteryzują się relatywnie niewielkim czasem dostępu, dzięki czemu dostęp do danych zapisanych na takim dysku nie jest trudny. Obecnie nie wyobrażamy sobie pracy na komputerze bez dysków twardych o coraz większych pojemnościach. Wymagają tego pakiety oprogramowania, które im bardziej rozbudowane i użyteczne, tym więcej miejsca na dysku potrzebują do pracy. Dlatego parametr komputera, jakim jest wydajność dysku twardego, znacznie wpływa na komfort pracy.
Nie jest ciężko wyobrazić sobie jak wygląda dysk twardy. Składa się on z jednego bądź kilku talerzy, które wprawiane są w ruch obrotowy przez specjalne silniczki. Talerze dysku są pokryte cienką warstwą materiały ferromagnetycznego, zwanego nośnikiem magnetycznym. Oprócz tego dysk wyposażony jest w specjalne głowice czytająco-piszące, które poruszają się ponad powierzchnią talerzy, dociskane do nich przez specjalne sprężyny. Pomiędzy końcem głowicy a dyskiem jest zawsze szczelina, która zapobiega rysowaniu powierzchni magnetycznej. Szczelina ta powstaje dzięki temu, że wirujące talerze "odpychają" od siebie głowice. Nazywa się to pływającymi głowicami. Metoda ta jest obecnie powszechna w większości dysków twardych i choć trwają badania nad innymi sposobami, póki co nie ma dla niej konkurencji na rynku. Dyski o odpowiednim rozmiarze są obecnie niezbędne do prawidłowej pracy komputera.
Niestety, do tej pory w systemach komputerowych dyski twarde są nieraz traktowane "po macoszemu". W nowoczesnych komputerach montuje się dużą ilość pamięci operacyjnej i szybki procesor, na dalszy plan odsuwając parametry dysków twardych. Często zatem zdarza się, że system, choć konfiguracyjnie bardzo dobry, nie jest w stanie rozwinąć skrzydeł właśnie ze względu na słabe dyski twarde o niewielkiej pojemności.
Rozwój twardych dysków
Na przestrzeni ostatnich kilkudziesięciu lat rozwój dysków twardych osiągnął niezaprzeczalnie ogromny poziom. Szybkość, z jaką pojawiają się na rynku coraz większe i szybsze dyski można tylko porównać do rozwoju procesorów, z których każdy kolejny jest o niebo lepszy od poprzedniego (co widać na przykładzie generacji procesorów Pentium).
Pierwowzorem twardego dysku jest pamięć bębnowa. Pierwsze dyski twarde takie, jak dzisiaj znamy, wyprodukowała w latach 70 XX w. firma IBM. Była to słynna seria o nazwie Winchester. Chociaż istnieją też głosy, aby za pierwszy dysk uznać urządzenie, na którego bazie pracował komputer IBM 305 RAMAC (Randmo Access Method of Accounting and Control). Dysk tego urządzenia mógł pomieścić ogromną jak na tamte czasy ilość danych - nawet do pięciu megabajtów - a wyposażony był w pięćdziesiąt talerzy o średnicy dwudziestu cali.
Kolejnym krokiem w rozwoju dysków, po wprowadzeniu ich przez firmę IBM w latach siedemdziesiątych, było stworzenie kilka lat później dysków o pięciocalowej średnicy, które dostępne były za atrakcyjną cenę dla wszystkich użytkowników. Wówczas były to dyski o pojemności około dziesięciu megabajtów.
Obecne talerze dysków twardych standardowo posiadają średnicę trzech i pół cala. Pojemność takiego dysku w ciągu zaledwie trzydziestu lat wzrosła sto tysięcy razy, obecnie osiągając nawet pięćset gigabajtów. I prawdopodobnie na tym się nie skończy, gdyż trwają już prace nad dyskami o pojemności liczonej w terabajtach.
Budowa i działanie dysków twardych
Dyski twarde posiadają szereg standardowych komponentów, w które wyposażone są one wszystkie. Na uwagę zasługują takie elementy jak obudowa, pozycjoner ramion głowic, głowice czytająco-piszące oraz talerze pokryte materiałem magnetycznym. Na każdą powierzchnię talerza dysku przypada po jednej głowicy odczytu i zapisu. Głowice są umieszczone na elastycznych ramionach i w stanie spoczynku stykają się z talerzem blisko osi, w czasie pracy unoszą się, a ich odległość nad talerzem jest stabilizowana dzięki sile aerodynamicznej (głowica jest odpychana od talerza podobnie jak skrzydło samolotu unosi samolot) powstałej w wyniku szybkich obrotów talerza. Odległość ta, zwana poduszką powietrzną, nie przekracza wartości jednego mikrometra. Kiedy do dysku wysyłane jest żądanie dostępu do określonego obszaru, pozycjoner głowic przemieszcza je wzdłuż promienia dysku tak, aby natrafić na żądaną ścieżkę zapisu. Dawniej pozycjoner głowic był zbudowany w oparciu o silnik krokowy, jednak w związku z coraz gęstszym upakowaniem ścieżek na dysku zostało to udoskonalone. Obecnie pozycjonery pracują na silniku ciągłym, który wytwarzając odpowiednie pole elektromagnetyczne przesuwają głowice w sposób liniowy, nie skokowy. Kiedy dysk jest wyłączony, a głowice znajdują się w stanie spoczynku, specjalna sprężyna dociąga je do środka dysku i tam "parkuje".
Bardzo ważną rzeczą w obecnych dyskach jest obudowa. Chroni ona wszystkie części dysku i jest hermetyczna, a jej rozszczelnienie jest zwykle powodem nieodwracalnego uszkodzenia dysku. Jest to związane z ogromną precyzją tego typu urządzeń, która nie może być zakłócona przez najmniejsze nawet zanieczyszczenie. Każda cząstka kurzu może nie tylko spowodować zarysowanie delikatnej powierzchni talerzy, ale także mieć wpływ na grubość poduszki powietrznej czy zakłócać pole elektromagnetyczne potrzebne do przesuwania głowic.
Oprócz elementów mechanicznych dyski są oczywiście wyposażone w elementy elektroniczne, zwane kontrolerami. Sterują one położeniem głowic nad dyskiem, zapisem i odczytem danych, konwersją sygnałów magnetycznych na cyfrowe, elektroniczne, zrozumiałe dla komputera. Można powiedzieć, że jest to minikomputer, ponieważ jest wyposażony w takie elementy jak mikroprocesor i minipamięć operacyjną.
Nośnikiem danych w dyskach twardych jest cienka, kilkumikrometrowa warstwa substancji ferromagnetycznej (zwykle jest to jeden z tlenków żelaza). Wykonane są z mocno wypolerowanego stopu aluminium, co zapewnia ich niewielką masę, dzięki czemu silniki wprawiające je w ruch obrotowy nie muszą pobierać dużej mocy. Poza tym dzięki niewielkiej masie dyski szybciej mogą być rozpędzane, a co za tym idzie, zmniejsza się czas dostępu do danych.
Zapis na dyskach twardych odbywa się na bardzo podobnej zasadzie co zapis na kasetach magnetofonowych, a prawie identycznie odbywa się zapis na dyskietkach magnetycznych. Głowica pisząca porusza się nad powierzchnią dysku wytwarzając pole elektromagnetyczne. Dzięki zjawisku magnetyzmu powierzchnia talerza zostaje namagnesowana. Odczyt natomiast działa na zasadzie indukcji elektromagnetycznej. Kiedy głowica czytająca przesuwa się nad namagnesowanym obszarem dysku, pole magnetyczne wzbudza w niej prąd elektryczny, który potem jest interpretowany przez kontrolery dysku jako sygnały cyfrowe, zrozumiałe dla procesora.
Parametry twardych dysków
Chociaż większość użytkowników zna tylko jeden parametr dysków twardych - ich pojemność - to jednak należy zauważyć, że nie jest to jedyna wielkość, która mówi o wydajności dysków twardych. Jest to oczywiście wielkość ważna. Obecne dyski twarde osiągają nawet pojemność kilkuset gigabajtów, dzięki czemu przez długi czas będą wystarczającym medium dla większości użytkowników. Dzięki temu, że coraz więcej prac badawczych jest prowadzonych nad gęstością zapisu, w niedalekiej przyszłości będzie możliwe wykorzystanie jeszcze bardziej wydajnych nośników magnetycznych, bardziej precyzyjnych głowic i lepszych technik kodowania informacji, a co za tym idzie znów powiększy się maksymalna pojemność dysków, prawdopodobnie już niedługo osiągając nawet jeden terabajt informacji.
Drugim ważnym parametrem, z jakim spotkać się można przy dyskach twardych jest tak zwany średni czas dostępu. Jest to wielkość, która mówi jak długo trzeba czekać od momentu wysłania żądania odczytu lub zapisu danych do dysków otrzyma się potwierdzenie wykonania operacji (dostępne będą odczytane dane lub kontroler poinformuje o zmianie stanu dysku). Tak zwany średni czas dostępu z angielskiego jest nazywany Average Access Time. Składają się nań co najmniej dwa główne elementy. Pierwszy z nich jest czasem szukania (angielskie Average Seek Time), który mówi, jak długo należy czekać, aby silnik liniowy przeniósł głowicę nad odpowiednią ścieżkę dysku. Drugim elementem jest opóźnienie rotacji (angielskie Rotation Latency), które mówi, jak długo talerz przekręca się pod głowicą, aby znaleźć odpowiedni sektor danych. Całościowo średni czas dostępu jest równy kilku mikrosekundom, i choć wydaj e się to mgnienie oka, to bardzo opóźnia wszelkie operacje, ponieważ pamięć operacyjna jest zawsze gotowa do odczytu w kilka nanosekund. Dlatego bardzo ważne jest, aby minimalizować odczyty z dysku podczas pracy komputera.
Innym parametrem dysku jest jego prędkość obrotowa. Obecnie standardem jest 7200 obrotów na minutę, choć coraz częściej wykorzystuje się dyski o prędkości obrotowej 15 000 obrotów na minutę. Prędkość obrotowa dysku znacząco wpływa na opóźnienie rotacji, opisywane w poprzednim paragrafie, a także sprawia, ze więcej danych może być odczytanych przez głowicę dysku w jednostce czasu.
To, na co warto zwrócić uwagę przy kupnie dysku, to szybkość transmisji danych, która osiąga wartości kilkudziesięciu megabajtów na sekundę. Oznacza to, że w ciągu jednej sekundy system ma dostęp do kilkudziesięciu megabajtów danych z dysku. Wyróżnia się kilka rodzajów szybkości przesyłu. Jednym z nich jest maksymalna wewnętrzna szybkość transmisji, która określa, ile danych dysk jest w stanie zapisać lub odczytać w ciągu sekundy. Maksymalna zewnętrzna szybkość transmisji jest zazwyczaj mniejsza i określa przepustowość interfejsów dyskowych. Średnią szybkością transmisji określa się na podstawie doświadczeń z dyskiem.
Pamięć cache jest ważnym elementem dysku. Jest to tak zwana pamięć podręczna, w której mogą być przechowywane ostatnio żądane dane. Im większy jest rozmiar pamięci podręcznej dysku, tym sprawniej można przesyłać dane pomiędzy pamięcią operacyjną a dyskiem. Standardowym rozmiarem pamięci podręcznej jest 2 MB.
W specyfikacji dysków często wymienia się też parametry takie jak liczba talerzy, liczba głowic oraz liczba cylindrów. O ile dwa pierwsze sformułowania znaczą dokładnie to co widać, ostatnie wymaga nieco opisu. Cylindrem nazywamy zbiór wszystkich ścieżek na wszystkich talerzach, które posiadają ten sam numer. Jest to zatem ścieżka rozszerzona do trzech wymiarów - trzecim wymiarem jest numer talerza dysku. Zwykle w dysku znajduje się kilka lub kilkanaście tysięcy cylindrów.
Ostatnim istotnym parametrem dysków twardych jest pobór mocy. Jest to istotne, jeśli posiadamy zbyt słaby zasilacz do komputera. Wówczas przeciążony zasilacz może nie funkcjonować dobrze, jest to bardzo niebezpieczne dla innych urządzeń zainstalowanych w komputerze.
Interfejsy dyskowe
Zwykle wyróżnia się dwa sposoby łączenia dysków między sobą. Pierwszym z nich, choć już wychodzącym z użycia, jest interfejs szeregowy, który jest mało praktyczny. Drugim, najczęściej stosowanym, jest interfejs równoległy IDE/ATA, który pozwala na podłączenie do czterech urządzeń.
ATA (ang. Advanced Technology Attachments) jest interfejsem systemowym PC przeznaczonym do komunikacji z dyskami twardymi zaproponowany w 1983 przez firmę Compaq. Standard ATA jest ciągle rozwijany w kierunku zwiększania szybkości transmisji. Początkowo stosowano oznaczenia ATA-1, -2 itd., obecnie używa się określeń związanych z zegarem taktującym interfejs (ATA/33, ATA/66, ATA/100, ATA/133). Jego rozszerzona wersja - protokół ATAPI - pozwala nie tylko podłączać do czterech dysków, ale także współpracuje z innymi urządzeniami dyskowymi, takimi jak napędy CD-ROM.
Następcą równoległej magistrali pamięci ATA jest SATA (Serial Advanced Technology Attachments). Do transmisji przewidziane są cieńsze i bardziej elastyczne kable z mniejszą ilością styków, co pozwala na stosowanie mniejszych złączy na płycie głównej w porównaniu do równoległej magistrali ATA. Interfejs przeznaczony do komunikacji z przepływnością 150 MB/s, umożliwiający szeregową transmisję danych między kontrolerem a dyskiem komputera z przepustowością ok. 1,5 Gb/s.
Z drugiej strony, istnieje także rozwinięcie interfejsu równoległego, które otrzymało nazwę SCSI (Small Computer Systems Interface). Interfejs ten obsługuje wiele różnorakich urządzeń, do których można zaliczyć nagrywarki, czytniki kart, czytniki taśm czy dyski. Istnieje wiele standardów interfejsu SCSI, z których najważniejszym i obecnie stosowanym jest Ultra4 SCSI, gdzie maksymalna prędkość transmisji osiąga do 320 MB/s. Dzięki temu, że systemy szeregowe pozwalają na używanie naraz dużej liczby (do 15) różnych urządzeń, systemy SCSI stosuje się chętnie w serwerach sieciowych, które muszą udostępniać dużo miejsca na dyskach twardych. Dodatkową zaletą kart rozszerzeń, które wprowadzają technologię SCSI jest własny BIOS, który nie zależy w żadnym stopniu od BIOS-u płyty głównej. Dzięki takiemu rozwiązaniu interfejs nie nadużywa BIOS-u płyty głównej komputera i możliwy jest wzrost szybkości przesyłania danych i wydajności całego systemu pomimo pozornego obciążenia go przez dodatkowe napędy dyskowe.
Systemy plikowe dysków twardych
Często bardzo ważnym czynnikiem, jaki musimy założyć o naszym dysku jest system obsługi plików. Od tego będzie zależeć przede wszystkim szybkość, z jaką będzie możliwe ustalenie położenia danego pliku, a także jak dużo danych pomieści dysk, jako ze wiąże się to z różną kompresją danych.
Jeden sektor na dysku standardowo ma pojemność 512 bajtów. Nikt nie potrafi sobie dziś wyobrazić, aby jakikolwiek plik, który zostanie stworzony w komputerze, mógłby się zmieścić w tak małej jednostce plikowej. Dlatego każdy plik musi zajmować większą liczbę sektorów dyskowych. System plików jest narzędziem, które umożliwia systemowi operacyjnemu stwierdzenie, jak dużo sektorów zajmuje plik, gdzie się zaczyna, gdzie kończy, a także czy przypadkiem nie jest rozsiany po całym dysku. Do momentu upowszechnienia się systemu operacyjnego Windows XP, najczęściej stosowanym systemem plików był FAT (File Allocation Table), który opierał się na systemie tablic alokacji plików na dysku.
Starszą wersją systemu FAT był FAT 16. Rozpoznawał on 216 adresów jednostek alokacji plików. Jednostką alokacji jest 512 B. Obecnie nie jest już raczej używany, a wprowadzony był tylko po to, aby starsze, malutkie dyski mogły być używane przez nowsze systemu.
Obecnie wykorzystuje się tablice alokacji o standardzie FAT 32. Obsługuje on partycje o pojemności około ośmiu gigabajtów. Ich jednostka alokacji miała wielkość 4 kB, jednak przy plikach zajmujących już megabajty wpłynęło to raczej na zmniejszenie, niż zwiększenie fragmentacji plików.
Zupełnie nowym systemem alokacji plików jest NTFS (New Technology File System). Został on stworzony specjalnie na potrzeby systemu operacyjnego Windows NT, na którego bazie oparte są obecne systemy Windows XP. System ten jest zdecydowanie szybszy niż FAT 32, poza tym udostępnia sprzętowe wsparcie dla dysków o pojemności powyżej 8 GB, co w dzisiejszych komputerach wyposażonych w kilkusetgigowe dyski jest rzeczą niezbędną.
Awarie dysków twardych
Niestety, jak każda rzecz elektroniczno-mechaniczna dyski twarde są urządzeniami dość zawodnymi. Większość użytkowników dysków twardych statystycznie co najmniej raz powinno zetknąć się z awarią dysku.
Istnieją różne rodzaje awarii dyskowych. Mogą to być awarie mechaniczne, takie jak uszkodzenie głowic, silniczków, pozycjonerów czy układów napędowych i zasilających. Czasem w dysku może wysiąść elektronika, czyli kontroler dysku odpowiedzialny za komunikacje pomiędzy dyskiem a resztą komputera. Najbardziej rozpowszechnionymi typami awarii jest zarysowanie powierzchni nośnika danych, a także działalność wirusów, które mogą uszkodzić dysk w sposób fizyczny lub logiczny. Średnio awaria dysku następuje raz na pięć lat.
Jak było wspomniane, najczęściej uszkodzeniu ulegają powierzchnie talerzy dysku. Często zdarza się, że ochronny lakier, którym pokryta jest warstwa substancji magnetycznej, okazuje się być zbyt małą ochroną dla jej powierzchni. Kiedy dysk pracuje bezawaryjnie, głowice nigdy nie naciskają na powierzchnię dysku na tyle mocno, aby go uszkodzić. Jednak problem polega na innych wydarzeniach związanych z głowicą. Głowica, jak wiemy, jest dociskana do powierzchni dysku przez specjalne sprężyny. Dlatego bardzo niebezpieczne jest, aby dysk w czasie, kiedy pracuje, kiedy przesuwają się głowice, doznał nawet słabego wstrząsu. Sprężystość sprężyn może wówczas przerwać ochronną poduszkę powietrzną i sprawić, że głowica uderzy z impetem w powierzchnię dysku, mocno go rysując. Jeśli na dodatek sprężyna nie zamortyzuje swojego impetu, głowica może odbić się od dysku i uderzyć kilka razy, za każdym razem uszkadzając powierzchnię ochronną. Nawet, jeśli w miejscu uderzenia nie ma danych, które mogłyby ulec uszkodzeniu, powstają mikroskopijne okruszki lakieru ochronnego, które mogą spowodować takie uszkodzenia, jak wymieniany wcześniej kurz, a nawet większe, ponieważ ich krawędzie są na tyle twarde, aby dalej uszkadzać powierzchnię ochronną. Największe straty taka drobinka może spowodować, jeśli jakimś cudem dostanie się pomiędzy głowicę a talerz dysku, przez co może odchylić głowicę do powierzchni dysku, powodując znów kolejny efekt sprężynowania głowicy. Właśnie dlatego może ruszyć lawina uszkodzeń dysków.
Najczęstszym momentem, w którym awarii może ulec powierzchnia dysku, jest czas pomiędzy wyprodukowaniem dysku a jego montażem. Często dyski są przewożone samochodami i ulegają wstrząsom na nierównościach dróg. Około 90 % uszkodzeń powierzchni dysku w czasie jego eksploatowania jest spowodowane właśnie nieodpowiednim transportem tych urządzeń. Nowe dyski posiadają zabezpieczenia przed takimi sytuacjami, dzięki unieruchomieniu głowicy w stanie parkowania czy amortyzację jej drgań w momencie, kiedy już zostanie odchylona od powierzchni dysku. Istnieją specjalne systemy ochrony przed wstrząsami.