Dysk twardy - Notatki - Informatyka - Część 2, Notatki'z Informatyka. Szczecin University of Technology
Norbert_88
Norbert_8827 February 2013

Dysk twardy - Notatki - Informatyka - Część 2, Notatki'z Informatyka. Szczecin University of Technology

PDF (618.7 KB)
12 strona
386Liczba odwiedzin
Opis
Notatki dotyczą budowy i działania dysku twardego, głowicy, kodowania, pojemności, zapisu magnetycznego, wydajności itd.
20punkty
Punkty pobierania niezbędne do pobrania
tego dokumentu
Pobierz dokument
Podgląd3 strony / 12
To jest jedynie podgląd.
Zobacz i pobierz cały dokument.
To jest jedynie podgląd.
Zobacz i pobierz cały dokument.
To jest jedynie podgląd.
Zobacz i pobierz cały dokument.
To jest jedynie podgląd.
Zobacz i pobierz cały dokument.

1

Interfejs:

Na pierwszy rzut oka wydawać by się mogło, że w konstrukcji PC używane są obecnie dwa typy interfejsów dyskowych: Ultra ATA i SCSI. Ale po przejrzeniu kilku katalogów sprzętowych opinia ulega zmianie, a w gąszczu nazw takich jak EIDE, ATAPI, Fast Wide SCSI i temu podobnych może się poczuć zagubiony nawet całkiem obyty fachowiec. Tyle jest standardów – czy nie ma żadnego standardu?

Spróbuję trochę wyprostować kręte ścieżki w dżungli interfejsów dyskowych. Zacznijmy od początku, a na początku, wbrew temu co mówi Pismo, nie było chaosu. W PC był tylko jeden interfejs dyskowy, stworzony przez Seagate i określany jako ST-506/ST-412, od symboli pierwszych dwóch modeli dysków wyprodukowanych przez tę firmę.

Ze względu na niewygodę w posługiwaniu się tak abstrakcyjnym symbolem, żargonowo określano ten interfejs jako MFM lub RLL, od stosowanych w tych dyskach technik kodowania (nb. technika RLL jest stosowana przez niektórych producentów do dziś). Interfejs ten dawno odszedł do lamusa wraz z dyskami o pojemnościach kilkunastu megabajtów, wymagającymi złożonej logiki zewnętrznego sterownika. Jego los podzielił również ESDI (Enhanced Small Device Interface) – pomimo niewątpliwych zalet okazał się zbyt kosztowny w stosunku do swojego konkurenta znanego jako IDE, który stał się pierwszym prawdziwym standardem.

IDE to znaczy ATA :

Konstrukcja komputera PC AT stworzyła możliwość zastosowania 16-bitowego interfejsu pomiędzy systemem a dyskiem oraz przeniesienia funkcji sterownika dysku do jego konstrukcji (dyski MFM-RLL były całkowicie „głupie” – całość ich obsługi obciążała wchodzący w skład jednostki centralnej komputera

docsity.com

2

sterownik). Powstał interfejs znany pod nazwami IDE i ATA, który dał początek rodzinie powszechnie stosowanych obecnie interfejsów dyskowych.

Integrated Drive Electronic (IDE) to określenie techniki realizacji nowego interfejsu, w którym całość logiki sterownika dyskowego przeniesiono do konstrukcji dysku, ATA zaś to AT Attachment – relacja nowego interfejsu do konstrukcji AT. Specyfikacja ATA została skodyfikowana przez ANSI jako oficjalny standard, definiując następujący zakres funkcji interfejsu:

 pojedynczy kanał, dzielony przez dwa dyski, skonfigurowane jako master i slave;  komunikacja w trybach PIO 0, 1 i 2;  komunikacja przez DMA w trybach 0, 1, 2 dla transmisji pojedynczych słów i w trybie 0 dla

transmisji multiword.

Standard ATA sprawdził się bardzo dobrze podbijając rynek, ale rosnące wymagania systemów spowodowały jego rozszerzenie do ATA-2, zaakceptowanego również oficjalnie przez ANSI. Nowe funkcje interfejsu ATA-2 to przede wszystkim:

 szybsze tryby PIO – ATA-2 wspomaga obsługę w trybach PIO 3 i 4;  obsługa multiword DMA w trybach 1 i 2;  rozkazy transmisji blokowych;  tryb LBA (Logical Block Addressing), umożliwiający, przy odpowiednim wsparciu przez BIOS

komputera, przekroczenie systemowych barier pojemności dysku;

 rozszerzenie zakresu identyfikacji dysku przez system.

Wprowadzone przez ATA-2 rozszerzenia podniosły sprawność interfejsu, ale w wyniku ciągłego wzrostu mocy PC i wzrostu objętości użytkowanych danych, konieczne stały się kolejne usprawnienia interfejsu tak, by możliwie niewielkim kosztem dało się uzyskać kolejne zwiększenie sprawności. Zanim to jednak nastąpiło, powstało ATA-3, nie wnoszące żadnych nowych trybów transmisji i przyspieszenia obsługi, a jedynie takie, skądinąd bardzo użyteczne zmiany, jak:

 poprawę pewności transmisji danych po kablu, którego możliwości transmisyjne zostały przy uzyskiwanych szybkościach transmisji wyraźnie przekroczone;

 wprowadzenie obsługi SMART (Self-Monitoring Analysis and Reporting Technology) – techniki zapewniającej znaczne zwiększenie poziomu bezpieczeństwa danych dzięki automatycznej diagnostyce dysku.

Następnym znaczącym krokiem w rozwoju interfejsów z rodziny ATA stał się, stosowany obecnie, nieformalny standard Ultra ATA, umożliwiający transmisję danych multiword w trybie 3 DMA, tzw. DMA- 33. Oczywiście taki tryb pracy musi być wspierany od strony jednostki centralnej przez BIOS i logikę płyty głównej. Ze strony logiki dysku konieczna jest dodatkowa kontrola poprawności danych i korekcja błędów transmisji z powodu wspomnianego już przekroczenia przepustowości typowego kabla.

Wszystkie interfejsy ATA charakteryzują się pełną kompatybilnością zstępującą, tzn. każda wyższa wersja obsługuje również pełny zestaw funkcji wersji niższej, dzięki czemu możemy np. dołączyć dysk Ultra ATA do systemu przystosowanego do ATA-2, oczywiście tracąc możliwość wykorzystania zwiększających efektywność funkcji wyższego standardu.

Dopełnieniem rodziny interfejsów IDE/ATA jest ATAPI(ATA Packet Interface), protokół komunikacyjny, umożliwiający komunikowanie się przez interfejs ATA z urządzeniami, nie będącymi dyskami stałymi – przede wszystkim z czytnikami CD-ROM. Początkowo protokół ten był obsługiwany przez ładowany do pamięci sterownik, później wbudowany w system operacyjny. Obecnie ATAPI jest wspierany również przez większość implementacji BIOS-u, dzięki czemu możliwe jest np. ładowanie systemu operacyjnego z CD-ROM-u. Interfejs - ATA:

docsity.com

3

ATA-1 – (IDE) ATA (AT Attachment): jest formalną nazwą tego co często jest nazywane

oficjalną specyfikacją IDE. Ale IDE (Integrated Drive Electronics) aktualnie oznacza końcówkę interfejsu twardego dysku. ATA to jedno złącze na płycie głównej umożliwające podłączenie maksymalnie dwóch urządzeń master i slave o maksymalnej pojemności 528 MB. Wydajność ATA zależy od trybu transferu danych zwanego PIO (Programed Input/Output). Wszystkie dyski i kontrolery ATA obsługują tryb PIO mode 0 i niektóre obsługują mode 1 i 2. Rodzaj swojego interfejsu można sprawdzić oglądając płytę główną. Płyty z interefsjem ATA mają tylko jedno złącze ATA (nie można podłączyć drugiej taśmy danych oprócz tej do której podpięty jest twardy dysk). Można oczywiście dokupić specjalną kartę ATA-2 mającą dwa kanały ATA i umożliwiającą podłączenie do czterech urządzeń (np. Promise Technology EłDEMax).

ATA-2 (Enchanced IDE/Fast ATA): na płycie z tym interfejsem znajdują się dwa gniazda szpilkowe (zwykle do jednego z nich jest podpięta taśma łącząca płytę z twardym dyskiem i napędem CD- ROM). Innym sposobem na sprawdzenie interfejsu bez rozkręcania komputera prowadzi poprzez menu konfiguracyjne BIOS-u (zwykle po włączeniu komputera należy wcisnąć klaiwsz DEL/ ESC lub CTRL+SHIFT+F1). Wybierz opcję HDD Autodetect. Komputer zacznie rozpoznawać dyski znajdujące się w systemie. Jeżeli na ekranie pokażą się cztery pozycje (nawet puste) to mamy już pewność, że kontroler dysków w kompurterze to ATA-2 lub wyższy. ATA-2 akceptuje dyski większe niż 528 MB lecz mniejsze niż 8.1 GB. Standard ten umożliwia podłączenie maksymalnie dwóch urządzeń (2 x master, 2 x slave) do dwóch kanałów kontrolera (primary i secondary). Zawsze należy podłączać szybkie dyski jako master do kanału primary, natomiest wolniejsze (napędy CD-ROM, stare twarde dyski PIO-2 lub PIO-3) jako master i slave do kanału secondary kontrolera. Taki sposób podłączenia jest szczególnie ważny w systemach 486 i wczesnych systemach Pentium, gdyż kanał EIDE primary ma bezpośrednie połączenie z magistralą PCI, natomiast kanał secondary jest połączony z dużo wolniejszą magistralą ISA.

ATA-3 (Fast ATA): ta wersja ATA akceptuje dyski pracujące w trybie PIO-4 (znanym także jako „bezprzerwowym”) zapewniającym transfer danych z prędkością 16,7 MB/s.

ATA-4 (Ultra ATA / Ultra DMA / Ultra DMA-33): standard podwaja maksymalny transfer trybu PIO-4 do 33 MB/s. Tryb ten zawiera technologię bus mastering używającego kanału DMA w celu zmniejszenia obciążenia procesora.

Ostatnio najwięksi producenci dysków i komputerów zaanonsowali jeszcze szybszy standard Ultra DMA-66 i 100, według którego dane mogą być przesyłane z prędkością do 66 MB/s.

S.C.S.I. (Small Computer Systems Interface):

Zaawansowany technologicznie typ połączenia komputera z urządzeniami zewnętrznymi takimi jak: streamery, CD–ROM-y, dyski twarde, skanery itp. Standard SCSI umożliwia połączenie w łańcuch do jednego kontrolera 7, a w przypadku wersji rozszerzonej WIDE SCSI nawet do 16 urządzeń (łącznie z kontrolerem). Dla porównania standard EIDE obsługuje tylko 4 urządzenia dzięki czemu SCSI jest szczególnie przydatny w przypadku dysków twardych, gdyż umożliwia jednoczesne połączenie więcej niż 4 takich urządzeń a każdy z nich może mieć pojemność nawet do 50 GB. SCSI oferuje również szybszy transfer danych między urządzeniami, dochodzący do 80 MB/s (EIDE - 66 MB/s).

Standard SCSI jak i wykorzystujące go urządzenia używane są głównie w komputerach Macintosch oraz szybkich serwerach sieciowych i urządzeniach archiwizujących. Rzadziej w domowych pecetach gdyż urządzenia komunikujące się za pomocą tego standardu są zwykle dwukrotnie droższe od takich samych ale wykorzystujących inne standardy jak EIDE czy USB.

Ogólnie SCSI składa się z 4 części: kontrolera SCSI montowanego zazwyczaj jako karta rozszerzająca (ISA lub PCI), lub gotowego elementu wbudowanego bezpośrednio do płyty głównej, kabla połączeniowego SCSI, samego urządzenia (np. dysku twardego) i tzw. terminatorów w postaci zworek lub dodatkowych złącz, które umieszczane są na dwóch końcach łańcucha połączonych urządzeń SCSI. Dzięki nim kontroler otrzymuje informację gdzie są ostatnie urządzenia łańcucha przez co może sprawnie obsługiwać przepływ danych między poszczególnymi urządzeniami a komputerem.

docsity.com

4

Standard SCSI od czasu swego powstania uległ kilkakrotnie modyfikacjom przez co możemy mieć

doczynienia z kilkoma różnymi wersjami tego samego standardu. Jest to szczególnie kłopotliwe w przypadku dobierania i łączenia ze sobą urządzeń obsługujących różne wersje SCSI. Oto zestawienie najważniejszych standardów SCSI:

SCSI-I – Leciwy standard wraz z ujednoliconym nieco później Common Command Set (CIS) pracuje na bazie ośmiobitowej magistrali danych i oferuje maksymalną prędkość przesyłania danych około 3 MB/s. Opcjonalny jest synchroniczny tryb pracy i 5 MB/s.

SCSI-II – Oferuje jasno zdefiniowany zestaw poleceń i listę parametrów. Dzięki liście urządzeń uniknięto wiele problemów z napędami CD, MO, wymiennymi dyskami, skanerami itp. Magistrala SCSI-II używa 50 żyłowego kabla SCSI-A i zasadniczo nie jest szybsza niż SCSI-I.

Fast-SCSI – Jest przyszłością standardu. Pozwala na transfer danych do 10 MB/s, co osiągnięto m.in. podnosząc częstotliwość taktowania magistrali.

Wide-SCSI – To 16-bitowa wersja Fast SCSI, Maksymalnie 20 MB /s może być przesyłane synchronicznie za pośrednictwem 68-żyłowego kabla SCSI-B. Dzięki temu, że do adaptera Wide-SCSI na ogół można podłączyć zarówno SCSI-A, jak i SCSI-B, kontroler ten może jednocześnie obsługiwać urządzenia SCSI-II, Fast SCSI oraz Wide - SCSI.

Ultra-SCSI – nazywany również Fast-20-SCSI, stosuje większą prędkość taktowania sygnału przesyłanego zwykłym kablem 50-żyłowym i osiąga wydajność 20 MB/s. Dla urządzeń zewnętrznych wymagany jest specjalny kabel połączeniowy.16-bitowy wariant Ultra-SCSI umożliwia transfer 40 MB/s poprzez kabel SCSI-B nazywany jest Ultra-Wide-SCSI lub Fast-40-SCSI.

Każde z urządzeń SCSI musi mieć przyporządkowany własny adres tzw. ID (od 1 do 15). Dokonuje się tego przełączając odpowiednią zworkę lub pozycję przełącznika (DIP) w urządzeniu SCSI. Zamieszanie w nazwach:

Gdy oficjalnym standardem został interfejs ATA-2, zaczęły pojawiać się „nazwy handlowe” w rodzaju „Fast ATA” czy „Enhanced IDE”. Miały one znaczenie wyłącznie marketingowe, odnosząc się do sprzętu w jakimś stopniu zgodnego z ATA-2, ale dzięki popularności rynkowej firm używających tych określeń zostały potraktowane i masowo rozumiane jako określenia standardów. Zresztą firmy te, ufne w swoją wielkość i popularność, pozwalały sobie na dość daleko posuniętą elastyczność w stosowaniu się do standardów. Lansowany w swoim czasie przez Quantum interfejs „Fast ATA-2” był całkowicie zgodny z ATA-2, nie wyłączając szybkości – słowo fast miało charakter wyłącznie marketingowy. Z kolei „Fast ATA” Seagate to nieco ograniczone ATA-2 (bez obsługi trybów PIO 4 i multiword DMA 2). Ale największego zamieszania narobiło określenie EIDE (Enhanced IDE), stosowane przez Western Digital. EIDE to oprócz wszystkich funkcji ATA-2 także ATAPI i obsługa dwóch kanałów, tj. czterech urządzeń EIDE. Ta ostatnia funkcja co prawda nie ma żadnego odzwierciedlenia w konstrukcji interfejsu i w całości jest obsługiwana przez BIOS i logikę płyty głównej, tym niemniej została ujęta w specyfikacji EIDE. W ten sposób każda współczesna płyta główna jest zgodna z tą częścią specyfikacji Western Digital, nawet jeśli konstruktor płyty nigdy nie słyszał ani o tej firmie, ani o Enhanced IDE.

Kolejnym źródłem zamieszania stał się, obowiązujący obecnie, standard Ultra ATA. „Ultra DMA- 33”, „UDMA” itp. to kolejne marketingowe nazwy, które wprawdzie niekoniecznie odwołują się do standardu, ale dobrze brzmią. Ostatnim marketingowym sloganem jest DMA-66. A jedyną metodą na połapanie się, z jakim dyskiem naprawdę mamy do czynienia, jest odwołanie się do jego specyfikacji technicznej, w której jasno określone są obsługiwane przez jego interfejs tryby PIO i DMA.

Small Computer System Interface (SCSI) to twór bardziej skomplikowany od stosunkowo prostego interfejsu ATA. Podobnie jak ten ostatni, również i urządzenia SCSI mają wbudowane sterowniki, ale podczas gdy ATA jest praktycznie wyłącznie interfejsem pomiędzy dyskiem a jednostką centralną, SCSI stanowi faktyczną szynę systemową, a inteligentne sterowniki urządzeń i bogaty protokół komunikacji sprawiają, że możliwe jest realizowanie przez SCSI wielu funkcji zupełnie niedostępnych dla urządzeń

docsity.com

5

ATA/IDE, jak choćby wymiana danych pomiędzy urządzeniami SCSI bez pośrednictwa jednostki centralnej. W odróżnieniu od ATA, SCSI zostało zaprojektowane od razu z myślą o szerokiej gamie urządzeń, aczkolwiek w początkowej fazie rozwoju również było dość silnie zorientowane na obsługę dysków.

Bałagan nazewnictwa wewnątrz standardu SCSI ma charakter nieco inny niż w przypadku ATA – poszczególne nazwy nie są „hasłami marketingowymi”, lecz raczej opisową charakterystyką poszczególnych wariantów szerokiej rodziny substandardów, np. „Fast Wide SCSI” czy „Ultra SCSI”. Ułatwia to nieco poruszanie się wśród odmian, oczywiście pod warunkiem znajomości ich podstawowych definicji. Na szczęście, mimo nieprecyzyjnego nazewnictwa, poszczególne substandardy są wystarczająco dokładnie zdefiniowane, a ponadto podporządkowane zasadzie kompatybilności zstępującej.

Standard SCSI został zatwierdzony przez ANSI w 1986 roku i bardzo szybko się zestarzał jeśli chodzi o wydajność – szyna 8-bitowej szerokości, taktowana zegarem 5 MHz, mogła stanowić dobry system komunikacji 12 lat temu, ale wymagania systemów komputerowych, nawet tych „small”, wzrastały bardzo szybko. Dlatego już w 1990 roku ANSI zatwierdziło SCSI-2 jako zapis standardu o wariantach dających szeroki zakres możliwości rozwoju.

SCSI w swoich rozlicznych wariantach w stosunkowo niewielkim stopniu znalazł zastosowanie w PC, z dwu głównych przyczyn. Pierwszą z nich była relatywnie wysoka cena urządzeń SCSI i dodatkowy koszt sterownika. Drugą przyczyną ograniczonego stosowania tego interfejsu w komputerach standardu PC był fakt, że zarówno oprogramowanie systemowe (DOS a później Windows), jak i architektura samego komputera nie były przystosowane do wykorzystania możliwości SCSI. Tym niemniej interfejs SCSI bywa stosowany w PC, szczególnie w dwu przypadkach: w maszynach wysokiej klasy, w których koszty nie odgrywają krytycznej roli, natomiast oprogramowanie ma szansę wykorzystania funkcji SCSI, oraz, często w uproszczonej wersji, jako interfejs dla urządzeń takich, jak streamery, skanery, dyski magnetooptyczne i inne urządzenia o dużej objętości danych przesyłanych przez interfejs.

Te najpopularniejsze sterowniki SCSI często mają bardzo ograniczony zakres funkcji – zwykle główne ograniczenie polega na tym, że do interfejsu może być podłączone tylko jedno urządzenie nie zaś, jak wynikałoby ze standardu, aż 7. Sterownik taki, zwykle niewspółmiernie tańszy od "pełnoprawnego", obsługuje podzbiór funkcji SCSI-2 wystarczający do wypełnienia przewidzianej dla niego roli, ale tak naprawdę jest jedynie interfejsem – nie obsługuje zarządzania szyną SCSI EIDE i SCSI – podobieństwa i różnice : Mimo że SCSI powstało nieco wcześniej od swojego konkurenta, jest do chwili obecnej wykorzystywany w dyskach twardych stosowanych w bardziej zaawansowanych systemach komputerowych. Czynnikiem decydującym o wyborze EIDE jest cena. Dyski wykorzystujące ten interfejs są znacznie tańsze, ale czy gorsze? Należy przyjrzeć się bliżej technologii na jakiej bazują obydwa interfejsy.

Technologia:

Od strony fizycznego zapisu danych na nośniku magnetycznym pomiędzy dyskami SCSI a EIDE nie ma praktycznie żadnej różnicy. Niższa cena dysków EIDE wynika z zastosowanych w nich mechanizmów oferujących nieznacznie mniejsze osiągi przy przesyłaniu danych. Kolejnym, bardzo istotnym czynnikiem kształtującym cenę tych dysków jest masowość ich produkcji. Jedną z podstawowych zasad ekonomii jest to, że przy większej produkcji koszty są niższe. Tak jak EIDE postrzegany jest jako podstawowe rozwiązanie dla biurkowych komputerów PC, tak SCSI uważany jest za standard dla serwerów plików, stacji roboczych i systemów biurkowych klasy wyższej. Historia ewolucji IDE i SCSI pokazuje rosnącą popularność obydwu standardów. W klasie wyższej rosną możliwości SCSI, natomiast na rynku masowym EIDE zastępuje wcześniejsze generacje SCSI o podobnych pojemnościach i wydajnościach.

Dyski coraz szybsze:

Wydajność dysku (zarówno SCSI, jak i EIDE) jest określana głównie przez czynniki mające charakter mechaniczny. Są to: czas pozycjonowania mechanizmu głowicy oraz szybkość obrotowa napędu. Pozycjonowanie określa jak szybko głowica odczytująca dane jest w stanie znaleźć się nad właściwą ścieżką,

docsity.com

6

zaś im większa szybkość obrotowa, tym prędzej dany sektor na tejże ścieżce znajdzie się pod głowicą. Niestety, stałe zwiększanie szybkości obrotowej i zmniejszanie czasu pozycjonowania wymaga zastosowania coraz droższych i wytrzymalszych materiałów.

Kiedy S.C.S.I jest wydajniejsze:

W systemach komputerowych posiadających jeden dysk twardy, zakup dysku SCSI jest inwestycją nieco chybioną. Podobna sytuacja zachodzi w przypadku starszych systemów operacyjnych (DOS, wczesne wersje Windows), które nie mają wielozadaniowości. Prawdziwy zysk wydajności wynikający z użycia dysków SCSI będzie widoczny w systemach wielozadaniowych zaopatrzonych w wiele nośników pamięci masowej. EIDE to zasadniczo środowisko jednozadaniowe. Nawet przy zastosowaniu zarządzania magistralą (bus mastering) i funkcjach Ultra DMA, system musi poczekać na wykonanie polecenia przez napęd, tak więc przy posiadaniu wielu dysków EIDE podczas komunikacji komputera z jednym z nich inne czekają dopóki zajęty w danej chwili napęd zakończy swoje zadania. SCSI jest interfejsem inteligentnie zarządzającym zasobami.

Główną jego zaletą jest ustawianie zadań dla dysków w kolejkę. Dysk SCSI po otrzymaniu od systemu zadania odłącza się od interfejsu wykonując przydzielone mu zlecenia, a w tym czasie pozostałe dyski mogą komunikować się z systemem. Ponadto kolejkowanie zadań pozwala na optymalny odczyt danych z każdego dysku. Polega to na tym, że zadania dla każdego dysku są ustawiane nie w kolejności ich otrzymywania, lecz tak, aby droga głowicy danego dysku odczytująca potrzebne w danym momencie dane była jak najkrótsza, co znacznie skraca czas odczytu i oszczędza mechanikę napędu. Macierz :

Macierz dyskowa, to zestaw zwykle 3 – 5 dysków widzianych jako jedno urządzenie logiczne, zapewniający redundancję danych wystarczającą do zabezpieczenia ciągłości pracy systemu w wypadku awarii jednego z dysków. Nie jest to może definicja specjalnie ścisła, ale zupełnie wystarczająca w przypadku najczęściej spotykanych macierzy pracujących w systemie RAID3-RAID5 (zbieżność numerów z liczbą dysków jest zupełnie przypadkowa... poziomy RAID – Redundant Array of Inexpensive Disks – odnoszą się do różnych algorytmów zapewniających nadmiarowość danych i związaną z tym odporność na awarie). Gwoli ścisłości, tzw. dyski lustrzane są najprostszą realizacją macierzy w systemie RAID1.

Realizacje macierzy w świecie serwerów PC (w komputerach końcowych są stosowane raczej rzadko) można podzielić na trzy rodzaje: sprzętowe, programowe i autonomiczne. W pierwszym przypadku,

docsity.com

7

wszystkie funkcje sterowania macierzą, kontrolę rozmieszczenia poszczególnych fragmentów danych i obliczanie odpowiednich sum kontrolnych realizowane są przez „inteligentny”, dedykowany kontroler dyskowy, który również pamięta szczegóły konfiguracji sprzętowej – np. przyporządkowanie poszczególnych dysków do macierzy (przykładem są np. macierze Mylexa, dostępne również jako OEM u nawet najbardziej markowych producentów sprzętu komputerowego). W przypadku macierzy programowych, cała „inteligencja” podsystemu mieści się w driverze właściwym dla danego systemu operacyjnego, podczas gdy sam sterownik może być niemal dowolny (np. „zwykłe” SCSI-2 Adapteca) – w tym systemie macierze realizuje np. Micropolis. Macierze autonomiczne (zwane niekiedy SCSI-TO-SCSI) są realizowane całkowicie zewnętrznie w stosunku do komputera, „inteligencja” jest wbudowana w specjalny moduł sterujący, natomiast całość jest podłączana do zwykłego kontrolera SCSI i widziana jako pojedynczy dysk logiczny.

a) Szybkość obrotowa

Szybkość obrotowa: dysku twardego to parametr często wykorzystywany przez producentów i dystrybutorów w celach marketingowych. Tymczasem pomyślmy, jakie znaczenie ma on dla użytkownika? Sama szybkość obrotowa dysku jeszcze o niczym nie świadczy. Dopiero w połączeniu z gęstością zapisu możemy mówić o użytkowych walorach tego parametru dysku.

Zasada jest stosunkowo prosta. Jeżeli połączymy największą szybkość obrotową z najwyższą gęstością zapisu, otrzymamy najszybszy dysk – a dokładniej: dysk o największym transferze wewnętrznym. O tym, czy dysk taki będzie faktycznie najszybszy w naszym komputerze decydują takie czynniki, jak interfejs pomiędzy dyskiem a płytą oraz przepustowość kontrolera. Warto jednak wiedzieć, że różnice pomiędzy gęstością zapisu dla współczesnych dysków o porównywalnej do siebie pojemności są na tyle małe, że można w pewnym sensie stwierdzić, iż szybkość obrotowa decyduje o szybkości transferu.

Coraz większa pojemność i szybkość obrotowa dysków twardych to jedna strona medalu. Z drugiej mamy przecież do czynienia z konkretnym oprogramowaniem komputera, na którym dany dysk ma pracować. Tutaj trzeba wyraźnie uświadomić sobie możliwe ograniczenia, jakie narzuca używany przez nas system operacyjny czy oprogramowanie BIOS-u komputera.

b) Szybkość przesyłania danych:

Średnia szybkość przesyłania danych: oznacza ilość danych przesyłanych w ciągu sekundy przez twardy dysk. Wartość średnia jest ustalana podczas co najmniej dwóch testów, w jednym z nich odczytywane są wszystkie ścieżki twardego dysku po kolei, a w drugim – według przypadkowej kolejności. Szybkość przesyłania danych zależy również od innych charakterystyk dysku, takich jak wewnętrzna szybkość przesyłania danych, szybkość przesyłania danych przez interfejs oraz średni czas dostępu.

Przykład: Do komputera do biura zalecamy twardy dysk o średniej szybkości przesyłania danych wynoszącej 5 MB/s. Twarde dyski w komputerach do zadań domowych oraz multimedialnych powinny umożliwiać przesyłanie danych z prędkością 6 MB/s, jako że będą one zapewne przesyłać więcej obrazów oraz sekwencji wideo. Komputer high-end może osiągać najwyższą wydajność tylko wówczas, jeśli wyposażymy go w superszybki twardy dysk o szybkości przekraczającej 7, a nawet 10 MB/s. Dysk powinien przesyłać dane z szybkością przynajmniej 5 MB/s.

Producenci, zamiast średniej szybkości przesyłania danych, podają często maksymalna szybkość interfejsu, czyli „Burst-Rate”. Opisy moga brzmieć: „Interface Transfer Rate” (do dysków firmy Hitachi), „Data Transfer Rate to/from Interface” (do dysków firmy Maxtor), czy też „External Transfer Rate” (do dysków firmy Seagate) mają wartości „up to 33 MB/s”. Aby sugerowana szybkość mogła być przez określony dysk osiągana, musi znajdować się również w jego pamięci podręcznej. Tylko wówczas możemy być pewni, że dysk przesyła dane z szybkością określoną przez producenta. Ze uwagi na to, że powyższy warunek jest rzadko spełniany, miara „Burst-Rate” jest wartością, która nie powinniśmy się sugerować podczas wybierania optymalnego dla nas twardego dysku.

docsity.com

8

2. FAT, HPFS, NTFS

a) FAT:

Jednostką objętości zapisu na dysku jest sektor, mieszczący 512 bajtów danych, a wraz z nimi

również dane nadmiarowe zapewniające skuteczną korekcję błędów odczytu. Ale nasze dane rzadko mieszczą się w tak skromnej objętości. Jak zachować ich ciągłość przy podziale na poszczególne sektory? Skąd system operacyjny ma wiedzieć, które sektory wchodzą w skład danego pliku? Każdy z systemów operacyjnych ma własny, specyficzny system opisu danych na dysku, zwany systemem plików. Niektóre, bardziej zaawansowane systemy operacyjne są w stanie posługiwać się równolegle kilkoma systemami plików dyskowych. Najprostszym systemem plików jest, używany przez DOS i Windows, system oparty na tablicy alokacji plików FAT (File Allocation Table). System ten, pierwotnie stworzony na potrzeby zapisu na dyskietkach, dzięki swojej prostocie trafił do obsługi dysków sztywnych w systemach Microsoftu. System FAT początkowo traktował jako jednostkę alokacji danych pojedynczy sektor, w wyniku czego przy 16- bitowej architekturze systemu operacyjnego umożliwiał obsługę dysków o pojemnościach nie przekraczających 32 MB (65536 sektorów).

Obsługę większych pojemności umożliwiło dopiero użycie większych jednostek alokacji, nazywanych klastrami (ang. cluster – pęczek, grono). Przy obsłudze woluminów większych od 32 MB wielkość klastra jest zależna od wielkości woluminu i w przypadku np. dysku o pojemności 1 GB klaster liczy sobie 16 kB, a dysk 2,5 – gigabajtowy wymaga już klastrów o pojemności 64 kB. Każdy zapisany plik to trochę zmarnowanej przestrzeni, średnio połowa pojemności klastra, bo przecież długość plików jest wielkością przypadkową. W przypadku, gdy dysk służy do przechowywania bazy danych, złożonej z kilku plików po kilkaset megabajtów, nie ma to żadnego znaczenia, ale w przypadku kilku tysięcy plików o różnych długościach, jakie znajdują się na dysku typowego użytkownika, może to być kilkanaście megabajtów straconego miejsca. A w dodatku system odczytuje całe klastry – w przypadku potrzeby wczytania liczącego sobie 300 bajtów pliku, np. *.ini, system żąda od dysku odczytu całego klastra. Oprócz straty miejsca jest to również strata czasu!

Dzięki rozmaitym rozszerzeniom i protezom (jak np. VFAT) system FAT dotrwał do chwili, kiedy programiści Microsoftu zdołali stworzyć 32 – bitową tablicę alokacji. Zmiana nie tyle jakościowa, co ilościowa dopiero dysk pojemności większej od 2 GB wymaga stosowania jednostek alokacji większych od sektora, a 32-kilobajtowymi klastrami będziemy się posługiwać dopiero w następnym stuleciu.

O wadach systemu FAT, zwłaszcza w jego microsoftowych realizacjach, można by długo pisać. Oprócz wspomnianych już kłopotów, wywołanych przez zbyt małą liczbę dostępnych jednostek alokacji, poważną wadą systemu FAT jest silna fragmentacja plików pomiędzy wiele klastrów o bardzo różnym fizycznym położeniu na dysku. Pociąga to za sobą konieczność okresowej defragmentacji przy użyciu specjalnych narzędzi programowych, a także powoduje stosunkowo duże prawdopodobieństwo powstawania błędów zapisu, polegających na przypisaniu jednego klastra dwóm plikom (tzw. crosslink), co kończy się utratą danych z jednego lub obu „skrzyżowanych” plików.

docsity.com

9

Typowym błędem, pojawiającym się w systemie FAT, jest również pozostawianie tzw. zgubionych klastrów, tj. jednostek alokacji nie zawierających informacji, ale opisanych jako zajęte. O tym, jak duże jest prawdopodobieństwo tego rodzaju błędów, świadczy fakt wyposażenia DOS-u od samego początku w narzędzie do ich wykrywania i likwidacji (polecenie CHKDSK).

Na potrzeby OS/2 IBM i Microsoft stworzyły wspólnie system plików HPFS (High Performance File System) stosowany początkowo również jako jeden z systemów plików dla Windows NT. Przeznaczony od samego początku do obsługi dużych dysków system używa dość złożonej struktury zapisu danych. Zapisywanych jest również wiele informacji nadmiarowych, umożliwiających łatwe odtworzenie zapisu w przypadku błędów, a także np. informacje statystyczne o użytkowaniu plików, przeznaczone do wykorzystania przez inteligentny, interaktywny system buforowania operacji dyskowych. System jest również wyposażony w mechanizmy ochrony zapisu przed uszkodzeniem, jak np. automatyczne przenoszenie danych z sektorów o niepewnej jakości do dobrych (tzw. HotFix).

Zaletami tego systemu są przede wszystkim szybkość wyszukiwania danych, wysoki stopień ciągłości ich zapisu, a także bardzo duża niezawodność. Główną wadą zaś – stosunkowo długi czas zakładania nowych plików, wynikający z konieczności każdorazowej rekonfiguracji drzewa katalogowego. Niestety, nowe wersje Windows NT (od 4.0) nie obsługują już plików dysków w formacie HPFS pomimo tego, że byłby on wymarzonym rozwiązaniem do obsługi np. dużych, rzadko przebudowywanych baz danych.

Równolegle z udziałem w pracach nad HPFS Microsoft opracował własny zaawansowany system plików – NTFS (New Technology File System) – przeznaczony dla Windows NT. System ten, oparty na 32- bitowych tablicach FAT, ma dość rozbudowany system bezpieczeństwa, a także mechanizmy ograniczające fragmentację plików. Ciekawą jego cechą jest możliwość przypisania plikom atrybutu kompresji, pozwalającego na ich kompresję w trakcie zapisu.

Jak widać, po wycofaniu się z HPFS, stosowane obecnie najpopularniejsze systemy plików są wciąż oparte na systemie FAT. Wszystko wskazuje na to, że ciągły wzrost pojemności dysków sztywnych, a także wzrastające ilości składowanych danych wymuszą jednak opracowanie i upowszechnienie systemu plików o strukturze bardziej odpowiadającej współczesnej strukturze danych.

b) HPFS (High Performance File System) – system plików OS/2:

HPFS został zaprojektowany przez IBM i Microsoft pod koniec lat osiemdziesiątych, dla potrzeb nowoczesnego systemu operacyjnego, realizowanego podówczas wspólnie przez obydwie firmy – OS/2. W przeciwieństwie do FAT – wymyślonego w 1977 r. do obsługi dyskietek – HPFS był od początku przeznaczony od efektywnej obsługi dysków twardych, i to dużych – teoretyczna granica wielkości woluminu (nb. ostatnio dodatkowo podniesiona) już wówczas wynosiła 2199 GB, czyli 2^32 sektorów (á 512 B), będących również jednostką alokacji.

docsity.com

10

Dysk podzielony jest na tzw. pasma po 8 MB (16384 sektory) zawierające bitową mapę zajętości

sektorów w paśmie (32 sektory). Dzięki naprzemiennemu ułożeniu map w kolejnych pasmach tworzone są ciągłe odcinki po 16 MB, rozdzielone mapami dwu kolejnych pasm. Jedno pasmo, położone możliwie blisko geometrycznego środka dysku, zarezerwowane jest do przechowywania opisów katalogów, w tym katalogu głównego – po jego wypełnieniu katalogi mogą być zakładane również w innych miejscach dysku.

Kluczową dla HPFS strukturą danych jest tzw. Fnode, czyli położony możliwie blisko samego pliku rekord opisujący parametry i położenie pliku (lub katalogu). Jeżeli jest on nie wystarczający do opisu położenia lub tzw. atrybutów rozszerzonych, na dysku tworzone są dodatkowe struktury pomocnicze.

Zawartość katalogów jest posortowana, zapisywana w blokach o wielkości 2 KB, tworzących strukturę tzw. sterty (posortowanego, binarnego drzewa zrównoważonego). Znacznie przyspiesza to wyszukiwanie i dostęp do pliku, ale spowalnia tworzenie, kasowanie i zmianę nazwy – wymuszają one reorganizację struktury katalogu. HPFS umożliwia operowanie długimi nazwami (do 256 znaków), kompletem dat (utworzenia, ostatniej modyfikacji i ostatniego dostępu), prawami dostępu oraz tzw. atrybutami rozszerzonymi, mogącymi przechowywać dowolne informacje wykorzystywane przez system plików lub aplikację – takie jak np. ikona pliku czy położenie okna na ekranie. Gromadzone są też informacje statystyczne pozwalające na zoptymalizowanie pracy cache'a dyskowego.

W przeciwieństwie do FAT, HPFS definiuje nie tylko ułożenie danych na dysku, ale także sposób korzystania z niego – wbudowany cache, mechanizmy minimalizowania fragmentacji itp. Zdefiniowane są też mechanizmy ochrony przed uszkodzeniem: weryfikacja zapisu, hotfix (przenoszenie „na gorąco” zawartości uszkodzonych sektorów do obszaru rezerwowego), wbudowany CHKDSK, automatyczna kontrola struktury dysku w przypadku wykrycia nieprawidłowego zakończenia pracy systemu.

Specjalne identyfikatory kluczowych wewnętrznych struktur danych oraz dublowanie niektórych informacji w różnych strukturach (np. początkowych fragmentów nazw plików w katalogu i Fnode) umożliwiają natomiast automatyczne odtworzenie struktury dysku nawet w przypadkach ciężkich awarii.

c) NTFS (NT File System) – Windows NT:

Ten system plików należy do podstawowych składników bezpieczeństwa Windows NT. Partycja NTFS rozpoczyna się klasycznym sektorem inicjującym. Nie jest to, jakby sugerowała nazwa, pojedynczy sektor, ale może być to nawet 16 pierwszych sektorów (zależnie od potrzeb systemu).

Po sektorze inicjującym występuje tzw. nadrzędna tabela plików (MFT – Master File Table), czyli po prostu indeks plików systemowych (ich nazwy zaczynają się od znaku "$"). W aktualnej wersji systemu NT na pliki systemowe wymienione w MFT składają się:

 kopia MFT;  plik logów;  informacje o wolumenie (w tym etykieta wolumenu i numer wersji NTFS);  tablica definicji atrybutów (nazwy, numery identyfikacyjne, objaśnienia);  katalog główny;  mapa bitowa klastrów (opis zajętości partycji);  kopia boot sektora partycji;  tabela uszkodzonych klastrów;  tabela konwersji małych liter na duże odpowiedniki Unicode.

Poza tym tabela MFT zawiera 6 wolnych pozycji (zapisów), które mogą zostać wykorzystane w przyszłości. Jak można wywnioskować na podstawie budowy MFT system NTFS podobnie jak FAT opiera się na klastrach. Jednak rozmiar klastra ustalamy tutaj dość swobodnie – od 0,5 KB do 64 KB.

W podanym przy FAT przykładzie (partycja 2 GB) domyślny rozmiar klastra wynosi 4 KB – czyli 8 razy mniej niż w poprzednim przypadku FAT.

docsity.com

11

Oprócz zaawansowanego, elastycznego systemu bezpieczeństwa jedną z bardziej interesujących cech

NTFS jest mechanizm kompresji „w locie”. Jednak w odróżnieniu od rozwiązań typu DriveSpace (dla VFAT) możemy kompresować nie tylko całe wolumeny, ale nawet w standardowo niekompresowanym wolumenie pojedyncze pliki lub katalogi.

To, czy dany element ma być kompresowany ustala się za pomocą klasycznego ustalania atrybutów (w ten sam sposób jak ustala się atrybut „tylko – do – odczytu” czy też „ukryty”). Jedynym ograniczeniem kompresji NTFS jest to, że rozmiar klastra nie może być większy niż 4 KB.

d) Oznaczenia producentów:

Zawierają wiele informacji dotyczących twardego dysku. Po dokładnym przemyśleniu wszystkich za i przeciw zdecydowaliśmy się na zakup określonego modelu dysku – może być tak, że modele oferowane przez sprzedawcę nie mają nazw typu Fireball, Cheetah, czy Hornet, lecz nazwy kodowane. Oto przykłady, w jaki sposób należy je odczytywać:

Seagate – przyklad: ST340810A

 „ST” określa producenta dysku, czyli firmę Seagate.  Pierwsza cyfra określa wysokość dysku i jego format: „1” określa dysk o wysokości 41mm (3,5

cala), „3” – 25 mm (3,5 cala), „4” – 82 mm (5,25 cala), „5” – 19 mm (3,5 cala) i „9” na określenie dysków 2,5-calowych o różnych grubościach.

 Kolejne cyfry informują o pojemności dysku mierzoną w MB.  Jedna lub dwie litery na końcu nazwy określają interfejs: „A” oznacza AT-Bus (EIDE), „N”

oznacza SCSI, „W” – Wide SCSI, a „FC” – Fiber Channel.

Fujitsu – przykład: MPB3021

 Pierwszy znak alfanumeryczny określa rodzaj głowicy odczytująco – zapisującej: „M” – oznacza głowice MR (ang. Magnetoresistive) „GM” – oznacza głowice GMR (ang. giant magnetoresistive).

 Litera druga oznacza rodzaj dysku: „A” – Allegro (czyli dysk SCSI), „H” – Hornet (czyli 2,5 calowy dysk do notebooków), „P” – Picobird (czyli dysk EIDE Ultra-DMA/33).

 Ostatnia z liter określa generacje twardego dysku. Modele nowsze – wyprodukowane po październiku 1998 oznaczone są litera „C”.

 Pierwsza cyfra określa format dysku, gdzie „2” oznacza dysk 2,5 calowy, a „3” – dysk 3,5 calowy.

 Następne trzy cyfry tworzą liczbę, która po podzieleniu przez 10 wskazuje na pojemność dysku mierzona w GB.

Hitachiprzykład: DK238A-32

 Pierwsze dwa znaki („DK”) oznaczają „dysk”. Pierwsza cyfra określa format dysku, gdzie „2” oznacza dysk 2,5-calowy (który Hitachi produkuje wyłącznie z interfejsem EIDE), a „3” – dysk 3,5-calowy (z interfejsem SCSI).

 Druga cyfra oznacza wysokość dysku (dla dysków 2,5 calowych cyfry „1”, „2” i „3” oznaczają odpowiednio: 19,0; 12,7 i 9,5 milimetra; a dla dysków 3,5 calowych „1” oznacza 41mm, a „2” – 25 mm wysokości.)

 Trzecia cyfra określa generacje twardego dysku (obecnie aktualnymi są generacje 7 i 8).  Litera poprzedzająca myślnik jest oznaczeniem wewnętrznym Hitachi.  Liczba po myślniku podaje pojemność dysku – w przypadku dysków o pojemności mniejszej niż

10 GB liczbę ta należy podzielić przez 10.

IBMprzykład: DCAS-34330

docsity.com

12

 Litera „D” oznacza „dysk”.  Następne dwie litery, to oznaczenia wewnętrzne IBM.  Litera poprzedzająca myślnik informuje o rodzaju interfejsu: „A” oznacza AT-Bus (EIDE), a „S”

– SCSI.  Pierwsza cyfra określa format dysku, gdzie „1” oznacza dysk 1-calowy, „2” – dysk 2,5-calowy, a

„3” – dysk 3,5-calowy.  Pozostałe cztery cyfry podają pojemność dysku w MB. Jeśli po myślniku znajduje się nie 5, lecz

6 cyfr, to druga z nich podaje liczbę tysięcy obrotów dysku na minutę. Ostatnie 4 cyfry określają pojemność dysku w MB

Maxtorprzykład: 91360D8.

 Pierwsza cyfra określa 9 (obecnie aktualną) generację twardego dysku.  Kolejne cztery cyfry po przemnożeniu przez 10 określają pojemność dysku w MB. Litera określa

rodzaj protokołu interfejsu, gdzie „D” oznacza interfejs Ultra DMA/33, a „U” – Ultra DMA/66.  Ostatnia cyfra określa liczbę głowic odczytująco – zapisujących.  Informacja dodatkowa: dyski Diamond wykonują 5400 obrotów na minutę, a dyski Diamondmax

– 7200 RPM.

Quantumprzykład: QM36480ST-A

 „QM” to skrót od nazwy firmy (Quantum).  Pierwsza cyfra określa format dysku, gdzie „3” oznacza dysk 3,5-calowy, a „5” – dysk 5,25-

calowy.  Następne cyfry określają pojemność dysku w MB.  Litery następujące po cyfrach to wewnętrzne oznaczenia firmy Quantum, gdzie „AL.” oznacza

Atlas II, „CY” – Bigfoot CY, „EL” – Fireball EL, „PX” – Viking II, „SE” – Fireball SE, „SG” – Pioneer SG, „ST” – Fireball ST, „TD” – Atlas III, „TX” – Bigfoot TX, a „VK” oznacza Viking.

 Ostatnia litera lub litery określają rodzaj interfejsu: „A” oznacza AT-Bus (EIDE), „LW” oznacza Ultra-II-Wide-SCSI, „S” oznacza SCSI, a „SW” – Wide-SCSI.

Sprzedawcy czasem podają nazwy skrócone, takie jak: Quantum Fireball EL 2500. Tego rodzaju nazwa określa jedynie pojemność twardego dysku i jego nazwę.

Western Digital przykłady : WDAC36400L i WDE9100-0007A1

 Pierwsza cyfra informuje z ilu talerzy składa się dysk.  Nastepne określają jego pojemność w MB.  A litera na końcu oznacza pojemność pamięci podręcznej, gdzie H = 128 KB, a L = 256 KB.

 Pierwsza seria cyfr podaje rozmiar dysku w MB.  Pierwsze dwie cyfry po myślniku pozostają do dyspozycji klientów OEM, czyli firm składających

komputery.  Kolejne cyfry określają standard SCSI oraz rozmiar pamięci podręcznej: „03” oznacza interfejs

SCSI z 512 KB pamięci podręcznej, „07” – Wide-SCSI z 512 KB pamięci podręcznej, „16” – Wide-SCSI z 1 MB pamięci podręcznej, a „30” – Ultra-Wide-SCSI z 4MB pamięci podręcznej.

 Ewentualne kolejne znaki alfanumeryczne w przykładzie „A1” są oznaczeniami OEM.

docsity.com

komentarze (0)
Brak komentarzy
Bądź autorem pierwszego komentarza!
To jest jedynie podgląd.
Zobacz i pobierz cały dokument.
Docsity is not optimized for the browser you're using. In order to have a better experience we suggest you to use Internet Explorer 9+, Chrome, Firefox or Safari! Download Google Chrome