Pobierz Dysk twardy - Notatki - Informatyka - Część 1 i więcej Notatki w PDF z Informatyka tylko na Docsity! 1 Spis treści: I. Wstęp...............................................................................................................2 1. Dyski twarde.........................................................................................................2 2. Budowa i działanie................................................................................................3 a) Głowice.......................................................................................................................................5 b) Kodowanie..................................................................................................................................6 c) MZR............................................................................................................................................6 d) PRML..........................................................................................................................................6 e) Zapis magnetyczny.....................................................................................................................7 3. Wydajność............................................................................................................8 4. Parametry..............................................................................................................9 a) Pojemność...................................................................................................................................9 b) Czas dostępu...............................................................................................................................9 c) Liczba talerzy............................................................................................................................10 d) Liczba głowic............................................................................................................................10 e) Transfer wewnętrzny................................................................................................................10 f) Średni czas dostępu...................................................................................................................11 g) Transfer zewnętrzny.................................................................................................................11 h) Liczba obrotów na min.............................................................................................................11 i) Cache........................................................................................................................................11 j) MTBF.......................................................................................................................................11 k) MBR..........................................................................................................................................12 l) Pobór mocy...............................................................................................................................12 m) Interfejs ATA, macierz, IDE, SCSI..........................................................................................13 n) Szybkość obrotowa..................................................................................................................19 o) Szybkość przesyłania danych...................................................................................................19 5. FAT, HPFS, NTFS.............................................................................................20 a) FAT...........................................................................................................................................20 b) HPFS (High Performance File System) – system plików OS/2...............................................21 c) NTFS (NT File System) – Windows NT..................................................................................22 d) Oznaczenia producentów..........................................................................................................23 docsity.com 2 I Wstęp Opis naszej pracy dyplomowej pomoże ci szybko zapoznać się z podstawowymi parametrami dysku twardego oraz umożliwi w bardzo prosty sposób poprawnie skonfigurować i partycjonować „twardziela”. Każda procedura została opisana zatem wykonanie zadania nie powinno sprawić kłopotów. W opisie ćwiczenia znajduje się słowniczek, który w łatwy i prosty sposób zaznajomi ciebie z podstawowymi określeniami dotyczącymi dysku twardego. 1. Dyski twarde. Dyski twarde są niezbędnym elementem wyposażenia każdego PC, przy czym jest to element istotnie wpływający nie tylko na całkowitą wydajność komputera, ale i na komfort jego używania. Zwłaszcza w kontekście coraz to bardziej „rozepchanych” pakietów oprogramowania. Poszczególne krążki dysku twardego pokryte są warstwą ferromagnetyku (dwu-lub trójtlenek żelaza) służącą do zapisu informacji. Krążki te (talerze) pozostają w zwykłych dyskach na stałe w obudowie i tworzą razem z głowicami zapisująco-odczytującymi praktycznie jedną całość. Trudno dzisiaj sobie wyobrazić peceta bez twardego dysku, który „nigdy nie jest za duży”. Nowe programy wymagają coraz szybszych procesorów i modułów pamięci (RAM. Cache). Twardym dyskom poświęca się jakby nieco mniej uwagi, choć mają one nieraz zasadniczy wpływ na ogólną wydajność systemu. Często w praktyce okazuje się, że w seryjnie zmontowanym PC właśnie twardy dysk jest „wąskim gardłem”, hamując nieraz znacznie cały system. Twarde dyski z biegiem lat staja się coraz mniejsze, jeśli chodzi o rozmiary i coraz większe, jeśli chodzi o pojemność. Rozwój technologiczny dysków twardych na przestrzeni ostatnich kilkudziesięciu lat, pod względem dynamiki można porównać chyba tylko z rozwojem układów scalonych. Za pierwszy dysk twardy uznaje się wytworzone przez koncern IBM urządzeni IBM 305 RAMAC (Randmo Access Method of Accounting and Control). Dysk ten „ujrzał” światło dzienne 13 września 1956 roku i mógł pomieścić zawrotną w tamtych czasach ilość danych: ok. 5MB na, bagatela, 50 talerzach o 20-calowej średnicy każdy! Pierwszym dyskiem zastosowanym w komputerze PC, a dokładniej w firmowanych przez IBM komputerach IBM PC/XT, był opracowany przez firmę Seagate 5,25-calowy model ST-412. przy znacznie mniejszych od swojego „przodka” rozmiarach miał aż 10 MB pojemności. Ten pierwszy stosowany w PC dysk już znacznie bardziej przypominał obecnie produkowane modele. Głowice odczytujące i zapisujące dane na talerzach dysku nie dotykały bezpośrednio powierzchni nośnika, czyli podobnie jak w obecnie produkowanych modelach. Oczywiście na początku lat 80. nikt nie słyszał o tak obecnie popularnym w PC interfejsie ATA, a wszystkie parametry wydajnościowe dysku znacznie odbiegały od tego, co udaje się uzyskać, stosując obecnie produkowane modele. Jednak sama idea działania i założenia konstrukcyjne pozostały. Na początku 1980 roku wprowadzono, wraz z rozpowszechnieniem komputerów osobistych, dostępne dla wszystkich dyski o średnicy 5,25 cala. Ich pojemność wynosiła od 5 do 10 MB. Dziś napędy HDD wyposażone są w talerze o średnicy 3,5 cala. Ich pojemność liczona jest w gigabajtach. docsity.com 5 przeliczeniowe parametry, z drugiej zaś – wprowadzenie BIOS-u funkcji obsługi trybu LBA (Logical Block Addressing), uniezależniającego adresowanie danych na dysku od ich fizycznej lokalizacji na nim. a) Głowice Głowice magnetorezystywne : Twardy dysk ze swoimi maleńkimi elementami wykonanymi z dokładnością przy której, zegarmistrzowska precyzja przypomina raczej kowalską robotę to w istocie arcydzieło technologii. Prawdziwym cudem jest jednak głowica. W nowoczesnych konstrukcjach stosuje się tak zwane głowice magnetorezystywne. Gwoli ścisłości powinno się raczej używać określenia „hybrydowe” – do zapisu danych służy elektromagnetyczna głowica cienkowarstwowa (jej mikroskopijna ceweczka ma około 10 zwojów), głowica magnetorezystywna służy do odczytu. Wykorzystuje ona efekt zmiany oporności elektrycznej specjalnego materiału (stop żelaza i niklu) przy zmianie pola magnetycznego i jest o wiele czulsza od głowicy elektromagnetycznej. Pozwala to znacznie zmniejszyć powierzchnię zajmowaną przez każdy bit informacji, a więc – zwiększyć gęstość zapisu. Współczesne dyski charakteryzują się gęstością rzędu 1 gigabita na cal kwadratowy, zaś w laboratoriach IBM (to właśnie w nich stworzono pierwsze głowice magnetorezystywne) osiągnięto w grudniu 1996 roku gęstość 5 gigabitów na cal kwadratowy. Przy tej gęstości na jednym calu długości ścieżki mieści się 240 tysięcy bitów, na jeden cal promienia dysku przypada 21 tysięcy ścieżek, a jeden bit zajmuje powierzchnię 1,2 na 0,1 mikrometra (przekrój ludzkiego włosa zmieściłby około 1000 bitów). Dzięki doskonaleniu technologii GMR (Giant Magnetoresistive Effect) naukowcy przewidują osiągnięcie przed końcem wieku gęstości 10 Gb na cal kwadratowy. Pozycjonowanie głowicy: Kiedyś na potrzeby „nawigacji” zarezerwowana była cała jedna powierzchnia dysku, na której zapisane były znaczniki ścieżek i sektorów dla pozostałych głowic – system taki nazywał się „dedicated servo”. Dzisiejsze napędy wykorzystują technologię „embedded servo” – znaczniki umieszczone są na powierzchniach roboczych i przemieszane z obszarami danych. Wiąże się to co prawda z przydzieleniem elektronice dysku dodatkowych zajęć, pozwala jednak zwiększyć efektywną pojemność urządzenia. W celu uniknięcia błędów odczytu głowica musi znajdować się dokładnie nad środkiem danej ścieżki. Nie jest to wcale łatwe zadanie, gdyż pod wpływem ciepła materiał, z którego wykonane są płyty dysku, może ulec odkształceniom. W odróżnieniu od tradycyjnej techniki Servo, przy której głowica musiała regularnie korzystać ze ścieżki sterującej, aby zoptymalizować swoją pozycję, mechanizm Embedded Servo wykorzystuje informacje sterujące zapisane na każdej ścieżce. Głowice zapisująco – odczytujące mogą więc korzystać z nich przez cały czas, co umożliwia dokładniejsze pozycjonowanie. Technika Embedded Servo działa na podobnej zasadzie, jak automatyczny pilot, który nieprzerwanie dba o utrzymanie właściwego toru lotu. Stosowana dawniej okresowa kalibracja głowicy dysku powodowała natomiast dodatkowe przerwy w transmisji danych.Inteligentne układy sterujące pozwoliły także zmienić sposób przesuwania głowicy nad szukaną ścieżkę – niegdyś służyły do tego stosunkowo powolne i zawodne silniczki krokowe (do dziś używane w stacjach dyskietek zdradzają swą obecność charakterystycznym burczeniem), teraz delikatne jak piórko kolibra ramię głowicy wychylane jest na podobieństwo wskazówki miernika elektrycznego za pomocą cewki, przez którą przepływa prąd o odpowiednio dobranym natężeniu (tzw. voice coil) – dzięki temu średni czas dostępu do danych to dziś 10 lub mniej milisekund. Niektóre firmy stosują technologię „Read on Arrival”, wykorzystującą mechanizm korekcji błędów – pierwsza próba odczytu podejmowana jest jeszcze zanim głowica ustabilizuje się nad żądaną ścieżką; albo próba się powiedzie, albo skutecznie zadziała mechanizm korekcji błędu odczytu, w najgorszym przypadku trzeba będzie ponowić odczyt – nic do stracenia, a można zyskać cenne milisekundy. docsity.com 6 Odległości: Odległość głowicy od nośnika (ok. 2 milionowych części cala), jest o wiele mniejsza od średnicy ludzkiego włosa, przez tak wąską szczelinkę nie przechodzi nawet światło! Aby umożliwić dostęp do poszczególnych ścieżek, zawieszone obrotowo ramię wychyla się na podobieństwo wskazówki miernika, poruszane polem cewki magnetycznej – układ taki, zwany voice coil, zapewnia szybkość ruchu dużo większą od stosowanych w pierwszych konstrukcjach silniczków krokowych. b) Kodowanie Kodowanie danych: Zapis danych binarnych w formie magnetycznej nie jest dokonywany bezpośrednio „bit w bit” – dane przeznaczone do zapisu są kodowane według pewnych algorytmów, których zadaniem jest usprawnienie odczytu, a także zapewnienie większej jednoznaczności zapisu. Kodowanie danych przeznaczonych do zapisu składa się z dwu faz – najpierw do zapisywanych danych dodawane są dane nadmiarowe umożliwiające detekcję i korektę ewentualnych błędów odczytu (CRC – Cyclic Redundancy Code – najprostszy, a zarazem jeden z najefektywniejszych algorytmów wprowadzania danych nadmiarowych dla celów korekcji błędów), następnie zaś wynikowe wartości są przekształcane tak, by uniknąć powtarzania dłuższych ciągów powtarzających się zer czy jedynek. Historycznie pierwszym systemem kodowania danych był MFM, dziś już zupełnie nie stosowany, wyparty następnie przez kodowanie RLL (Run Lenght Limited) stosowane w dyskach sztywnych do niedawna, a wciąż jeszcze używane przy zapisie na dyskietkach. Obecnie powszechnie stosowaną techniką kodowania danych na dysku jest PRML (Partial Response Maximum Likelihood), która zapewnia największą efektywną gęstość zapisu, a także najniższą stopę błędu odczytu danych. Technika PRML wymaga stosowania w układach sterujących dysku specjalizowanych procesorów o dużej mocy, jednak technologie krzemowe są obecnie na tyle tanie, że uzyskiwane dzięki nim zwiększenie gęstości zapisu z nawiązką wyrównuje nieco wyższy koszt wbudowanej w dysk elektroniki. c) MZR MZR – Multiple Zone Recording – zapis wielostrefowy: Nietrudno zauważyć, że w wyniku podziału każdej ścieżki na stałą liczbę sektorów, sektory znajdujące się dalej od osi dysku będą znacznie dłuższe (długość sektorów wewnętrznych jest ograniczona „od dołu” maksymalnym upakowaniem bitów na jednostkę powierzchni). Aby zapobiec ewidentnemu marnotrawstwu, podzielono dysk na kilka stref o określonej liczbie sektorów (od 60 do 120 sektorów na ścieżkę), coraz większej dla stref bliższych obwodowi dysku. Zysk jest ewidentny (o około 25% większa pojemność i wydajność), przy okazji wychodzi na jaw drobne oszustwo: jak to się ma do liczby sektorów na ścieżkę deklarowanej w „Setupie” BIOS? Ano, BIOS mówi swoje, a elektronika dysku po cichu dokonuje przeliczeń... Mało tego, wewnątrz dysku dzieje się jeszcze coś, o czym ani użytkownik, ani system operacyjny nie mają zielonego pojęcia. Chodzi mianowicie o system obsługi błędów. Oczywiście, dane zapisywane na dysku wyposażone są w dodatkowe informacje umożliwiające funkcjonowanie systemu korekcji „w locie” (ECC on the fly, kodowanie Reed-Solomon itd). Oprócz tego jednak na każdej ścieżce zarezerwowana jest pewna liczba sektorów, które w przypadku pojawienia się fizycznych uszkodzeń nośnika „podstawiane” są przez wewnętrzny mikroprocesor napędu zamiast sektorów wadliwych – dzieje się to całkowicie niezauważalnie dla świata zewnętrznego. Notabene, wewnętrzne układy mikroprocesorowe, w które wyposażone są współczesne napędy, mają moc przetwarzania porównywalną z co najmniej z IBM PC/AT. d) PRML PRML (Partial Response Maximum Likelihood): docsity.com 7 Większość napędów jeszcze do niedawna podczas odczytu danych używała techniki zwanej peak detection (wykrywanie wartości ekstremalnych – maksimum siły sygnału). W miarę wzrostu gęstości zapisu rozróżnienie sąsiednich wartości szczytowych sygnału od siebie nawzajem i od tzw. tła stawało się coraz trudniejsze. Problem ten rozwiązywano wstawiając pomiędzy sąsiadujące szczyty („jedynki”) rozdzielające chwile ciszy („zera”). Takie postępowanie sprowadzało się do kodowania zerojedynkowych ciągów za pomocą ciągów bardziej przejrzystych, czyli łatwiej identyfikowalnych, lecz z konieczności dłuższych. To oczywiście obniżało efektywną gęstość zapisu danych, a w konsekwencji także wydajność napędu. Z pomocą przyszła opracowana na potrzeby długodystansowej komunikacji w przestrzeni kosmicznej technologia PRML (Partial Response Maximum Likelihood). Pochodzący z głowicy odczytującej analogowy sygnał jest próbkowany w wielu miejscach, a następnie cyfrowo filtrowany przez wbudowany w elektronikę dysku dedykowany procesor sygnałowy DSP. Uzyskaną w ten sposób próbkę analizuje się algorytmem Viterbi. Sprawdza on wszystkie kombinacje danych, które mogły wygenerować zbliżony ciąg i wybiera tę najbardziej prawdopodobną. Umożliwia to dodatkowe zwiększenie czułości kanału odczytu i istotne zmniejszenie prawdopodobieństwa wystąpienia błędów odczytu. Najlepsze efekty daje połączenie technologii PRML z magnetorezystywną głowicą odczytującą ze względu na dobrą jakość generowanego przez nią sygnału analogowego. Głowica magnetorezystywna (MRH) wykorzystuje inne zjawisko fizyczne niż głowice, zbliżone konstrukcją do stosowanych w zwykłych magnetofonach. Element czytający MRH jest wykonany z substancji zmieniającej oporność w polu magnetycznym, więc namagnesowanie nośnika bezpośrednio rzutuje na natężenie płynącego przez głowicę MR prądu. Istotną zaletą technologii MR jest większa czułość, pozwalająca na radykalne zwiększenie gęstości zapisu, a co za tym idzie – wzrost pojemności napędu przy zachowaniu jego rozmiarów. PRML oznacza także inną metodę kodowania danych na dysku: o ile przejście ze starej metody MFM (Multiple Frequency Modulation) na bardziej zaawansowaną RLL (Run Length Limited) oznaczało wzrost upakowania danych o około 50%, PRML daje tu kolejne 20-40% zysku (różne źródła podają różne wartości). e) Zapis magnetyczny Napęd różni się od innych pamięci (jak np. RAM czy Cache wykonanych przeważnie z półprzewodnikowych obwodów elektrycznych) tym, że składa się z wielu mniej lub bardziej skomplikowanych części mechanicznych. Jedną z konsekwencji tego faktu jest naturalny proces zużywania się napędów, co po dłuższej eksploatacji prowadzi do błędów w zapisie i odczycie, a nawet do całkowitej niesprawności. Inaczej jest w przypadku elektronicznych nośników pamięci, które nie zużywają się w normalnej eksploatacji, tylko w wyniku niewłaściwego obchodzenia się z nimi. Urządzenie składające się z mechanicznych i obracających się części, jakim jest każdy twardy dysk wrażliwe jest na działanie takich czynników zewnętrznych, jak upuszczenie czy wstrząsy w czasie pracy i może w ich wyniku zostać poważnie uszkodzone. Techniki zapisu magnetycznego: Wśród napędów rozróżnia się dwa zasadniczo różne sposoby zapisu, a więc i odczytu informacji: magnetyczny jak w przypadku twardych dysków. W każdym pececie znajduje się specjalny kontroler napędów, które z reguły steruje zarówno napędem dyskietek jak i dyskiem twardym (jednym lub kilkoma). Cyfrowe (zerojedynkowe) informacje przeznaczone do zapisu trafiają do kontrolera. Następnie zamieniane są w impulsy magnetyczne, a dokładniej, zmienia się kierunek przepływu prądu w cewce powodując zmianę bieguna pola magnetycznego, aby mogły być zapisane na magnetycznej powierzchni twardego dysku. Nie wystarczy jednak przy tym zapisywać dane bity jeden po drugim, trzeba dodatkowo zaznaczyć gdzie dany bit się zaczyna, a gdzie kończy. Może się to dziać na kilka różnych sposobów: FM – Frequence Modulation MFM – Modified Frquence Modulation RLL – Run Length Limited ARLL – Advanced Run Length Limited Metoda FM: docsity.com 10 prędkość obrotowa dysku. Typowy średni czas pozycjonowania głowic to 3-6 ms, a pół obrotu dysku, wykonującego np. 7200 obr./min to około 4 ms – razem, dodając jeszcze czas przełączania głowic, uzyskujemy 8-11 ms. Czas dostępu jest szczególnie ważny w obsłudze baz danych, gdzie występuje często bezpośrednie adresowanie danych plikowych. Ale użytkowo najważniejszym z parametrów dysku jest tzw. transfer wewnętrzny, czyli szybkość bezpośredniego odczytu i zapisu danych. Dlaczego najważniejszym? Rozważmy następujący, bardzo uproszczony, przykład: zadanie polegające na odczytaniu 20 plików po 100 kB każdy w przypadku dwu dysków: jednego o średnim czasie dostępu 10 ms i transferze wewnętrznym 2 MB/s, drugiego o czasie dostępu 7,5 ms (o 25% szybciej!) i transferze wewnętrznym 1,8 MB/s (o zaledwie 10%). Pierwszy z dysków jest w stanie wykonać zadanie w czasie 1200 ms, drugi z nich potrzebuje na to samo zadanie 1261 ms, o przeszło 5% więcej. A ponieważ najbardziej eksponowanym z parametrów jest czas dostępu, ten drugi dysk będzie na pewno sporo droższy, pomimo gorszej wydajności. Transfer wewnętrzny jest stosunkowo rzadko podawany, natomiast dla zwiększenia zamieszania, a także w celu oszołomienia klienta wielkimi liczbami, mocno eksponowanym parametrem dysku jest zwykle szybkość interfejsu, której wpływ na rzeczywistą wydajność systemu jest obecnie marginalny. Odwołując się do naszego przykładu - do przetransmitowania 2 MB danych interfejs SCSI-2 o przepustowości 20 MB/s potrzebuje 100 ms, interfejs Ultra ATA-66 zaledwie 33 ms, ale w obu przypadkach czas transmisji przez interfejs i tak zawarty jest w ogólnym czasie operacji i praktycznie nie ma wpływu na końcowy rezultat. Skąd wobec tego potrzeba przyspieszania interfejsów, skoro szybkość transmisji wydaje się nie mieć wpływu na ogólną efektywność? Odpowiedź – transmisja przez interfejs zajmuje szynę PCI, przez którą interfejs współpracuje z jednostką centralną, zmniejszając jej dostępność dla innych ewentualnie wykonywanych procesów. W przypadku bardziej zaawansowanych systemów operacyjnych ma to spory wpływ na ogólną wydajność systemu, ale np. w jednozadaniowym środowisku DOS, a także w trybach „wielozadaniowych”, stosowanych w Windows 95/98, nie ma praktycznie prawie żadnego znaczenia. Czas dostępu oznacza ile jednostek (Ms) potrzebuje dysk na pobranie danych. Czas mierzony jest od momentu wydania przez interfejs polecenia odczytu danych. Wartość średniego czasu dostępu jest sumą średniego czasu wyszukiwania (Average Seek Time, czyli czasu potrzebnego na ustawienie głowicy w odpowiednim miejscu nad talerzem twardego dysku) oraz średniego czasu opóźnienia (Average Latency Time – czasu potrzebnego sektorowi do znalezienia się pod odpowiednia głowicą). Producenci w swoich informacjach o produkcie podają zwykle jedynie średni czas wyszukiwania (Average Seek Time) – wartość ta określa wyłącznie czas potrzebny na ustawienie głowicy nad odpowiednią ścieżką dysku. Stad wartości podawane w opisie dysku są często tak obiecujące. Warto jednak pamiętać, że czas wyszukiwania jest zawsze krótszy od czasu dostępu, z którym nie należy go mylić. Wartość Track-to-Track nie mówi niczego o twardym dysku. Miara ta podaje czas potrzebny na przesunięcie głowicy zapisująco – odczytującej nad sąsiednią ścieżkę. c) Liczba talerzy Liczba talerzy – określa liczbę talerzy danego dysku. Uwaga! Liczba talerzy nie oznacza, że dane zapisywane są zawsze po obu stronach talerza dysku. Informację na ten temat otrzymamy porównując liczbę talerzy z liczbą głowic danego dysku. d) Liczba głowic Liczba głowic – określa, ile głowic zajmuje się odczytem/zapisem danych na talerzach. Liczba ta wskazuje także na to, czy wszystkie talerze są wykorzystywane obustronnie. Parzysta liczba głowic wskazuje na to, że dane mogą być przechowywane na każdej stronie każdego talerza dysku, natomiast nieparzysta – że jedna strona któregoś z talerzy dysku nie jest w ogóle wykorzystywana. e) Transfer wewnętrzny docsity.com 11 Transfer wewnętrzny – parametr ten określa w praktyce rzeczywisty transfer danego dysku. Im wartość ta jest wyższa, tym dany dysk jest szybszy. Jednak o tym, czy w danym komputerze będzie osiągał optimum swoich możliwości decyduje konfiguracja komputera (włączenie trybu DMA itp.). Wewnętrzna szybkość przesyłania danych : Informuje o ilości danych, jaka może zostać na twardym dysku zapisana lub odczytana z dysku w ciągu sekundy. Jest to wartość teoretyczna, niezależna od systemu operacyjnego oraz wszelkich właściwości komputera, określająca wydajność wewnętrzną dysku. Mierzona jest ona dla sektorów znajdujących się miedzy krawędzią płyty, a jej środkiem, jako że w zewnętrznej części płyty znajduje się więcej sektorów aniżeli w części bliższej środka. Jeśli wartość ta nie jest podana w danych technicznych o twardym dysku, można ja obliczyć: liczbę obrotów na sekundę należy pomnożyć przez liczbę sektorów znajdujących się na najbardziej zewnętrznej ścieżce i tak uzyskana wartość pomnożyć przez 512, jako ze tyle bajtów zawiera jeden sektor. Wartości tej nie da się zmierzyć za pomocą testów, gdyż dokonanie pomiarów możliwe jest tylko przy użyciu odpowiednich urządzeń. Przykład: Twardy dysk do komputera do biura i domu powinien charakteryzować się wewnętrzna szybkością przesyłania danych większą od 140 Mb/s. Komputer multimedialny najlepiej wyposażyć w dysk pozwalający na przesyłanie 160 Mb/s, a komputer high-end - w dysk o szybkości 180 lub więcej Mb/s. Niektórzy producenci podczas obliczania wewnętrznej szybkości przesyłania danych, jako dane liczą również dane administracyjne (takie jak numer sektora, nad który głowica ma być przesunięta i suma kontrolna) uzyskując dzięki temu wartość o 12 do 20 procent wyższą. Stad pochodzić może ewentualna różnica miedzy wartością wewnętrznej szybkości przesyłania danych obliczona samodzielnie, a podana przez producenta. f) Średni czas dostępu Średni czas dostępu – parametr ten określa, w jakim czasie (średnio) od otrzymania przez dysk żądania odczytu/zapisu konkretnego obszaru nastąpi rozpoczęcie operacji. Im krótszy jest ten czas, tym dysk może zapewnić większą płynność odtwarzania, co może mieć znaczenie np. podczas nagrywania płyt CD-R/CD- RW, gdzie wymagany jest ciągły dopływ danych. g) Transfer zewnętrzny Transfer zewnętrzny – właśnie ten parametr często jest używany w marketingowych określeniach i notatkach producentów. Tymczasem nie określa on faktycznej szybkości dysku, lecz przepustowość interfejsu. Oczywiście im ten parametr jest wyższy, tym lepiej – warto jednak pamiętać, że dyski o takim samym transferze zewnętrznym mogą w praktyce pracować z różną szybkością. h) Liczba obrotów na min. Liczba obrotów na min. – parametr określający, z jaką szybkością obracają się talerze danego dysku. Im szybkość obrotowa jest wyższa, tym więcej danych może być odczytywanych przez głowice. Pamiętajmy jednak, że ten parametr należy oceniać biorąc pod uwagę także gęstość zapisu. W praktyce jednak przy porównywaniu dysków o podobnej pojemności te z większą szybkością obrotową są zazwyczaj szybsze. i) Cache Cache – pamięć podręczna dysku twardego. Do tej pamięci buforowane są dane odczytywane i zapisywane na dysku. Im tej pamięci jest więcej, tym sprawniejszy jest proces przesyłu danych. j) MTBF docsity.com 12 MTBF – akronim od zwrotu Mean Time Between Failure, co można przetłumaczyć jako średni czas międzyuszkodzeniowy. Parametr ten podawany jest w godzinach. Choć wartości, z jakimi spotkamy się w tej tabeli wyglądają na olbrzymie, to należy pamiętać, że czas ten jest wartością średnią ustaloną na podstawie testów dysków danej serii. Warto wiedzieć, że istnieje niezerowe prawdopodobieństwo, że dany dysk ulegnie uszkodzeniu już w pierwszym roku użytkowania. Średni czas międzyuszkodzeniowy (Mean Time Between Failures) to podstawowy parametr niezawodności wszystkich urządzeń. Oferowany przez większość współczesnych dysków współczynnik MTBF wynoszący 500 000 godzin lub więcej imponuje wielkością, zwłaszcza gdy po przeliczeniu dowiemy się, że pół miliona godzin to około 60 lat ciągłej pracy. Ale czy to naprawdę wysoka niezawodność? Pamiętajmy, że jest to czas „średni”, określony na podstawie analizy statystycznej wyników testów, a dotyczy całej serii danego modelu dysku. Z punktu widzenia indywidualnego użytkownika ze współczynnika MTBF równego 500 000 godzin wynika aż 1,7% prawdopodobieństwa, że w bieżącym roku dysk ulegnie uszkodzeniu. Przy normalnym użytkowaniu komputer pracuje średnio 6 godzin w ciągu doby, zatem prawdopodobieństwo uszkodzenia będzie odpowiednio mniejsze – rzędu 0,5%. Ujmując to w skali masowej, a nie tylko pojedynczego egzemplarza dysku – co dwusetny dysk ulegnie w tym roku uszkodzeniu! Szansa uszkodzenia dysku jest o wiele rzędów wielkości większa od szansy wygranej w Lotto, a jednak spośród grających regularnie w Lotto użytkowników komputerów tylko nieliczni zawracają sobie głowę czymś tak surrealistycznym jak backup danych. Wiara w szczęście czy fascynacja wielkimi liczbami? Dla przeciętnego domowego użytkownika takie prawdopodobieństwo awarii zwykle jest „do przyjęcia”, zwłaszcza jeśli w kieszeni ma trzyletnią gwarancję, a na dysku nie przechowuje unikalnych wartościowych danych. Ostatnio coraz więcej producentów podaje dla niektórych modeli dysków współczynnik MTBF rzędu miliona godzin i więcej. Liczby astronomiczne, ale zapewniające tylko dwukrotne zwiększenie szans użytkownika. Z możliwością uszkodzenia dysku należy się poważnie liczyć, jeśli używamy komputera nie tylko do zabawy, a na dysku przechowujemy wartościowe dane. A nawet w przypadku komputera „rozrywkowego” awaria dysku to poważny kłopot i wiele godzin pracy nad odtworzeniem konfiguracji aplikacji. k) MBR Podczas uruchamiania komputera najpierw odczytywana jest pamięć ROM (właściwie: FlashRom), w której zawarte są parametry BIOS-u. Po zakończeniu tego pierwszego etapu uruchamiania komputera BIOS odczytuje i uruchamia program znajdujący się w pierwszym sektorze pierwszego dysku twardego lub na dyskietce (w zależności od tego, z jakiego nośnika korzystamy uruchamiając system). Ów pierwszy sektor to właśnie Master Boot Record. Na początku tego sektora znajduje się mały program, zaś na końcu – wskaźnik tablicy partycji. Program ten używa informacji o partycji w celu określenia, która partycja z dostępnych jest uruchamialna, a następnie próbuje uruchomić z niej system. l) Pobór mocy Pobór mocy – zrozumienie tego parametru nie powinno sprawiać kłopotu, jednak jeżeli w naszym komputerze mamy stosunkowo słaby zasilacz, to może się okazać, że zakup dysku wymagającego stosunkowo dużo mocy może spowodować na komputerze, i tak już solidnie obsadzonym różnego typu sprzętem, przeciążenie zasilacza docsity.com