AK opracowanie zagadnien na egzamin 2011 - Notatki - Informatyka - Część  4, Notatki'z Informatyka. Opole University
Kowal_86
Kowal_868 March 2013

AK opracowanie zagadnien na egzamin 2011 - Notatki - Informatyka - Część 4, Notatki'z Informatyka. Opole University

PDF (709.1 KB)
12 strona
567Liczba odwiedzin
Opis
Notatki dotyczące tematów z dziedziny informatyki: zagadnienia na egzamin, typy pamięci, hierarchia pamięci w systemie komputerowym, pamięć podręczna.
20punkty
Punkty pobierania niezbędne do pobrania
tego dokumentu
Pobierz dokument
Podgląd3 strony / 12
To jest jedynie podgląd.
Zobacz i pobierz cały dokument.
To jest jedynie podgląd.
Zobacz i pobierz cały dokument.
To jest jedynie podgląd.
Zobacz i pobierz cały dokument.
To jest jedynie podgląd.
Zobacz i pobierz cały dokument.

Zadania szyny:

– Odczyt z pamięci

– Odczyt/Zapis do/z I/O.

– Potwierdzenie przesłania.

– Zgłoszenie zapotrzebowania na magistralę.

– Rezygnacja z magistrali.

– Zgłoszenie przerwania.

– Potwierdzenie przerwania.

Do magistrali podłączonych może być wiele urządzń. Urządzenia te dzielone są na: a) master – inicjujący działanie. b) slave – odpowiadający na żądanie master.

W przypadku podłączenia do magistrali więcej urządzeń typu master musi istnieć sposób arbitrażu pomiędzy nimi – przyznający priorytety i chroniący przed niedopuszczeniem do magistrali urządzeń o niskim priorytecie.

Wyróżniamy arbitraże: a) Szeregowy - wykorzystuje się linie sterujacą przydzielajacą magistrale, przekazywaną od urządzenia o najwyższym priorytecie do tego o najniższym. b) Scentralizowany równoległy - każde urządzenie ma linie sterujacą żądającą dostepu do magistrali, a centralny arbiter wybiera urządzenie otrzymujące dostep. c) Zdecentralizowany oparty na samodzielnym wyborze – jak scentralizowany, ale urządzenia same ustalają które ma jaki priorytet. d) Zdecentralizowany z wykrywaniem kolizji – każde urządzenie może wysłać żądanie do magistrali, a jeśli magistrala wykryje kolizję odmówi i urządzenie będzie musiało wysłać żądanie jeszcze raz.

// Szwed Kamil:

a) Centralną funkcję w systemie pełni procesor, który komunikuje się z pozostałymi komponentami za pomocą trzech magistral:

Magistrala adresowa — służy do przekazywania adresu komórki lub rejestru wejścia wyjścia. Szerokość magistrali adresowej określa obszar adresowy komputera. Ponieważ adres jest liczbą binarną, to dla n linii adresowych obszar ten ma rozmiar 2n .

Magistrala danych — służy do przesyłania danych pomiędzy procesorem a pamięcią lub rejestrami wejścia/wyjścia. Magistrala danych jest dwukierunkowa, tzn. te same linie są używane do zapisu i odczytu informacji.

Magistrala sterująca — umożliwia procesorowi zapis lub odczyt informacji w pamięci lub w rejestrach wejścia/wyjścia.

b) Magistrala ta zawiera cztery linie sterujące: R, W, MEM oraz IO.

– Linia R — steruje odczytem danych do pamięci lub do rejestrów wejścia/wyjścia.

37

docsity.com

– Linia W — steruje zapisem danych z pamięci lub z rejestrów wejścia/wyjścia.

– Linia MEM — stan wysoki na linii MEM wybiera pamięć do operacji zapisu/odczytu. Gdy na linii tej panuje stan niski, pamięć jest odłączona (nieaktywna) i nie reaguje na zmiany sygnałów R i W.

– Linia IO — steruje operacjami zapisu i odczytu portów wejścia/wyjścia. W stanie niskim porty są odłączone od magistrali danych i nie reagują na zmiany sygnałów R i W.

– Liniami wyboru pamięci i rejestrów wejścia/wyjścia steruje układ adresowy w procesorze.

c) Metody arbitrażu magistrali:

W systemach z więcej niż jednym urządzeniem master wymagany jest arbitraż magistrali przyznający priorytet określonym urządzeniom master i gwarantujący niezablokowanie urządzeń o niższym priorytecie.

Arbitraż szeregowy — wykorzystuje sie linie sterująca przydzielająca magistrale, przekazywana od urządzenia o najwyższym priorytecie do tego o najniższym.

Scentralizowany arbitraż równoległy — każde urządzenie ma linie sterująca żądająca dostępu do magistrali, a centralny arbiter wybiera urządzenie otrzymujące dostęp.

Zdecentralizowany arbitraż oparty na samodzielnym wyborze — podobny do arbitrażu scentralizowanego, ale urządzenia same określają, które ma wyższy priorytet.

Zdecentralizowany arbitraż z wykrywaniem kolizji — każde urządzenie może zażądać dostępu do magistrali, a jeżeli magistrala wykryje kolizje, to urządzenie będzie musiało wysłać zadanie jeszcze raz.

4. Typy pamięci, hierarchia pamięci w systemie komputerowym.

// Stolarczyk Ziemowit:

Pamięci możemy dzielić ze względu na: ulotność:

• pamięci ulotne przechowują dane tak długo, jak długo włączone jest ich zasilanie • pamięci nieulotne zachowują dane także po odłączeniu zasilania

• możliwość zapisu i odczytu: • tylko do odczytu (zapis odbywa się w fazie produkcji) • jednokrotnego zapisu • wielokrotnego zapisu, ale ograniczoną liczbę razy, długotrwałego i utrudnionego • wielokrotnego trwającego porównywalnie z odczytem, łatwego i nieograniczoną

liczbę razy • wymagająca kasowania przed zapisem nowych danych

• nośnik: • półprzewodnikowy (układ scalony) • optyczny • magnetyczny • magnetooptyczny • polimerowy • papierowy (np. karta dziurkowana)

• miejsce w konstrukcji komputera: • rejestry procesora • pamięć podręczna, czyli cache

38

docsity.com

• pamięć operacyjna - dostępna bezpośrednio przez procesor, w tym RAM • zewnętrzna - dostępna dla procesora jako urządzenie zewnętrzne, w tym pamięci

USB, masowa (stacje dysków, taśm itp.) • pamięć robocza podzespołów (np. rejestry stanu urządzenia, bufory w kartach

sieciowych, bufor wysyłanego lub odebranego znaku w łączu szeregowym, pamięć obrazu w k. graficznych)

• sposób dostępu do informacji: • pamięć o dostępie swobodnym - po wybraniu adresu dostępna jest dowolna

jednostka pamięci • pamięć o dostępie szeregowym (cyklicznym) (rejestry przesuwne, pamięć taśmowa)

- dostęp do danych wymaga odczytania ich kolejno • pamięć skojarzeniowa(asocjacyjna) - miejsce dostępu do niej jest zależne od

zawartości innej pamięci • pamięć wielopoziomowa - pamięć o dostępie szeregowym w obrębie szeregowym, z

możliwością wyboru sektorów

// Murias Tomasz:

Rejestry Pamięć

podręczna: Pamięć operacyjna

(RAM) Pamięć wtórna

(dyskowa) Archiwa

Czas dostępu: 0,5 - 5 [ns] 20 - 120 [ns] 1 - 15 [ms] -

Pobór mocy: duży mały bardzo mały bardzo mały

Można wyróżnić 3 podstawowe typy pamięci (ze względu na sposób dostępu do przechowywanych danych):

1. Pamięć o dostępie swobodnym ( RAM – Random Acces Memory )

2. Pamięć o dostępie sekwencyjnym ( SAM – Sequentialy Acces Memory )

3. Pamięć adresowana zawartością ( Contents Addressable Memory-CAM)

Dostęp swobodny - niezależnie do którego elementu się odwołujemy, czas dostępu taki sam.

Dostęp sekwencyjny - streamery zapisujące dane.

Czas dostępu - czas upływający do chwili ustabilizowania się informacji wskazujących lokalizację.

W przypadku systemów komputerowych pamięć dzieli się na statyczną i dynamiczną

p. statyczna wykorzystywana jako pamięć podręczna. Poszczególne komórki pamięci są zbudowane w oparciu o przerzutniki typu D

39

docsity.com

Wadą pamięci statycznej jest to, że pamięć ta charakteryzuje się dosyć dużym poborem mocy.

p. dynamiczna Nośnikiem informacji jest ładunek, który jest gromadzony na poszczególnych tranzystorach typu MOSFET. Kondensatory charakteryzują się tym, że z czasem tracą ładunek. Aby tego uniknąć pamięć jest co jakiś czas odświeżana. Jest to mankament mający wpływ na moc obliczeniową całego systemu komputerowego.

5. Pamięć podręczna.

a) idea pamięci podręcznej oraz założenia na których jest oparte funkcjonowanie pamięci podręcznej

Pamięć podręczna (cache) jest to najwyżej umieszczona pamięć w hierarchii pamięci komputera. Pośredniczy między procesorem a pamięcią główną (RAM). Ma ona względnie niedużą pojemność i jest bardzo szybka (najszybsza ze wszystkich pamięci).

Pamięć podręczna jest elementem właściwie wszystkich systemów - współczesny procesor ma 2 albo 3 poziomy pamięci podręcznej oddzielającej go od pamięci RAM.

Systemy pamięci podręcznej s tak wydajne dzięki lokalności odwołań. Dane, do których odwołanie następuje względnie często, są pamiętane w pamięci przez cały czas. Niektóre systemy pamięci podręcznej umożliwiają wyprzedzanie żądań procesora i wcześniejsze wczytywanie danych, które będą dla niego potrzebne po wielokroć oraz umożliwiają informowanie systemu na temat charakteru danych, które będą buforowane.

Część systemu komputerowego zajmująca się buforowaniem danych (pamięć podręczna) powinna charakteryzować się następującymi właściwościami:

• powinna być jak najbardziej automatyczna • jej działanie nie powinno wpływać na semantykę pozostałych części systemu • powinna w jak największym stopniu poprawiać wydajność systemu w warunkach

rzeczywistej pracy

b) budowa pamięci podręcznej

Ma jeden lub więcej poziomow oznaczanych L1, L2, itd., zazwyczaj:

• L1 cache - przyśpiesza dostęp do bloków pamięci wyższego poziomu (operacyjną lub podręczną kolejnego poziomu). Zawsze najmniejsza.

• L2 cache - bufor pomiędzy RAM-em, a procesorem.

• L3 cache - wykorzystana, gdy L2 nie jest w stanie pomieścić potrzebnych danych.

40

docsity.com

Struktura pamięci podręcznej.

Pamięć podręczna zawiera C wierszy K po słów każdy. Liczba wierszy jest znacząco mniejsza od liczby bloków w pamięci głównej ( CM ). W każdej chwili pewien zespół bloków pamięci głównej zostaje pozostaje w wierszach pamięci podręcznej. Jeśli słowo jest odczytywane, to odpowiedni blok jest przenoszony do wiersza pamięci podręcznej. Żaden wiersz nie może być jednoznacznie i trwale przypisany danemu blokowi, gdyż CM . Stąd każdy wiersz zawiera znacznik określający właśnie zapisany blok (zwykle część adresu pamięci głównej).

Typowa organizacja pamięci podręcznej.

c) parametry opisujące efektywność funkcjonowania pamięci podręcznej

Z punktu widzenia użytkownika dwiema najważniejszymi własościami pamięcia są pojemność i wydajność. Używane są trzy parametry będące miarą wydajności:

czas dostępu – czas niezbędny do zrealizowania operacji odczytu lub zapisu – czas od chwili doprowadzenia adresu do chwili zmagazynowania lub udostępnienia danych (dla pamięci o dostępie swobodnym). W przypadku pamięci o dostępie nieswobodnym czas ten jest

41

docsity.com

czasem potrzebnym na umieszczenie mechanizmu odczytu-zapisu w pożądanym miejscu.

czas cyklu pamięci – pojęci to było pierwotnie sotosowane do pamięcie o dostępie swobodnym. Czas cyklu składa się z czasu dostępu oraz dodatkowego czasu, który musi upłynąć, zanim będzi mógł nastąpić kolejny dostęp. Ten dodatkowy czas może być potrzebny dla zaniku sygnałów przejściowych lub do regeneracji danych, jeśli odczyt jest niszczący.

szybkośc przesłania (transferu). Jest ot szybkość z jaką dane mogą być wprowadzane do jednostki pamięci lub z niej wyprowadzane. W przypadku pamięci o dostępie swobodnym jest ona równa 1/(czas cyklu).

d) obsługa pamięci podręcznej

Linia jest jednostką wymiany danych pomiędzy pamięcią główną, a pamięcią podręczną. Trafienie podczas obsługi, to znalezienie odpowiedniej linii w pamięci podręcznej. Chybienie to nie znalezienie odpowiedniej linii. Podczas obsługi pamięci podręcznej może dojść do:

unieważnienia linii - podczas inicjowania pamięci, przed pierwszym wypełnieniem (ponieważ stan linii jest nieznany) lub podczas modyfikacji linii w pamięci głównej (kopia w pamięci podręcznej przestaje być kopią);

wypełnienia linii – najczęściej na skutek chybienia podczas odczytu, może być wykonywane jako obsługa wyjątku, zwykle wykonywane w trybie szybkiej transmisji blokowej;

odczyt danych z linii – trafienie podczas odczytu, nie wymaga podejmowania dodatkowych czynności; chybienie powoduje uruchomienie procedury wypełniania linii

zapis danych do linii – zapis skrośny (jednoczesny), modyfikujący również kopię wyższego poziomu (write trought, WT), zwykle realizowany jako aktualizacja wszystkich kopii poziomów wyższych; zapis lokalny (zwrotny), ograniczony do kopii lokalnej, i opóźniony zapis do linii wyższego poziomu podczas usuwania linii lokalnej (write back, WB); zapis bezpośredni (omijający) do pamięci głównej (write aside), z jednoczesnym unieważnieniem linii trafionej.

IV ARCHITEKTURY RÓWNOLEGŁE 1. Cel konstrukcji komputera o architekturze równoległej, typy problemów

rozwiązywanych z zastosowaniem komputerów: pojęcie problemu wielkiej skali, pojecie klasy trudności problemu (złożoności obliczeniowej problemu).

Fizyczne ograniczenia powodujące niemożność zwiększenia częstotliwości taktowania procesorów, a co za tym idzie wzrostu mocy obliczeniowej doprowadziły do idei architektury równoległej która pozwalałaby rozwiązywać problemy przy użyciu wielu procesorów.

2. Podział architektur równoległych zaproponowany przez Flynna.

Taksonomia Flynna jest klasyfikacją architektur komputerowych, zaproponowaną w latach sześćdziesiątych XX wieku przez Michaela Flynna, opierająca się na liczbie przetwarzanych strumieni danych i strumieni rozkazów.

W taksonomii tej wyróżnia się cztery grupy:

a) SISD (Single Instruction, Single Data) - przetwarzany jeden strumień danych przez jeden wykonywany program - komputery skalarne (sekwencyjne).

b) SIMD (Single Instruction, Multiple Data) - przetwarzanych jest wiele strumieni danych przez jeden wykonywany program - tzw. komputery wektorowe.

42

docsity.com

c) MISD (Multiple Instruction, Single Data) - wiele równolegle wykonywanych programów przetwarza jednocześnie jeden wspólny strumień danych. W zasadzie jedynym zastosowaniem są systemy wykorzystujące redundancję (wielokrotne wykonywanie tych samych obliczeń) do minimalizacji błędów.

d) MIMD (Multiple Instruction, Multiple Data) - równolegle wykonywanych jest wiele programów, z których każdy przetwarza własne strumienie danych - przykładem mogą być komputery wieloprocesorowe, a także klastry i gridy.

3. Architektury MIMD ze wspólną pamięcią operacyjną.

a) architektura systemu z wykorzystaniem przełącznika krzyżowego

Jednym ze sposobów łączenia procesorów z pamięcią współdzieloną jest użycie wielu modułów pamięci, do których procesory są przyłączane za pomocą matrycy przełączników.

Architektura z pamięcią wspólną z wykorzystaniem przełącznika krzyżowego

Zalety:

• Problem konfliktu o magistralę ograniczony do sporadycznych konfliktów o magistralę pamięci.

• Procesory mogą używać modułów pamięci równolegle, co znacznie zwiększa szybkość przesyłania danych.

• Możliwa dynamiczna rekonfiguracja sieci.

Wady:

• Koszt sprzętu

• Liczba przełączników rośnie z kwadratem liczby procesorów (dlatego sieci przełączników krzyżowych używane raczej do łączenia niewielkiej liczby procesorów).

Przełączniki krzyżowe są skomplikowanymi urządzeniami potrafiącymi łączyć magistrale danych, adresową i sterującą procesora z jednym z modułów pamięci. Każdy przełącznik zawiera układ arbitrażowy do rozstrzygania wielu jednoczesnych prób dostępu do tego samego modułu.

b) architektura systemu z pamięcią wieloportową

Pamięć wieloportowa

Użycie pamięci wieloportowej umożliwia bezpośredni, niezależny dostęp każdego procesora i każdego modułu wejścia-wyjścia do modułów pamięci głównej. DO rozwiązywania konfliktów są wymagane układy logiczne związane z pamięcią. Często stosowaną metodą rozwiązywania konfliktów jest stałe przypisanie priorytetu każdemu portowi pamięci. Zwykle interfejs fizyczny i elektryczny każdego portu jest identyczny z tym, jaki występowałby w jednoportowym module pamięci. Potrzeba więc niewiele (lub wcale) modyfikacji procesora lub modułów wejścia-wyjścia, aby dostosować je do pamięci wieloportowej.

Rozwiązanie z pamięcią wieloportową jest bardziej złożone niż magistralowe, wymaga bowiem dodania do systemu pamięci dość dużej liczby układów logicznych. Powinno jednak umożliwić uzyskanie większej wydajności, ponieważ każdy procesor ma własną ścieżkę do

43

docsity.com

każdego modułu pamięci. Inną zaletą rozwiązania wieloportowego jest umożliwienie skonfigurowania części pamięci jako pamięci "własnych" jednego lub wielu procesorów i/lub modułów wejścia-wyjścia. Własność ta pozwala na poprawę zabezpieczenia przed nieupoważnionym dostępem oraz na przechowywanie podprogramów regeneracji w obszarach pamięci, które nie mogą być modyfikowane przez inne procesory.

Do sterowania pamięciami podręcznymi powinna być używana metoda jednoczesnego zapisu, ponieważ nie ma innych środków alarmowania innych procesorów o aktualizacji pamieci.

c) architektura systemu z wspólną magistralą

Topologia magistrali (szynowa) – jedna z topologii fizycznych sieci komputerowych charakteryzująca się tym, że wszystkie elementy sieci są podłączone do jednej magistrali (zazwyczaj jest to kabel koncentryczny). Większość topologii logicznych współpracujących z topologią magistrali wychodzi z użytku (wyjątkiem jest tutaj 10Base-2, który nadal może znaleźć zastosowanie).

Sieć składa się z jednego kabla koncentrycznego (10Base-2, 10Base-5 lub 10Broad36). Poszczególne części sieci (takie jak hosty, serwery) są podłączane do kabla koncentrycznego za pomocą specjalnych trójników (zwanych także łącznikami T) oraz łączy BNC. Na obu końcach kabla powinien znaleźć się opornik (tzw. terminator) o rezystancji równej impedancji falowej wybranego kabla, aby zapobiec odbiciu się impulsu i tym samym zajęciu całego dostępnego łącza. Maksymalna długość segmentu sieci to w przypadku:

• 10Base-2 – 185 m,

• 10Base-5 – 500 m,

• 10Broad36 – 1800 m.

Przesyłanie danych

Sieć o takiej topologii umożliwia tylko jedną transmisję w danym momencie (wyjątkiem jest tutaj 10Broad36, który umożliwia podział kabla na kilka kanałów). Sygnał nadany przez jedną ze stacji jest odbierany przez wszystkie (co bez zastosowania dodatkowych zabezpieczeń umożliwia jego przechwycenie, które opiera się wyłącznie na przestawieniu karty sieciowej w tryb odbierania promiscuous), jednakże tylko stacja, do której pakiet został zaadresowany, interpretuje go. Maksymalna przepustowość łącza w tych trzech podanych standardach sieci Ethernet to 10 Mb/s.

Zalety :

• małe użycie kabla,

• brak dodatkowych urządzeń (koncentratorów, switchów),

• niska cena sieci,

• łatwość instalacji,

• awaria pojedynczego komputera nie powoduje unieruchomienia całej sieci .

Wady :

• trudna lokalizacja usterek,

• tylko jedna możliwa transmisja w danym momencie (wyjątek: 10Broad36),

• potencjalnie duża ilość kolizji,

• awaria głównego kabla powoduje unieruchomienie całej domeny kolizji,

44

docsity.com

• słaba skalowalność,

• niskie bezpieczeństwo.

Według mnie jest to źle co napisał Olo(to na żółto), więc proszę sprawdzcie i zostawcie odpowiednią wersję

// Szczygieł Michał:

Każdy procesor ma oddzielną lokalną pamięć podręczną do przechowywania rozkazów i danych. Jedna wspólna magistrala jest używana przez procesory P1 , P2 ... Pn do uzyskania dostępu do pamięci.

Jeśli procesor chce uzyskać dostęp do pamięci, to zanim przejmie kontrolę nad magistralą i zacznie przesyłanie, najpierw musi sprawdzić, czy magistrala jest dostępna. Kiedy jeden z procesorów używa magistrali, pozostałe mogą używać tylko swoich lokalnych pamięci podręcznych i muszą czekać, aż zwolni on magistralę, zanim będą mogły dostać się do wspólnej pamięci. Wspólna magistrala jest więc źródłem konfliktów. Jeśli zgłoszonych jest jednocześnie kilka żądań do magistrali, w tym żądanie operacji wejścia-wyjścia zlecone przez sterownik urządzeń zewnętrznych, to musi istnieć jakaś forma arbitrażu, w wyniku którego zapadnie decyzja o tym, który procesor może kontynuować pracę, a które muszą zaczekać. Może to być zrobione przez przypisanie każdemu z procesorów różnych priorytetów przy użyciu urządzenia zwanego arbitrem magistrali.

Jednym z głównych problemów przy dzieleniu wspólnej magistrali jest jej nasycenie, które powstaje, kiedy dołączonych jest zbyt wiele procesorów. W takich warunkach procesory, zamiast wykonywać rozkazy, większość czasu oczekują, aż będą zarządzać magistralą. To wąskie gardło jest częściowo likwidowane przez wyposażenie każdego procesora w lokalną pamięć podręczną, ale niestety wprowadza dodatkowy problem ze zgodnością wielu pamięci podręcznych.

Przy wielu pamięciach podręcznych w systemie może istnieć kilka kopii tych samych danych. Jeśli jeden procesor uaktualnia pamięć podręczną, wykonując np. operację zapisu przez to w pozostałych lokalnych buforach, które zawierają ten sam blok, pozostawione są „nieświeże dane". W celu zapobiegania tego rodzaju zakłóceniom programu konieczna jest jakaś forma dynamicznego sprawdzania zgodności, prowadząca do unieważnienia takich pozycji w pamięciach podręcznych i być może uaktualnienia ich danymi „poprawnymi". Jednym z typowych sposobów osiągnięcia tego jest użycie protokołu zgodności zwanego podglądaniem (ang. snooping).

Przy podglądaniu wszystkie sterowniki pamięci podręcznych monitorują (podglądają) magistralę, aby stwierdzić, czy mają kopię tego samego bloku. Kiedy używany jest protokół zapisów z unieważnieniem (ang. write invalidate protocol), wtedy procesor chcący uaktualnić swoją lokalną pamięć podręczną wysyła najpierw sygnał unieważniający na magistralę. Wszystkie sterowniki otrzymują ten sygnał i sprawdzają, czy mają kopię tego samego bloku. Jeśli tak, to unieważniają swoją kopię bloku, ustawiając bit aktualności w wierszu pamięci podręcznej. Alternatywnym protokołem podglądania jest zapis z aktualizacją (ang. write update protocol), w którym procesor chcący zaktualizować swoją pamięć podręczną rozgłasza nowe dane na magistrali, co umożliwia uaktualnianie, a nie unieważnianie zawartości pozycji w innych pamięciach podręcznych.

W czasie czytania procesor sprawdza swoją lokalną pamięć podręczną w zwykły sposób. Jeśli ma miejsce „chybienie", to gdy jest używana metoda zapisu z opóźnieniem, we wszystkich innych

45

docsity.com

pamięciach podręcznych trzeba sprawdzić, czy nie ma w nich żądanych danych. Jeśli są, to muszą być dostarczone do żądającego procesora. Jeśli nie ma, to muszą być pobrane z pamięci.

d) problem skalowania systemów z wspólna pamięcią typu MIMD

// Do uzupełnienia

4. Architektury MIMD z rozproszoną pamięcią operacyjną.

a) budowa transputera

• Transputer – mikrokomputer w jednym układzie scalonym. Zaprojektowany specjalnie do obliczeń równoległych (szybka komunikacja i łatwość połączenia innymi transputerami). Wraz z transputerem opracowany został język programowania równoległego OCCAM.

• W skład transputera wchodzi procesor typu RISC, wewnętrzna pamięć RAM oraz łącze pamięci zewnętrznej, która umożliwia adresowanie w przestrzeni 4 GB. Do komunikacji z innymi transputerami wykorzystywane są cztery kanały DMA.

• Pierwszym modelem transputera był T-414 z 1985. Zawierał on 32-bitowy procesor oraz 2 kB pamięci RAM. Jego następcą był T-800, w skład którego wchodziła także jednostka zmiennoprzecinkowa. W 1994 powstał model T-9000 wyposażony w 16 kB pamięci, 64- bitową jednostkę zmiennopozycyjną oraz kanały o przepustowości 100 MB/s.

b) podstawowe topologie połączeń transputerów oraz parametry opisujące daną strukturę

Z wykładu:

Potok: Tabela 2D: Całkowite połączenie:

wszystko ze wszystkim

Z internetu:

Ring: Hypercube:

Mesh: Torus:

46

docsity.com

// uzupełnić o parametry struktur

c) wpływ struktury architektury równoległej na złożoność obliczeniową algorytmu, pojęcie adekwatności struktury architektury równoległej z strukturą problemu

Klasy algorytmów:

pspace - problem dający się rozwiązać bez ograniczenia na czas przy wielomianowym zapotrzebowaniu na jednostki pamięci;

PH (hierarchia wielomianowa) - problemy o coraz większej złożoności czasowej;

NP - problemy, dla których istnieją wielomianowe algorytmy niedeterministyczne -> funkcja złożoności jest wykładnicza dla deterministycznych maszynowych.

P - problemy dające się rozwiązać w wielomianowym czasie na deterministycznych maszynach sekwencyjnych.

Obliczenia klasy P - problemy dużej skali:

• większość problemów dużej skali;

• aplikacyjny charakter;

• w fizyce, sztucznej inteligencji, zagadnieniach militarnych;

• dane zorganizowane w macierze lub prae // prae?

• przyczyniły się do utworzenia koncepcji pozwalających na szybkie przetwarzanie problemów dużej skali:

◦ procesora wektorowego,

◦ procesora wektorowego z przetwarzaniem potokowym,

◦ wektora procesorów wektorowych;

Obliczenia klasy NP:

Dla tej klasy problemów, koncepcje systemów równoległych stały się adekwatnymi modelami obliczeniowymi dla tej grupy problemów.

Adekwatność ta polega na zgodności między strukturą problemów a strukturą połączeń w systemach równoległych.

Założenia dot. architektur grafopodobnych:

I postulat regularnośi struktury grafu - wyodrębnienie podgrafu, który można replikować. Ułatwia to rozwiązywanie kwestii dopasowania postaci algorytmu do systemu.

II postulat (stopień wierzchołka, długość drogi):

◦ maksymalny stopień D1 jak największy,

◦ maksymalna droga D2 jak najkrótsza;

Stopień wierzchołka D1 określa maksymalną ilość procesorów sąsiednich danemu. W praktyce powinno się dążyć do minimalizacji D1 ze względu na koszty interfejsu.

Jeśli graf jest nieregularny (wierzchołki mają różne stopnie), wymóg modularności narzuca stosowanie procesorów zdalnych do obsługi maksymalnej możliwej ilości linii iterfejsu. Z tego powodu drugim postulatem jest stałość oraz minimalna wartość wielkości D1.

Długość drogi D2 określa maksymalą drogę w systemie między dowolną parą

47

docsity.com

procesorów. Wielkość ta definiowana jest jako ilość łączy pośredniczych w przesyłaniu informacji między zadaną parą.

III postulat (brak centralnych wierzchołków):

// prosiłam Marcina Ślósarza o jakieś wytłumaczenie tego fragmentu, // bo to z jego notatek:

Czwartym postulatem jest nieistnienie w grafie modelu wierzchołków centralnych, które wchodzą w skład stosunkowo względem innych wierzchołków, ilości drug grafu.

Można oczekiwać, iż wierzchołki taki mogą uczestniczyć w proporcji ilości transmisji.

5. Architektury współczesnych systemów komputerowych.

a) cc-NUMA, NUMA, UMA, NORMA

UMA (ang. Uniform Memory Access) - architektura komputerowa, służąca do przetwarzania współbieżnego.

Charakteryzuje się tym, że w jej modelu wszystkie procesory dzielą spójną fizyczną pamięć. Czas dostępu do danego miejsca w pamięci jest niezależny zarówno od procesora wykonującego żądanie jak i od modułu pamięci zawierającego dane.

Urządzenia peryferyjne są podobnie dzielone.

W modelu UMA każdy procesor może mieć prywatną pamięć podręczną.

Model UMA jest dobrze przystosowany do aplikacji ogólnego użytku oraz dzielenia czasu dla wielu użytkowników. Zastosowanie może zwiększyć szybkość wykonania pojedynczego dużego programu w aplikacjach o krytycznym znaczeniu czasu.

Model UMA jest architekturą komputerową, w której procesory graficzne są wbudowane w płytę główną, a część głównej pamięci komputera jest wydzielona na pamięć graficzną (integracja GPU).

Przeciwieństwem modelu UMA jest model NUMA (ang. Non-Uniform Memory Access).

NUMA (ang. Non-Uniform Memory Access) – architektura komputerowa, służąca do przetwarzania współbieżnego.

Architektura NUMA charakteryzuje się tym, że udostępnia użytkownikowi spójną logicznie przestrzeń adresową, chociaż pamięć jest fizycznie podzielona. Komputery zbudowane w tej architekturze posiadają wiele procesorów.

Niejednorodność w dostępie do pamięci polega na tym, że dany procesor szybciej uzyskuje dostęp do swojej lokalnej pamięci, niż do pamięci pozostałych procesorów lub pamięci współdzielonej.

CC-NUMA (ang. Cache Coherent Non-Uniform Memory Access) - architektura komputerowa, charakteryzująca się niejednorodnym dostępem do pamięci oraz spójną pamięcią podręczną.

Maszyny oparte na CC-NUMA udostępniają użytkownikowi spójną logicznie przestrzeń adresową pomimo fizycznego podziału pamięci.

Niejednorodność w dostępie do pamięci oznacza, że procesor uzyskuje szybciej dostęp do pamięci swojej niż do innych. W wieloprocesorach typu NUMA istnieje pojedyncza wirtualna przestrzeń adresowa widoczna przez wszystkie procesory. Wartość zapisana przez dowolny procesor jest natychmiastowo widoczna dla wszystkich pozostałych, dlatego też następna operacja odczytu z tej komórki pamięci przez dowolny procesor poda właśnie tą wartość.

48

docsity.com

komentarze (0)
Brak komentarzy
Bądź autorem pierwszego komentarza!
To jest jedynie podgląd.
Zobacz i pobierz cały dokument.
Docsity is not optimized for the browser you're using. In order to have a better experience we suggest you to use Internet Explorer 9+, Chrome, Firefox or Safari! Download Google Chrome