Przykladowe pytania na zaliczenie rok temu AR.pdf
(
37 KB
)
Pobierz
Microsoft Word - przykladowe_pytania2.doc
Przykładowe pytania na zaliczenie z Algorytmów rozproszonych i równoległych, 2006/2007
Prosz
ę
nie robi
ć
ci
ą
g/gotowców z odpowiedziami na te pytania – lista ta ma na celu umo
Ŝ
liwienie
zorientowania si
ę
co do szczegółowo
ś
ci zaliczenia. Z do
ś
wiadczenia z poprzednim rokiem mog
ę
powiedzie
ć
,
Ŝ
e warto nauczy
ć
si
ę
o pół oceny "na zapas".
Przykładowe pytania bardziej ogólne: (dla zainteresowanych, powiedzmy, ocen
ą
3.0 i 3.5).
1.
Podaj i krótko omów zalety równoległego odczytu z pliku w porównaniu z odczytem pliku przez jeden
procesor z nast
ę
puj
ą
cym rozesłaniem danych do pozostałych procesorów.
2.
Na czym polega dekompozycja trywialna?
3.
Podaj prawo Amdahla. Jakie s
ą
jego konsekwencje?
4.
Pewien program wykonuje si
ę
na komputerze szeregowym w czasie 2400 godzin. 99% nakładu
obliczeniowego programu mo
Ŝ
na zrównolegli
ć
. Ile czasu b
ę
dzie si
ę
wykonywał ten program na 10
procesorach? Ile na 100 procesorach? Załó
Ŝ
brak narzutów na komunikacj
ę
i doskonałe zbilansowanie
pracy.
5.
Omów ró
Ŝ
nic
ę
mi
ę
dzy komputerami realizuj
ą
cymi architektur
ę
SIMD i MIMD.
6.
Co to jest zakleszczenie?
7.
Zdefiniuj rozproszony system komputerowy.
8.
Omów koncepcj
ę
podziału pracy
master-slave
.
9.
W jaki sposób mo
Ŝ
na sprawdzi
ć
na ilu procesorach wykonywany jest program?
10.
Omów operacj
ę
rozesłania (
broadcast
). Podaj konkretny przykład, w którym miałaby ona zastosowanie.
11.
Omów problem wy
ś
cigów (
race condition
).
12.
Podaj trzy wady mierzenia wydajno
ś
ci komputerów za pomoc
ą
MIPS.
13.
Omów operacj
ę
rozproszenia (
scatter
).
14.
Na czym, w kontek
ś
cie MPI-2, polega współoperatywno
ść
?
15.
Omów dekompozycj
ę
funkcjonaln
ą
.
16.
Przedstaw cechy pami
ę
ci współdzielonej. Jakie s
ą
jej wady, a jakie zalety?
17.
Przedstaw cechy pami
ę
ci rozproszonej. Jakie s
ą
jej wady, a jakie zalety?
18.
Narysuj grafy odpowiadaj
ą
ce czterem wybranym, stosowanym w praktyce topologiom komputerów
równoległych.
19.
Czym, w terminologii programowania równoległego, s
ą
ziarna?
20.
Na czym polega
load balancing
? Jak jest realizowany w ró
Ŝ
nych rodzajach dekompozycji?
21.
Czym, w MPI-2, ró
Ŝ
ni si
ę
komunikacja jednostronna od dwustronnej?
22.
Omów w jaki sposób komputery wektorowe ró
Ŝ
ni
ą
si
ę
od komputerów szeregowych.
Przykładowe pytania bardziej szczegółowe: (dla zainteresowanych, powiedzmy, ocen
ą
4.0 i
wy
Ŝ
sz
ą
).
23.
Scharakteryzuj operacj
ę
redukcji w MPI.
24.
Wyja
ś
nij dlaczego dodawanie zmiennoprzecinkowe nie jest operacj
ą
ł
ą
czn
ą
.
25.
Czym ró
Ŝ
ni si
ę
komunikacja (mi
ę
dzy w
ę
złami obliczeniowymi) ustrukturalizowana od nieustruktura-
lizowanej? Statyczna od dynamicznej?
26.
Czym ró
Ŝ
ni
ą
si
ę
operacje plikowe nieblokuj
ą
ce od blokuj
ą
cych?
27.
Omów koncepcj
ę
widoków stosowan
ą
przy równoległym dost
ę
pie do we/wy w MPI.
28.
Co to jest spójno
ść
sekwencyjna?
29.
W jaki sposób mo
Ŝ
na sprawdzi
ć
ile elementów odczytano z pliku po wykonaniu MPI::File::Read()?
30.
Jakie zało
Ŝ
enie czynione przy wyprowadzeniu prawa Amdahla powoduje,
Ŝ
e prawo to nie jest absolutne?
31.
10 procesorów poł
ą
czonych w topologii pier
ś
cienia przesyła do siebie wiadomo
ś
ci tak,
Ŝ
e ka
Ŝ
dy procesor
wysyła i odbiera wiadomo
ś
ci do i od swoich bezpo
ś
rednich s
ą
siadów. Podaj sposób, który pozwala
unikn
ąć
zakleszczenia w powy
Ŝ
szej sytuacji.
32.
Jakie trudno
ś
ci wi
ąŜą
si
ę
z wykorzystaniem mechanizmu wyj
ą
tków w MPI-2?
33.
Po co potrzebna jest operacja Fence() stosowana w komunikacji jednostronnej?
34.
Na czym polega i kiedy jest stosowana operacja pakowania (MPI::Datatype::Pack()) w MPI?
35.
Scharakteryzuj trudno
ś
ci napotykane przy przesyłaniu obiektów klas za pomoc
ą
wymiany wiadomo
ś
ci.
36.
Opisz krótko jakie kroki nale
Ŝ
y podj
ąć
aby wykona
ć
zdalny zapis do pami
ę
ci (Put()) z w
ę
zła #0 do w
ę
zła
#1, podaj przykład pseudokodu, który taki zapis realizuje.
ś
Prawda to, czy fałsz? (dla wszystkich :) )
37.
W operacji redukcji Reduce() bufor odbiorczy jest zamazywany na ka
Ŝ
dym z procesorów.
38.
Wska
ź
nik pozycji w pliku, który przesuwamy przez MPI::File::Seek() jest niezale
Ŝ
ny dla ka
Ŝ
dego
procesu.
39.
Bufory nadawczy i odbiorczy w operacji redukcji mog
ą
nakłada
ć
si
ę
na siebie.
40.
W programie w C++ wystarczy jako pierwsz
ą
instrukcj
ę
w funkcji main() wykona
ć
MPI::Init()
aby zapewni
ć
,
Ŝ
e
Ŝ
adne operacje we/wy nie zostan
ą
wykonane przed wywołaniem MPI::Init().
41.
Nie jest mo
Ŝ
liwe cofanie wska
ź
nika pozycji w pliku.
42.
Przyspieszenie S(N) programu równoległego mo
Ŝ
e osi
ą
ga
ć
warto
ś
ci wi
ę
ksze od 1.
43.
Mo
Ŝ
liwa jest sytuacja, w której podczas przesyłania jednej wiadomo
ś
ci MPI::Recv() zako
ń
czy si
ę
u odbiorcy, zanim MPI::Send() zako
ń
czy si
ę
u nadawcy.
44.
W systemie z pami
ę
ci
ą
rozproszon
mamy do czynienia ze wspóln
ą
przestrzeni
ą
adresow
ą
.
ą
Plik z chomika:
inf4
Inne pliki z tego folderu:
algorytmy_2_termin.zip
(1403 KB)
AR_TEST_3grupy_OSTR+zaznaczone_odp.rar
(3903 KB)
AR_1Termin_2008_grupaB.rar
(445 KB)
zaliczenieC.zip
(3661 KB)
AR_TEST_3grupy_OSTR.zip
(7847 KB)
Inne foldery tego chomika:
Angielski
Faza
Makroekonomia
MECHANIKA KWANTOWA
OJP
Zgłoś jeśli
naruszono regulamin