Αρχιτεκτονική κοινής μνήμης

Σχετικά έγγραφα
MPI: Message Passing Interface

Συστήµατα Παράλληλης Επεξεργασίας. Message Passing Interface (MPI)

MPI: Message Passing Interface

Message Passing Interface (MPI)

Message Passing Interface (MPI)

Message Passing Interface (MPI)

MPI: Message Passing Interface

Message Passing Interface (MPI)

Το Message Passing Interface (MPI) και η υποστήριξή του στο EGEE Grid

Το Message Passing Interface (MPI) και η υποστήριξή του στο EGEE Grid

Το Message Passing Interface (MPI) και η υποστήριξή του στο EGEE Grid. Vangelis Koukis 01-GRNET and HG EKT admin team

Παράλληλος προγραµµατισµός


Συστήματα Παράλληλης & Κατανεμημένης Επεξεργασίας

Συστήματα Παράλληλης & Κατανεμημένης Επεξεργασίας

Συστήματα Παράλληλης & Κατανεμημένης Επεξεργασίας

Συστήματα Παράλληλης & Κατανεμημένης Επεξεργασίας

Συστήματα Παράλληλης & Κατανεμημένης Επεξεργασίας

ύο μηχανισμοί απαιτούνται: 1. Μία μέθοδος για τη δημιουργία διεργασιών

Συστήματα Παράλληλης & Κατανεμημένης Επεξεργασίας

Υπολογισμοί Μεταβίβασης Μηνυμάτων

ΠΤΥΧΙΑΚΗ ΕΡΓΑΣΙΑ. Της φοιτήτριας Αριστέας Χρονοπούλου Αρ. Μητρώου: 01 / Επιβλέπων Καθηγητής Αθανάσιος Μάργαρης

Non-blocking Επικοινωνίεσ και Buffering. Κώςτασ Διαμαντάρασ ΤΕΙ Θεςςαλονίκθσ 2011

Κατανεμημένος και Παράλληλος Προγραμματισμός MPI. MPI Απλές εντολές 03/13/2016. Οδηγίες αποστολής / παραλαβής μηνυμάτων, Υπολογισμός του π (

Εισαγωγή. E-03: Λειτουργικά Συστήµατα ΙΙ 6. Εαρινό Εξάµηνο SUN RPC. Κλήση Αποµακρυσµένων ιαδικασιών (RPC) Σύνδεση: Port Mapper.

Ε-85: Ειδικά Θέµατα Λογισµικού

Επικοινωνία. Message-Passing Interface (MPI) Βασικές Κλήσεις για Sockets. Μοντέλο Μεταβίβασης Μηνυµάτων. Μοντέλα Παράλληλου Υπολογισµού

Συστήματα Παράλληλης & Κατανεμημένης Επεξεργασίας

Συστήματα Παράλληλης και Κατανεμημένης Επεξεργασίας

Επιστημονικοί Υπολογισμοί - Μέρος ΙΙΙ: Παράλληλοι Υπολογισμοί

Διπλωματική Εργασία του φοιτητή του Τμήματος Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών της Πολυτεχνικής Σχολής του Πανεπιστημίου Πατρών

EM 361: Παράλληλοι Υπολογισμοί

Probleme de transmitere în modul standard. MPI - Message Passing Interface. Comunicarea punct la punct

ΕΚΔΟΣΗ 1.0 ΟΚΤΩΒΡΙΟΣ, 2017 ΕΙΣΑΓΩΓΗ ΣΤΑ ΚΑΤΑΝΕΜΗΜΕΝΑ ΣΥΣΤΗΜΑΤΑ ΕΙΣΑΓΩΓΗ ΣΤO MESSAGE PASSING INTERFACE - MPI ΕΠΙΜΕΛΕΙΑ: Β. ΤΣΑΚΑΝΙΚΑΣ, Β.

Συστήματα Παράλληλης και Κατανεμημένης Επεξεργασίας

Κεφάλαιο VIΙΙ Β. Δημακόπουλος

Παράλληλα και Κατανεµηµένα Συστήµατα. Εισαγωγή

Κατανεμημένος και Παράλληλος Προγραμματισμός MPI. Γρήγορος οδηγός αναφοράς 1/4/2017

MPI: Βαςικζσ Εντολζσ Επικοινωνίασ. Κώςτασ Διαμαντάρασ Τμιμα Πλθροφορικισ ΤΕΙ Θεςςαλονίκθσ 2011

Συστήματα Παράλληλης & Κατανεμημένης Επεξεργασίας

Προγραµµατισµός µε ανταλλαγή µηνυµάτων Ι. Εισαγωγή στο MPI. Εφαρµογές Ανεξάρτητου Παραλληλισµού.

ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ Μεταβίβαση μηνυμάτων. Κεφάλαιο 5 (νέο βιβλίο) Κεφάλαιο 8 (παλιές σημειώσεις)

ΑΝΟΧΗ ΣΦΑΛΜΑΤΩΝ ΣΕ ΕΦΑΡΜΟΓΕΣ MPI ΠΟΥ ΑΚΟΛΟΥΘΟΥΝ ΤΟ ΜΟΝΤΕΛΟ MASTER-WORKER Η ΜΕΤΑΠΤΥΧΙΑΚΗ ΕΡΓΑΣΙΑ ΕΞΕΙΔΙΚΕΥΣΗΣ. Υποβάλλεται στην

Συστήματα Παράλληλης & Κατανεμημένης Επεξεργασίας

Κατανεμημένος και Παράλληλος Προγραμματισμός. Εισαγωγή στο MPI. Εγκατάσταση MPICH σε ένα ΗΥ 10/3/2017

2. Στοιχεία Αρχιτεκτονικής Παράλληλων Υπολογιστών... 45

Προγραμματισμός με Μεταβίβαση Μηνυμάτων

Mονόπλευρες επικοινωνίες στο MPI-2

Ανταλλαγι Μθνυμάτων. Κϊςτασ Διαμαντάρασ Τμιμα Πλθροφορικισ ΤΕΙ Θεςςαλονίκθσ

30/4/2012 Συστήματα κατανεμημένης μνήμης και ο προγραμματισμός τους (Ι) Β. Δημακόπουλος

ΕΚΔΟΣΗ 1.1 ΑΠΡΙΛΙΟΣ, 2018 ΕΙΣΑΓΩΓΗ ΣΤΑ ΚΑΤΑΝΕΜΗΜΕΝΑ ΣΥΣΤΗΜΑΤΑ ΤΟ ΠΡΩΤΟΚΟΛΛΟ ECHO ΕΠΙΜΕΛΕΙΑ: Β. ΤΣΑΚΑΝΙΚΑΣ, Β. ΤΑΜΠΑΚΑΣ

Παράλληλος προγραμματισμός: παράλληλες λ υπολογιστικές πλατφόρμες και ανάλυση προγραμμάτων

ΕΚΔΟΣΗ 1.0 ΟΚΤΩΒΡΙΟΣ, 2017 ΕΙΣΑΓΩΓΗ ΣΤΑ ΚΑΤΑΝΕΜΗΜΕΝΑ ΣΥΣΤΗΜΑΤΑ ΤΟ ΠΡΩΤΟΚΟΛΛΟ TARRY ΕΠΙΜΕΛΕΙΑ: Β. ΤΣΑΚΑΝΙΚΑΣ, Β. ΤΑΜΠΑΚΑΣ

Παράλληλος προγραμματισμός: Σχεδίαση και υλοποίηση παράλληλων προγραμμάτων

Minimum Spanning Tree: Prim's Algorithm

Παράλληλος προγραμματισμός: Σχεδίαση και υλοποίηση παράλληλων προγραμμάτων

Τφποι δεδομζνων MPI. Κώςτασ Διαμαντάρασ Τμιμα Πλθροφορικισ ΤΕΙ Θεςςαλονίκθσ

ΕΚΔΟΣΗ 1.1 ΜΑΙΟΣ, 2018 ΕΙΣΑΓΩΓΗ ΣΤΑ ΚΑΤΑΝΕΜΗΜΕΝΑ ΣΥΣΤΗΜΑΤΑ ΑΛΓΟΡΙΘΜΟΣ POLLING ΚΥΜΑΤΙΚΟΣ ΑΛΓΟΡΙΘΜΟΣ ΕΠΙΜΕΛΕΙΑ: Β. ΤΣΑΚΑΝΙΚΑΣ, Β.

EM 361: Παξάιιεινη Υπνινγηζκνί

Network Algorithms and Complexity Παραλληλοποίηση του αλγορίθμου του Prim. Αικατερίνη Κούκιου

Αρχιτεκτονική Υπολογιστών

ΕΚΔΟΣΗ 1.1 ΜΑΙΟΣ, 2018 ΕΙΣΑΓΩΓΗ ΣΤΑ ΚΑΤΑΝΕΜΗΜΕΝΑ ΣΥΣΤΗΜΑΤΑ ΕΚΛΟΓΗ ΑΡΧΗΓΟΥ ΕΠΙΜΕΛΕΙΑ: Β. ΤΣΑΚΑΝΙΚΑΣ, Β. ΤΑΜΠΑΚΑΣ

Συστήματα Παράλληλης και Κατανεμημένης Επεξεργασίας

Παράλληλος προγραμματισμός: Σχεδίαση και υλοποίηση παράλληλων προγραμμάτων

Περίληψη. Υπερυπολογιστές. Υπολογιστικά προβλήµατα. TOP 500 (Ιούνιος 2007) TOP 500 (Ιούνιος 2009) Ε-85: Ειδικά Θέµατα Λογισµικού

Παράλληλη Επεξεργασία

3/5/2012 Συστήματα κατανεμημένης μνήμης και ο προγραμματισμός τους (ΙI) Β. Δημακόπουλος

Τξ Message Passing Interface (MPI) και η σπξρςήοινή ςξσ ρςξ EGEE Grid. Vasileios Karakasis GRNET S.A., ICCS

ΕΚΔΟΣΗ 1.0 ΟΚΤΩΒΡΙΟΣ, 2017 ΕΙΣΑΓΩΓΗ ΣΤΑ ΚΑΤΑΝΕΜΗΜΕΝΑ ΣΥΣΤΗΜΑΤΑ ΚΑΤΑΝΕΜΗΜΕΝΑ ΡΟΛΟΓΙΑ ΕΠΙΜΕΛΕΙΑ: Β. ΤΣΑΚΑΝΙΚΑΣ, Β. ΤΑΜΠΑΚΑΣ

Κατανεμημένος και Παράλληλος Προγραμματισμός

Βιβλιοθήκες Αφηρημένοι τύποι δεδομένων. Προγραμματισμός II 1

Παράλληλη Επεξεργασία

Κατανεμημένος και. Ηλίας Κ. Σάββας Αναπληρωτής Καθηγητής Τμήμα Μηχανικών Πληροφορικής ΤΕ, ΤΕΙ Θεσσαλίας

Ε-85: Ειδικά Θέµατα Λογισµικού

Λύβας Χρήστος Αρχική επιµέλεια Πιτροπάκης Νικόλαος και Υφαντόπουλος Νικόλαος

Υ07 Παράλληλα Συστήματα /5/2016 Προγραμματισμός με μεταβίβαση μηνυμάτων

Δημιουργία & Τερματισμός Διεργασιών. Προγραμματισμός II 1

Εργαστήριο ΔΙΕΡΓΑΣΙΕΣ - ΔΙΑΧΕΙΡΙΣΗ

Αρχιτεκτονική Υπολογιστών

Προγραμματισμός Ι (ΗΥ120)

Παράλληλη Επεξεργασία Κεφάλαιο 1 Γιατί Παράλληλος Προγραμματισμός;

Αρχιτεκτονική Λογισμικού

Διαφορές single-processor αρχιτεκτονικών και SoCs

Δημιουργία & Τερματισμός Διεργασιών. Προγραμματισμός II 1

ΕΚΔΟΣΗ 1.0 ΟΚΤΩΒΡΙΟΣ, 2017 ΕΙΣΑΓΩΓΗ ΣΤΑ ΚΑΤΑΝΕΜΗΜΕΝΑ ΣΥΣΤΗΜΑΤΑ ΓΕΝΙΚΟΙ ΓΡΑΦΟΙ ΣΤΟ MPI ΕΠΙΜΕΛΕΙΑ: Β. ΤΣΑΚΑΝΙΚΑΣ, Β. ΤΑΜΠΑΚΑΣ

Επιμερισμός δεδομένων

Κατανεμημένος και Παράλληλος Προγραμματισμός. Εισαγωγή στο MPI. Εγκατάσταση MPICH σε ένα ΗΥ 6/3/2016

Εισαγωγή στον Προγραμματισμό

Εργαστήριο Λειτουργικών Συστημάτων 8o εξάμηνο, Ροή Υ, ΗΜΜΥ

13.2 Παράλληλος Προγραµµατισµός Γλωσσάρι, Σελ. 1

Λειτουργικά Συστήματα 7ο εξάμηνο, Ακαδημαϊκή περίοδος

Επιστημονικοί Υπολογισμοί - Μέρος ΙΙΙ: Παράλληλοι Υπολογισμοί

Εικονική Μνήμη (Virtual Memory) Προγραμματισμός II 1

Το λειτουργικό σύστημα. Προγραμματισμός II 1

Ατομική Διπλωματική Εργασία ΥΛΟΠΟΙΗΣΗ ΚΑΙ ΠΕΙΡΑΜΑΤΙΚΗ ΑΞΙΟΛΟΓΗΣΗ ΑΠΟΔΟΤΙΚΩΝ ΠΑΡΑΛΛΗΛΩΝ ΑΛΓΟΡΙΘΜΩΝ ΜΕ ΤΟ ΛΟΓΙΣΜΙΚΟ PUBSP. Μαργαρίτα Αντωνάκη

Εικονική Μνήμη (Virtual Memory) Προγραμματισμός II 1

Η πολυνηματική γλώσσα προγραμματισμού Cilk

Περίληψη Φροντιστηρίου. Κατανεμημένα Συστήματα Ι. Το περιβάλλον DAP - Χαρακτηριστικά. Το περιβάλλον DAP Τι είναι.

Συστήματα Παράλληλης και Κατανεμημένης Επεξεργασίας

Διάλεξη 2η: Αλγόριθμοι και Προγράμματα

Transcript:

Αρχιτεκτονική κοινής μνήμης Οι επεξεργαστές έχουν κοινή μνήμη Κάθε επεξεργαστής διαθέτει τοπική ιεραρχία κρυφών μνημών Συνήθως η διασύνδεση γίνεται μέσω διαδρόμου μνήμης (memory bus) Αλλά και πιο εξελιγμένα δίκτυα διασύνδεσης Ομοιόμορφη ή μη-ομοιόμορφη προσπέλαση στη μνήμη (Uniform Memory Access UMA, Non-uniform Memory Access NUMA) Η κοινή μνήμη διευκολύνει τον παράλληλο προγραμματισμό Δύσκολα κλιμακώσιμη αρχιτεκτονική τυπικά μέχρι λίγες δεκάδες κόμβους (δεν κλιμακώνει το δίκτυο διασύνδεσης) 2

Αρχιτεκτονική κατανεμημένης μνήμης Κάθε επεξεργαστής έχει τη δική του τοπική μνήμη και ιεραρχία τοπικών μνημών Διασυνδέεται με τους υπόλοιπους επεξεργαστές μέσω δικτύου διασύνδεσης Η κατανεμημένη μνήμη δυσκολεύει τον προγραμματισμό Η αρχιτεκτονική κλιμακώνει σε χιλιάδες υπολογιστικούς κόμβους 3

Υβριδική αρχιτεκτονική Συνδυάζει τις δύο παραπάνω αρχιτεκτονικές: κόμβοι με αρχιτεκτονική κοινής μνήμης διασυνδέονται με ένα δίκτυο διασύνδεσης σε αρχιτεκτονική κατανεμημένης μνήμης Τυπική αρχιτεκτονική των σύγχρονων συστοιχιώνυπερυπολογιστών 4

Παραδοσιακά προγραμματιστικά μοντέλα Κοινός χώρος διευθύνσεων (shared address space) Οι διεργασίες έχουν πρόσβαση σε κοινό χώρο διευθύνσεων Χρησιμοποιούνται κανονικές εντολές ανάγνωσης / εγγραφής Πιθανόν απαιτείται κάποια αρχικοποίηση του κοινού χώρου διευθύνσεων Οι διευθύνσεις μπορεί να αφορούν: Φυσικά κοινή μνήμη Φυσικά κατανεμημένη μνήμη (απαιτείται στρώμα υλικού ή λογισμικού) Ανταλλαγή μηνυμάτων (message passing) Δεν υπάρχουν κοινά δεδομένα Πρόσβαση σε δεδομένα που κατέχει άλλη διεργασία γίνεται με ρητές κλήσεις σε συναρτήσεις αποστολής / λήψης 5

Ανταλλαγή μηνυμάτων 6

Ανταλλαγή μηνυμάτων 7

Ανταλλαγή μηνυμάτων 8

Ανταλλαγή μηνυμάτων 9

Ανταλλαγή μηνυμάτων 10

Ανταλλαγή μηνυμάτων 11

Αρχιτεκτονικές και Προγραμματιστικά Μοντέλα από την οπτική του προγραμματιστή Αρχιτεκτονική Κοινής μνήμης (shared memory) Προγραμματιστικό μοντέλο 12 Κοινός χώρος διευθύνσεων (shared address space) Ανταλλαγή μηνυμάτων (message-passing) Κατανεμημένης μνήμης (distributed memory) + Ευκολία υλοποίησης + Προγραμματιστική ευκολία + Υψηλή επίδοση + Προγραμματιστική ευκολία - Δυσκολία υλοποίησης - Χαμηλή επίδοση + Ευκολία υλοποίησης + Υψηλή επίδοση - Προγραμματιστική δυσκολία + Ευκολία υλοποίησης + Υψηλή επίδοση - Προγραμματιστική δυσκολία

Τι είναι το MPI; Είναι πρότυπο, όχι συγκεκριμένη υλοποίηση Βιβλιοθήκη ανταλλαγής μηνυμάτων Σχεδίαση σε στρώματα (layers) Σε υψηλό επίπεδο, παρέχει διεπαφή (interface) σε προγραμματιστή Σε χαμηλό επίπεδο, επικοινωνεί με το δίκτυο διασύνδεσης Υποστηρίζει C, C++, Fortran 77 και F90 13

Υλοποιήσεις MPI MPICH: http://www-unix.mcs.anl.gov/mpi/mpich/ MPICH2: http://www-unix.mcs.anl.gov/mpi/mpich2/ MPICH-GM: http://www.myri.com/scs/ LAM/MPI: http://www.lam-mpi.org/ LA-MPI: http://public.lanl.gov/lampi/ Open MPI: http://www.open-mpi.org/ SCI-MPICH: http://www.lfbs.rwth-aachen.de/users/joachim/scimpich/ MPI/Pro: http://www.mpi-softtech.com/ 14

Single Program Multiple Data (SPMD) Όλες οι διεργασίες εκτελούν το ίδιο πρόγραμμα Κάθε διεργασία επεξεργάζεται υποσύνολο των δεδομένων ή διαφοροποιεί τη ροή εκτέλεσης της με βάση το βαθμό (rank) που της αποδίδει το MPI Επιδίωξη παράλληλου προγραμματισμού: 15 Μεγιστοποίηση παραλληλίας Αποδοτική αξιοποίηση πόρων συστήματος (π.χ. μνήμη) Ελαχιστοποίηση όγκου δεδομένων επικοινωνίας Ελαχιστοποίηση αριθμού μηνυμάτων Ελαχιστοποίηση συγχρονισμού

Διεργασίες και communicators Σε κάθε διεργασία αποδίδεται ένα μοναδικό rank στο εύρος 0...P-1, όπου P το συνολικό πλήθος διεργασιών στον συγκεκριμένο communicator Σε γενικές γραμμές, o communicator ορίζει ένα σύνολο από διεργασίες που μπορούν να επικοινωνούν μεταξύ τους (π.χ. MPI_COMM_WORLD) Προσοχή: Αναφερόμαστε πάντα σε διεργασίες, όχι σε επεξεργαστές 16

Τυπική δομή κώδικα MPI #include <mpi.h> main(int argc, char **argv){... /* Πρώτη κλήση MPI */ MPI_Init(&argc, &argv); MPI_Comm_rank(MPI_COMM_WORLD, &rank); MPI_Comm_size(MPI_COMM_WORLD, &size);... /* Τελευταία κλήση MPI */ MPI_Finalize(); } 17

Βασικές συναρτήσεις στο MPI MPI_Init(argc,argv) Αρχικοποίηση MPI_Comm_rank(comm,rank) Αντιστοίχιση rank-διεργασίας σε communicator comm MPI_Comm_size(comm,size) Εύρεση πλήθους διεργασιών size σε comm MPI_Send(sndbuf,count,datatype,dest,tag,comm) Αποστολή μηνύματος σε διεργασία dest MPI_Recv(rcvbuf,count,datatype,source,tag, comm,status) Λήψη μηνύματος από διεργασία source MPI_Finalize() Τερματισμός 18

MPI_Init int MPI_Init(int* argc, char*** argv) Αρχικοποίηση περιβάλλοντος MPI Παράδειγμα: int main(int argc,char** argv){ MPI_Init(&argc,&argv); } 19

MPI_Comm_rank int MPI_Comm_rank (MPI_Comm comm, int* rank) Καθορισμός rank καλούσας διεργασίας που ανήκει στον communicator comm Παράδειγμα: int rank; MPI_Comm_rank(MPI_COMM_WORLD,&rank); 20

MPI_Comm_size int MPI_Comm_size (MPI_Comm comm, int* size) Καθορισμός πλήθους διεργασιών size που ανήκουν στον communicator comm Παράδειγμα: int size; MPI_Comm_size(MPI_COMM_WORLD,&size); 21

MPI_Send int MPI_Send(void *buf, int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm) Αποστολή μηνύματος buf από καλούσα διεργασία σε διεργασία με rank dest Ο πίνακας buf έχει count στοιχεία τύπου datatype Παράδειγμα: int message[20],dest=1,tag=55; MPI_Send(message, 20, MPI_INT, dest, tag, MPI_COMM_WORLD); 22

MPI_Recv int MPI_Recv(void *buf, int count, MPI_Datatype datatype, int source, int tag, MPI_Comm comm, MPI_Status *status) Λήψη μηνύματος από διεργασία με rank source και αποθήκευση σε buf Λαμβάνονται το πολύ count δεδομένα τύπου datatype (ακριβής αριθμός με MPI_Get_count) Wildcards: MPI_ANY_SOURCE, MPI_ANY_TAG Παράδειγμα: int message[50],source=0,tag=55; MPI_Status status; MPI_Recv(message, 50, MPI_INT, source, tag, MPI_COMM_WORLD,&status); 23

Αποστολή λήψη στο MPI 24

Αποστολή λήψη στο MPI 25

Αποστολή λήψη στο MPI 26

Αποστολή λήψη στο MPI 27

Αποστολή λήψη στο MPI 28

Αποστολή λήψη στο MPI 29

MPI_Sendrecv int MPI_Sendrecv( void *sendbuf, int sendcount, MPI_Datatype sendtype, int dest, int sendtag, void *recvbuf, int recvcount, MPI_Datatype recvtype, int source, int recvtag, MPI_Comm comm, MPI_Status *status ) Λήψη και αποστολή μηνύματος με μία κλήση Για «συμμετρικό» κώδικα χρήση του MPI_NULL_PROC 30

MPI_Finalize int MPI_Finalize() Τερματισμός περιβάλλοντος MPI Πρέπει να αποτελεί την τελευταία κλήση MPI του προγράμματος 31

Παράδειγμα προγράμματος MPI /* Παράλληλος υπολογισμός της παράστασης f(0)+f(1)*/ #include <mpi.h> int main(int argc,char** argv){ int v0,v1,sum,rank; MPI_Status stat; MPI_Init(&argc,&argv); MPI_Comm_rank(MPI_COMM_WORLD,&rank); if(rank==1) MPI_Send(&f(1),1,0,50,MPI_INT,MPI_COMM_WORLD); else if(rank==0){ v0=f(0); MPI_Recv(&v1,1,1,50,MPI_INT,MPI_COMM_WORLD,&stat); sum=v0+v1; } MPI_Finalize(); } 32

Παράδειγμα προγράμματος MPI /* Παράλληλος υπολογισμός της παράστασης f(0)+f(1)*/ #include <mpi.h> int main(int argc,char** argv){ int v0,v1,sum,rank; MPI_Status stat; MPI_Init(&argc,&argv); MPI_Comm_rank(MPI_COMM_WORLD,&rank); Διεργασία 1 if(rank==1) MPI_Send(&f(1),1,0,50,MPI_INT,MPI_COMM_WORLD); else if(rank==0){ v0=f(0); MPI_Recv(&v1,1,1,50,MPI_INT,MPI_COMM_WORLD,&stat); sum=v0+v1; } MPI_Finalize(); } 33

Παράδειγμα προγράμματος MPI /* Παράλληλος υπολογισμός της παράστασης f(0)+f(1)*/ #include <mpi.h> int main(int argc,char** argv){ int v0,v1,sum,rank; MPI_Status stat; MPI_Init(&argc,&argv); MPI_Comm_rank(MPI_COMM_WORLD,&rank); Διεργασία 1 if(rank==1) MPI_Send(&f(1),1,0,50,MPI_INT,MPI_COMM_WORLD); else if(rank==0){ v0=f(0); MPI_Recv(&v1,1,1,50,MPI_INT,MPI_COMM_WORLD,&stat); sum=v0+v1; } Διεργασία 0 MPI_Finalize(); } 34

Επικοινωνία Μπορεί να είναι point-to-point ή συλλογική (collective) Μπορεί να είναι synchronous, buffered ή ready (ανάλογα με το τι θεωρείται ως συνθήκη επιτυχίας) Μπορεί να είναι blocking ή non-blocking (ανάλογα με το πότε επιστρέφει η συνάρτηση επικοινωνίας) 35

Συλλογική επικοινωνία Παράδειγμα: Αποστολή του msg στις διεργασίες 1-7 από τη 0 if(rank==0) for(dest=1;dest<size;dest++) MPI_Send(msg,count,dest,tag,MPI_FLOAT,MPI_COMM_WORLD); Γενικά: Για p διεργασίες έχουμε p-1 βήματα επικοινωνίας 36

Συλλογική επικοινωνία Παράδειγμα: Αποστολή του msg στις διεργασίες 1-7 από τη 0 MPI_Bcast(msg,count,MPI_FLOAT,0,MPI_COMM_WORLD); Γενικά: Για p διεργασίες έχουμε log 2 p βήματα επικοινωνίας 37

MPI_Bcast int MPI_Bcast(void* message, int count, MPI_Datatype datatype, int root, MPI_Comm comm) Αποστολή του message από τη διεργασία με rank root προς όλες της διεργασίες του communicator comm To message περιέχει count δεδομένα τύπου datatype Καλείται από όλες τις διεργασίες του comm 38

MPI_Bcast int MPI_Bcast(void* message, int count, MPI_Datatype datatype, int root, MPI_Comm comm) 0 0 39 1 2 3

MPI_Reduce int MPI_Reduce(void* operand, void* result, int count, MPI_Datatype datatype, MPI_Op op, int root, MPI_Comm comm) Τα δεδομένα operand συνδυάζονται με εφαρμογή του τελεστή op, και το αποτέλεσμα αποθηκεύεται στη διεργασία root στο result Πρέπει να κληθεί από όλες τις διεργασίες του comm MPI_Op: MPI_MAX, MPI_MIN, MPI_SUM, MPI_PROD κλπ. Αντίστοιχα και MPI_Allreduce 40

MPI_Reduce int MPI_Reduce(void* operand, void* result, int count, MPI_Datatype datatype, MPI_Op op, int root, MPI_Comm comm) 0 1 2 3 MPI_Op=MPI_SUM 0 (= 41 + + + )

Παράδειγμα συλλογικής επικοινωνίας /* Παράλληλος υπολογισμός της παράστασης f(0)+f(1)*/ #include <mpi.h> int main(int argc,char** argv){ int sum,rank; MPI_Status stat; MPI_Init(&argc,&argv); MPI_Comm_rank(MPI_COMM_WORLD,&rank); MPI_Reduce(&f(rank),&sum,1,MPI_INT,MPI_SUM,0, MPI_COMM_WORLD); MPI_Finalize(); } 42

MPI_Barrier int MPI_Barrier(MPI_Comm comm) Συγχρονίζονται όλες οι διεργασίες στον communicator comm Περιορίζει την παραλληλία 43

MPI_Gather int MPI_Gather(void* sendbuf, int sendcnt, MPI_Datatype sendtype, void* recvbuf, int recvcount, MPI_Datatype recvtype, int root, MPI_Comm comm) Συνενώνονται στη διεργασία root οι πίνακες sendbuf των υπολοιπών (κατά αύξουσα σειρά rank) Το αποτέλεσμα αποθηκεύεται στον πίνακα recvbuf, ο οποίος έχει νόημα μόνο στη διεργασία root Αντίστοιχα και MPI_Allgather Αντίστροφη: MPI_Scatter 44

MPI_Gather int MPI_Gather(void* sendbuf, int sendcnt, MPI_Datatype sendtype, void* recvbuf, int recvcount, MPI_Datatype recvtype, int root, MPI_Comm comm) 0 1 2 0 45 3

MPI_Scatter int MPI_Scatter(const void *sendbuf, int sendcount, MPI_Datatype sendtype,void *recvbuf, int recvcount, MPI_Datatype recvtype, int root,mpi_comm comm) 0 0 46 1 2 3

Synchronous-BufferedReady int MPI_Ssend(void *buf, int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm) Επιτυγχάνει μόνο όταν πάρει επιβεβαίωση λήψης από δέκτη ασφαλές int MPI_Bsend(void *buf, int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm) Επιτυγχάνει όταν αντιγραφεί το μήνυμα σε system buffer για μελλοντική μετάδοση σφάλμα σε έλλειψη πόρων int MPI_Rsend(void *buf, int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm) Επιτυγχάνει μόνο αν έχει προηγηθεί αντίστοιχο receive από το δέκτη αβέβαιο 47

Synchronous-BufferedReady Αναφέρονται σε λειτουργία αποστολής, διαφοροποιούνται ως προς λειτουργία λήψης Υπάρχουν τόσο σε blocking, όσο και σε nonblocking μορφή Το απλό MPI_Send μπορεί να είναι είτε synchronous είτε buffered: εξαρτάται από υλοποίηση 48

Synchronous-BufferedReady int MPI_Ssend(void *buf, int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm) Επιτυγχάνει μόνο όταν πάρει επιβεβαίωση λήψης από δέκτη ασφαλές int MPI_Bsend(void *buf, int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm) Επιτυγχάνει όταν αντιγραφεί το μήνυμα σε system buffer για μελλοντική μετάδοση σφάλμα σε έλλειψη πόρων int MPI_Rsend(void *buf, int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm) Επιτυγχάνει μόνο αν έχει προηγηθεί αντίστοιχο receive από το δέκτη αβέβαιο 49

Synchronous-BufferedReady 50 MPI_Bsend MPI_Ssend MPI_Rsend Τοπικό Μη τοπικό Τοπικό 2 αντιγραφές στη μνήμη 1 αντιγραφή στη μνήμη 1 αντιγραφή στη μνήμη Αποτυγχάνει ελλείψει πόρων Δεν αποτυγχάνει ελλείψει πόρων Δεν αποτυγχάνει ελλείψει πόρων Δεν αποτυγχάνει αν δεν έχει προηγηθεί λήψη Δεν αποτυγχάνει αν δεν έχει προηγηθεί λήψη Αποτυγχάνει αν δεν έχει προηγηθεί λήψη

Non-blocking communication Άμεση επιστροφή Δεν είναι ασφαλές να επαναχρησιμοποιηθούν οι buffers επικοινωνίας πριν ελεγχθεί η επιτυχία Δύο δυνατότητες για έλεγχο επιτυχίας της επικοινωνίας: int MPI_Test (MPI_Request* request,int* flag, MPI_Status* status) int MPI_Wait (MPI_Request* request,mpi_status* status) Δυνατότητα ελέγχου για εισερχόμενα μηνύματα, χωρίς να γίνει λήψη (progress report): int MPI_Probe (int source, int tag, MPI_Comm comm, MPI_Status *status) 51

Non-blocking communication Κάθε blocking συνάρτηση έχει την αντίστοιχη nonblocking: MPI_Isend (για MPI_Send) MPI_Issend (για MPI_Ssend) MPI_Ibsend (για MPI_Bsend) MPI_Irsend (για MPI_Rsend) MPI_Irecv (για MPI_Recv) 52

Επικάλυψη υπολογισμών επικοινωνίας Blocking MPI_Recv(); MPI_Send(); Compute(); 53 Non-blocking MPI_Irecv(); MPI_Isend(); Compute(); Waitall();

Αποφυγή deadlocks Blocking (deadlock!) Rank 0 Rank 1 MPI_Send(msg,Rank1); MPI_Recv(msg,Rank1); Compute(); MPI_Send(msg,Rank0); MPI_Recv(msg,Rank0); Compute(); Non-blocking 54 Rank 0 Rank 1 MPI_Isend(msg,Rank1); MPI_Irecv(msg,Rank1); Waitall(); Compute(); MPI_Isend(msg,Rank0); MPI_Irecv(msg,Rank0); Waitall(); Compute();