MYE-023. Διδάσκων: ΠΑΡΑΛΛΗΛΑ ΣΥΣΤΗΜΑΤΑ & ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ. Β. Δημακόπουλος.

Σχετικά έγγραφα
MYE-023. Διδάσκων: ΠΑΡΑΛΛΗΛΑ ΣΥΣΤΗΜΑΤΑ & ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ. Β. Δημακόπουλος.

MYE-023. Διδάσκων: ΠΑΡΑΛΛΗΛΑ ΣΥΣΤΗΜΑΤΑ & ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ. Β. Δημακόπουλος.

ΠΛΕ-079. Διδάσκων: ΠΑΡΑΛΛΗΛΑ ΣΥΣΤΗΜΑΤΑ & ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ. Β. Δημακόπουλος. dimako@cs.uoi.gr

ΠΛΕ-006 ΠΑΡΑΛΛΗΛΗ ΕΠΕΞΕΡΓΑΣΙΑ Διδάσκων: Β. Δημακόπουλος.

Υ07. Διδάσκων: ΠΑΡΑΛΛΗΛΑ ΣΥΣΤΗΜΑΤΑ. Β. Δημακόπουλος.

5/3/2012. Εισαγωγή στα Παράλληλα Συστήµατα (Οργάνωση-Προγραµµατισµός) Β. Δημακόπουλος Α. Ευθυμίου

Λ10 Παράλληλος & Κατανεμημένος Προγραμματισμός Μάθημα 0 ο 13/10/2009. Β. Δημακόπουλος

Παράλληλα Συστήματα. Γιώργος Δημητρίου. Ενότητα 3 η : Παράλληλη Επεξεργασία. Πανεπιστήμιο Θεσσαλίας - Τμήμα Πληροφορικής

Αρχιτεκτονική Υπολογιστών

Αρχιτεκτονική Υπολογιστών

1.1 Παράλληλοι υπολογιστές

Οργάνωση επεξεργαστή (2 ο μέρος) ΜΥΥ-106 Εισαγωγή στους Η/Υ και στην Πληροφορική

Παράλληλοι υπολογιστές

Πολυπύρηνοι επεξεργαστές Multicore processors

EM 361: Παράλληλοι Υπολογισμοί

ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ

Αρχιτεκτονική Υπολογιστών

13.2 Παράλληλος Προγραµµατισµός Γλωσσάρι, Σελ. 1

Η ΤΑΞΙΝΟΜΗΣΗ ΤΟΥ FLYNN!!! 1 ο ΕΠΑΛ ΡΟΔΟΥ ΤΟΜΕΑΣ ΠΛΗΡΟΦΟΡΙΚΗΣ!!!! Χατζηνικόλας Κώστας

Συστήματα Παράλληλης & Κατανεμημένης Επεξεργασίας

Κατανεμημένος και Παράλληλος Προγραμματισμός. Ύλη μαθήματος. Βιβλιογραφία Μαθήματος 2/27/2016

Αρχιτεκτονική Υπολογιστών

Αρχιτεκτονική Υπολογιστών

Συστήµατα Παράλληλης Επεξεργασίας

***Computer Organization & Design the Hardware/Software Interface, David Patterson & John Hennessy, Morgan Kaufmann Publishers, 4thed

i Στα σύγχρονα συστήματα η κύρια μνήμη δεν συνδέεται απευθείας με τον επεξεργαστή

Τεχνολογίες Κύριας Μνήμης

Αρχιτεκτονική Υπολογιστών

ΤΕΧΝΙΚΕΣ ΑΥΞΗΣΗΣ ΤΗΣ ΑΠΟΔΟΣΗΣ ΤΩΝ ΥΠΟΛΟΓΙΣΤΩΝ I

Μετρικές & Επιδόσεις. Κεφάλαιο V

Συστήματα Παράλληλης & Κατανεμημένης Επεξεργασίας

Εισαγωγή στην Αρχιτεκτονική Η/Υ

Παράλληλα Συστήματα. Γιώργος Δημητρίου. Ενότητα 4 η : Παράλληλος Προγραμματισμός. Πανεπιστήμιο Θεσσαλίας - Τμήμα Πληροφορικής

Εισαγωγή. Λογισµικό & Προγραµµατισµός Συστηµάτων Υψηλής Επίδοσης

Οργάνωση και Σχεδίαση Υπολογιστών Η ιασύνδεση Υλικού και Λογισµικού, 4 η έκδοση. Κεφάλαιο 1. Αφηρηµένες έννοιες και τεχνολογία υπολογιστών

Πληροφορική Ι. Μάθημα 6 ο Εκτέλεση πράξεων, Αρχιτεκτονική Η/Υ. Τμήμα Χρηματοοικονομικής & Ελεγκτικής ΤΕΙ Ηπείρου Παράρτημα Πρέβεζας

Εθνικό Μετσόβιο Πολυτεχνείο Σχολή Ηλεκτρολόγων Μηχ. και Μηχανικών Υπολογιστών. Εισαγωγή. Συστήματα Παράλληλης Επεξεργασίας 9 ο Εξάμηνο

Παραλληλισμός σε επίπεδο εντολών

Κεντρική Μονάδα Επεξεργασίας. Επανάληψη: Απόδοση ΚΜΕ. ΚΜΕ ενός κύκλου (single-cycle) Παραλληλισμός σε επίπεδο εντολών. Υπολογιστικό σύστημα

tutorials/parallel_comp/

Αρχιτεκτονική Υπολογιστών

Συστήματα Παράλληλης & Κατανεμημένης Επεξεργασίας

Εισαγωγή στην πληροφορική -4

Το μάθημα συνοπτικά (1) Το μάθημα συνοπτικά (2) Τι είναι ένα υπολογιστικό σύστημα ;

Εισαγωγή στην Επιστήμη των Υπολογιστών

Ιόνιο Πανεπιστήμιο Τμήμα Πληροφορικής Αρχιτεκτονική Υπολογιστών Απόδοση ΚΜΕ. (Μέτρηση και τεχνικές βελτίωσης απόδοσης)

Παράλληλη Επεξεργασία Κεφάλαιο 1 Γιατί Παράλληλος Προγραμματισμός;

Παράλληλος προγραμματισμός: Σχεδίαση και υλοποίηση παράλληλων προγραμμάτων

ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΡΗΤΗΣ

[ΚΑΤΑΓΡΑΦΗ ΗΛΕΚΤΡΟΝΙΚΟΥ ΥΛΙΚΟΥ ΚΑΙ ΔΙΑΥΛΩΝ ΕΠΙΚΟΙΝΩΝΙΑΣ]

Εισαγωγή. Εθνικό Μετσόβιο Πολυτεχνείο Σχολή Ηλεκτρολόγων Μηχ. και Μηχανικών Υπολογιστών Εργαστήριο Υπολογιστικών Συστημάτων

Chapter 4 (1) Αξιολόγηση και κατανόηση της απόδοσης

ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΤΕΧΝΙΚΟΣ ΔΙΚΤΥΩΝ ΚΑΙ ΤΗΛΕΠΙΚΟΙΝΩΝΙΩΝ

ΠΛΕ- 074 Αρχιτεκτονική Υπολογιστών 2

Το εσωτερικό ενός PC. Τεχνολογία Η/Υ & Πληροφοριών - 05 Κεντρική μονάδα Χουρδάκης Μανόλης

«Σχεδιασμός Ψηφιακών Συστημάτων σε FPGA» Εαρινό εξάμηνο

ΠΤΥΧΙΑΚΗ ΕΡΓΑΣΙΑ << ΜΕΛΕΤΗ ΤΗΣ ΑΡΧΙΤΕΚΤΟΝΙΚΗΣ CUDA ΚΑΙ ΠΑΡΑΛΛΗΛΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ ΚΑΡΤΩΝ GPU ΤΗΣ NVIDIA >> Αρ. Μητρώου: 04/2519

Παράλληλος προγραμματισμός: παράλληλες λ υπολογιστικές πλατφόρμες και ανάλυση προγραμμάτων

Δυναμική Θεώρηση και Συγχρονισμός των εξαρτήσεων των δεδομένων. Αλεξάνδρα Παπανδρεάδη (ΑΜ 362)

30/4/2012 Συστήματα κατανεμημένης μνήμης και ο προγραμματισμός τους (Ι) Β. Δημακόπουλος

Chapter 4 ( ή 1 στο βιβλίο σας)

Αρχιτεκτονική Η/Υ Το chipset ενός υπολογιστικού συστήματος. Δρ. Μηνάς Δασυγένης

Παράλληλη Επεξεργασία

ΚΕΦΑΛΑΙΟ 2: Χειρισμός Δεδομένων

Κεφάλαιο 1.5: Τα βασικά μέρη ενός υπολογιστή

ΕΦΑΡΜΟΓΕΣ ΠΛΗΡΟΦΟΡΙΚΗΣ. Α Γενικού Λυκείου (Μάθημα Επιλογής)

Υ- 01 Αρχιτεκτονική Υπολογιστών Πολυεπεξεργαστές

ΚΕΦΑΛΑΙΟ 2: Χειρισµός εδοµένων

Αρχιτεκτονική Υπολογιστών

Ιόνιο Πανεπιστήμιο Τμήμα Πληροφορικής Αρχιτεκτονική Υπολογιστών Κρυφές Μνήμες. (οργάνωση, λειτουργία και απόδοση)

Παράλληλος προγραμματισμός: Σχεδίαση και υλοποίηση παράλληλων προγραμμάτων

ΕΠΙΣΤΗΜΟΝΙΚΟΙ ΥΠΟΛΟΓΙΣΜΟΙ: Μια ενδιαφέρουσα σταδιοδρομία

2. Στοιχεία Αρχιτεκτονικής Παράλληλων Υπολογιστών... 45

Παράλληλος προγραμματισμός: Σχεδίαση και υλοποίηση παράλληλων προγραμμάτων

i Throughput: Ο ρυθμός ολοκλήρωσης έργου σε συγκεκριμένο χρόνο

Επιστημονικοί Υπολογισμοί - Μέρος ΙΙΙ: Παράλληλοι Υπολογισμοί

Συστήματα Παράλληλης & Κατανεμημένης Επεξεργασίας

Παράλληλος προγραμματισμός: Σχεδίαση και υλοποίηση παράλληλων προγραμμάτων

ΕΙΣΑΓΩΓΗ ΣΤΟΥΣ ΥΠΟΛΟΓΙΣΤΕΣ

Εισαγωγή στην Αρχιτεκτονική Η/Υ

ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ ΕΙΔΙΚΟΣ ΛΟΓΑΡΙΑΣΜΟΣ ΠΑΝΕΠΙΣΤΗΜΙΟΥ ΚΡΗΤΗΣ

Περιεχόμενο μαθήματος

3/12/2013 Συστήματα κατανεμημένης μνήμης (Ι) Β. Δημακόπουλος

Ηλεκτρονικοί Υπολογιστές Δ Εξάμηνο

Παράλληλη Επεξεργασία

Αρχιτεκτονική Υπολογιστών

Εισαγωγή. Εθνικό Μετσόβιο Πολυτεχνείο Σχολή Ηλεκτρολόγων Μηχ. και Μηχανικών Υπολογιστών Εργαστήριο Υπολογιστικών Συστημάτων

ΥΠΟΛΟΓΙΣΤΙΚΗ ΧΗΜΕΙΑ ΜΕ ΕΦΑΡΜΟΓΕΣ ΣΕ ΜΟΡΙΑ, ΥΛΙΚΑ, ΠΕΡΙΒΑΛΛΟΝ

Εισαγωγή. Εθνικό Μετσόβιο Πολυτεχνείο Σχολή Ηλεκτρολόγων Μηχ. και Μηχανικών Υπολογιστών Εργαστήριο Υπολογιστικών Συστημάτων

Εικονική Μνήμη (Virtual Μemory)

Υ07 Παράλληλα Συστήματα /4/2016 Συστήματα κατανεμημένης μνήμης (ΙΙ)

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΠΛΗΡΟΦΟΡΙΚΗ

Το μάθημα συνοπτικά (1) Το μάθημα συνοπτικά (2) Τι είναι ένα υπολογιστικό σύστημα ;

Παράλληλος προγραμματισμός: Σχεδίαση και υλοποίηση παράλληλων προγραμμάτων

ΠΑΡΑΛΛΗΛΗ ΕΠΕΞΕΡΓΑΣΙΑ

ΑΡΧΙΤΕΚΤΟΝΙΚΗ ΥΠΟΛΟΓΙΣΤΩΝ. Σημειώσεις Θεωρίας

Ιεραρχία Μνήμης. Ιεραρχία μνήμης και τοπικότητα. Σκοπός της Ιεραρχίας Μνήμης. Κρυφές Μνήμες

Κατανεμημένα Συστήματα

Διπλωματική Εργασία του φοιτητή του Τμήματος Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών της Πολυτεχνικής Σχολής του Πανεπιστημίου Πατρών

Εισαγωγή Συμβόλαιο Μαθήματος

Transcript:

MYE-023 ΠΑΡΑΛΛΗΛΑ ΣΥΣΤΗΜΑΤΑ & ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ Διδάσκων: Β. Δημακόπουλος dimako@cse.uoi.gr

Στοιχεία για το μάθημα Αντικείμενο του μαθήματος: 1. Η δομή των παράλληλων υπολογιστών (πολυπύρηνα, smps, clusters, gpus κλπ) 2. Ο προγραμματισμός τους (threads, OpenMP, MPI κλπ) 2

Στοιχεία για το μάθημα Ημέρα/ώρα Δευτέρα, 12:00 15:00 Διδακτικό υλικό: Βιβλία 1. «Εισαγωγή στον παράλληλο υπολογισμού» - Πάντζιου, Μάμαλης, Τομαράς (2013) 2. «Προγραμματισμός και αρχιτεκτονική συστημάτων παράλληλης επεξεργασίας» Παπαδάκης & Διαμαντάρας (2012) 3. «Προγραμματισμός μαζικά παράλληλων επεξεργαστών» - D. B. Kirk, W-m. W. Hwu (2010) Σημειώσεις του διδάσκοντα («Εισαγωγή στην Παράλληλη Επεξεργασία», Παν/μιο Ιωαννίνων, 2009) συν προσθήκες (pdf/φωτοτυπίες) που έχουν γίνει αλλά δεν έχουν ενσωματωθεί στις εκτυπωμένες σημειώσεις Επίκειται νέα, βελτιωμένη έκδοση Επίσης δωρεάν Κύριο σύγγραμμα Ιστοσελίδα μαθήματος http://www.cse.uoi.gr/~dimako/courses 3

Βαθμολόγηση μαθήματος Επιλογή τρόπου βαθμολόγησης από τον καθέναν: Εξαμηνιαίο project (60-70%) + τελικές εξετάσεις (30-40%) Ένα προγραμματιστικό project που θα το ξεκινήσουμε σε 1 2 εβδομάδες και θα τελειώσει στο τέλος του εξαμήνου. Θέλει άνεση (όχι απλά γνώση) στη C και γνώση / όρεξη για προγραμματισμό. Ενδιάμεσες συναντήσεις για σχεδιασμό και έλεγχο προόδου και τελική παρουσίαση / επίδειξη Πιθανός διαγωνισμός καλύτερου (κριτήρια??) project Μικρές προγραμματιστικές ασκήσεις (20-25%) + τελικές εξετάσεις (75-80%) Απλές ασκήσεις εκμάθησης παράλληλου προγραμματισμού Συνολικά 2-3 σε όλο το εξάμηνο Τελικές εξετάσεις (100%) Ως τελευταία (και με λιγότερη ουσία) επιλογή 4

Το σημερινό μάθημα Προ-εισαγωγικά

Τεχνολογία ο νόμος του Moore Moore s Law 2X transistors/chip Every 1.5 years Called Moore s Law Microprocessors have become smaller, denser, and more powerful. Τι σημαίνει αυτό; Απάντηση: πολυπλοκότητα! 6

Ο νόμος του Bill Joy τις επιδόσεις Τι έγινε εδώ;;; Επιδόσεις εκθετικά αυξανόμενες (integer SPEC bechmarks) 7

Παράλληλοι υπολογιστές γύρω μας

Πρόσφατο παρελθόν SMPs (symmetric multiprocessors) 2 4 επεξεργαστές (μονοπύρηνοι) συνηθισμένοι, μέχρι 8 επεξεργαστές σε εμπορικά συστήματα Πανάκριβα συστήματα με 12-16 επεξεργαστές ελάχιστα Κοινή μνήμη Τμήμα Πληροφορικής: Πολλά Sun με 2 UltraSparc Πολλά PC με 2 Pentium / Athlon και με διπύρηνους επεξεργαστές atlantis με 4 Pentium III Xeon (700MHz) 700.000 δρχ/cpu! paraguay με 4 x Intel Xeon 7000 Paxville @ 3GHz 2 cores per CPU / 2 threads per core (hyperthreaded) Δωρεά της Intel USA στο PARAGROUP (2008) paragon με 2 x AMD Opteron 6128 @ 2GHz 8 cores per CPU Custom-made by the 9

Dual core / Quad core / Multicore / Manycore? Πλέον και τα φτηνότερα PC έχουν 1 επεξεργαστή τουλάχιστον διπύρηνο Το κινητό μου είναι 4πήρυνο Διπύρηνοι αρχικά, τώρα 8πύρηνοι, 12πύρηνοι (Intel, AMD) Τ1 (Sun Niagara): 8πύρηνοι (με 4-way multithreaded πυρήνες) από τον 12/2005! Σεπτ. 2010: «Τ3»: 16πύρηνος, 8-way multithreaded Πολλαπλών πυρήνων (multicore) γενικά Manycore (πολλών πυρήνων)?? Μιλάμε για πολλούς πυρήνες Τριψήφιο νούμερο (> 64) Πότε? Ήδη! Intel 80-πύρηνο πρωτότυπο Φεβ. 2007 80 απλά cores 2 floating point engines /core network-on-a-chip τύπου πλέγματος 100 million transistors, >1 Teraflop peak! Intel Xeon Phi 51xx / 71xxx(60 cores) 10

Clusters Παντού κι αυτά! Συλλογή από διασυνδεδεμένους «κόμβους» Φτηνοί / ευρέως διαθέσιμοι επεξεργαστές (π.χ. clusters από PCs) Ο μόνος τρόπος να φτιάξουμε «οικονομικούς» υπερ-υπολογιστές (πολλά Teraflops) Sandia Laboratories Red Storm (Cray, 2004) 13000 AMD Opterons (basically PC nodes), 75 Terabytes of memory > 100 Teraflops (peak) Linux Κόστος: $90.000.000 Σε αντιδιαστολή με τον Earth Simulator ( NEC, Ιαπωνία, 2002) Διανυσματικός υπερυπολογιστής 5120 διανυσματικοί επεξεργαστές, 10 Terabytes of memory 35 Teraflops (sustained) Κόστος: $400.000.000 (2002, most expensive computer ever built) 11

Clusters Πανεπιστήμιο Ιωαννίνων Κέντρο προσομοιώσεων: 200 κόμβοι (κάθε κόμβος pc με 2 επεξεργαστές) Τμήμα Πληροφορικής: 16 κόμβοι, κάθε κόμβος 2 CPUS, κάθε CPU διπύρηνη Και τα δύο με δίκτυο gigabit Ethernet Βελτιωμένες επιδόσεις με δίκτυα χαμηλής καθυστέρησης Π.χ. Myrinet Πολύ ακριβότερα όμως Κάρτα δικτύου gigabit: 10-20 ευρώ Cluster τμήματος Υλικών (Myrinet, πριν 8 χρόνια περίπου) Περίπου 100.000 ευρώ για τα PC και άλλες 100.000 ευρώ για τις κάρτες δικτύου τους! Το μέλλον: Clusters από πολυπύρηνους κόμβους 12

GPUs, GPGPUs, Cells, κλπ. Πάρα πολλά και πολύ απλά επεξεργαστικά στοιχεία, κατάλληλα είτε για συγκεκριμένου τύπου υπολογισμούς (GPUs) είτε και για γενικότερους υπολογισμούς (GPGPUs, Cell). Πολύ «της μόδας» Πολύ γρήγορα «Ιδιαίτερος» προγραμματισμός Διαχείριση μνήμης με το «χέρι» Με μία λέξη: Ετερογένεια Κλασικός ισχυρός πυρήνας/πυρήνες + «ειδικοί» (γρήγοροι, πολύ αλλά απλοί/ανίσχυροι) πυρήνες Ετερογένεια και στον τρόπο προγραμματισμού 13

Mobile Πολυπύρηνες είναι πλέον ακόμα και οι μικρότερες συσκευές. Π.χ. κινητά τηλέφωνα (10/2014): Dual core (60 ) Quad core (130 ) Octa core (275 ) 14

Embedded Και συσκευές για ενσωματωμένα συστήματα. Π.χ. parallella: SDcard HDMI 16-core (Epiphany, mesh) 2-core (ARM, Linux) USB Ethernet 100!! (δωρεά στο ppg) Έχουμε στην κατοχή μας και το 64-core!!! 15

3 απλές ερωτήσεις Το excel θα τρέξει γρηγορότερα σε αυτά τα μηχανήματα; Όχι! Αν είχα ένα από αυτά τα μηχανήματα σπίτι μου (ως PC), θα έβλεπα μεγαλύτερη ταχύτητα; Ναι, κάποια (μικρή σχετικά) βελτίωση στην ταχύτητα θα υπήρχε Γιατί όμως; ManyCore refers to many processors/chip 64? 128? Hard to say exact boundary How to program these? Use 2 CPUs for video/audio Use 1 for word processor, 1 for browser 76 for virus checking??? Parallelism must be exploited at all levels Πρέπει η εφαρμογή να έχει προγραμματιστεί παράλληλα ώστε να χρησιμοποιεί τους πολλαπλούς επεξεργαστες 16

Γιατί να παρακολουθήσει κανείς αυτό το μάθημα; Το μάθημα μιλάει για παράλληλους υπολογιστές Οι παράλληλοι υπολογιστές ΔΕΝ είναι πλέον κάτι μακρινό / σπάνιο / κλπ Τους χρησιμοποιούμε ΟΛΟΙ (multicore επεξεργαστές) Όμως παρότι τους έχουμε, ΔΕΝ ξέρουμε πως να τους προγραμματίζουμε Ακόμα και multicore επεξεργαστή να έχετε, αν γράψετε ένα πρόγραμμα όπως τα γράφετε μέχρι τώρα, ΜΟΝΟ το ένα core θα δουλεύει. Περιζήτητη γνώση ο παράλληλος προγραμματισμός Ερευνητικές & εμπορικές ευκαιρίες Τα πάντα πλέον γίνονται παράλληλα. 17

Ύλη του μαθήματος Εισαγωγή στους παράλληλους υπολογιστές και τον τρόπο χρήσης τους: Οργάνωση Προγραμματισμός (έμφαση) Ενότητες: Εισαγωγή Κλάδος οργάνωσης: Πολυεπεξεργαστές/πολυπύρηνοι κοινόχρηστης μνήμης Πολυεπεξεργαστές/πολυπύρηνοι κατανεμημένης μνήμης Επικοινωνίες Κλάδος προγραμματισμού: Κοινές μεταβλητές (διεργασίες, νήματα) Μεταβίβαση μηνυμάτων (MPI) Μετρικές και ανάλυση 18

Εισαγωγή Κεφάλαιο Ι

Η τεχνολογία βελτιώνεται συνεχώς ENIAC (1945) Φτηνό netbook (2009) Βάρος (kg). 30.000 1 Όγκος (m 3 ). 70 0.001 Κατανάλωση (Watt). 140.000 15 Μνήμη (bytes). 200 1.073.741.824 Ρολόι (MHz). 0.005 1.700... και δεν χωράει σύγκριση! 20

Άρα, είναι και θα γίνουν ακόμα πιο γρήγοροι οι υπολογιστές... Ναι, είναι και θα είναι, για πολλές εφαρμογές. Όχι για όλες, όμως. Υπάρχουν εφαρμογές που δεν μπορούν να λυθούν ικανοποιητικά ακόμα και με τον πιο πρόσφατο και εξελιγμένο επεξεργαστή. Κλασσικό παράδειγμα εφαρμογής με μη ικανοποιητική λύση: πρόγνωση καιρού (μήπως χαλάνε μερικές φορές τα μηχανήματα της ΕΜΥ; ) Ικανοποιητική (δηλ. με καλή ακρίβεια) πρόγνωση καιρού μπορεί να γίνει αλλά απαιτεί την επίλυση ασύλληπτα μεγάλων συστημάτων εξισώσεων. Και τεράστιες ποσότητες μνήμης αλλά και τεράστιες υπολογιστικές ταχύτητες είναι αναγκαίες. Τόσες που δεν υπάρχει τυπικό υπολογιστικό σύστημα να τις καλύψει.... και άρα χρησιμοποιούμε λιγότερες εξισώσεις λιγότερο ακριβές μοντέλο λιγότερο ακριβής πρόβλεψη γίνεται της ΕΜΥ! 21

Παράδειγμα με αριθμούς Εφαρμογή: μελέτη της εξέλιξης της κλίματος της γης Το μοντέλο για 10 χρόνια μετά, περιλαμβάνει 10 16 flops (θέλουμε 10 ημέρες με CPU των 10 Gflops) Παράγει 100 Gbytes δεδομένων Για καλύτερη μελέτη: Τρέχον μοντέλο Καλύτερο Κόστος x Ανάλυση 100km 10km x 100 1000 Περίοδος υπό μελέτη 10 χρόνια 100 χρόνια x 10 100 Θέλουμε x 10 3 10 5 flops, δηλαδή x 10 3 10 5 ημέρες ή περίπου 10.000 1.000.000 ημέρες (10.000 = 30 χρόνια!) Χωρίς να υπολογίσουμε τον ρυθμό δεδομένων... 22

Και τι πρέπει να γίνει; Πρώτη λύση: Βελτίωση της τεχνολογίας. Άρα γρηγορότερα κυκλώματα. Άρα γρηγορότεροι επεξεργαστές. Αυτή είναι ίσως η σημαντικότερη λύση μέχρι τώρα. Η τεχνολογία έχει προχωρήσει με ιλιγγιώδεις ρυθμούς, πέρα από κάθε πρόβλεψη. Θα συνεχίσει έτσι, όμως, και του χρόνου; Όχι - βλ. multicores! Η πιο σωστή απάντηση είναι ότι δεν ξέρουμε ακριβώς τις λεπτομέρειες, αλλά τελικά θα σταματήσει αυτή η εξέλιξη, τουλάχιστον με αυτούς τους ρυθμούς. Ή θα αλλάξει ο τρόπος με τον οποίο φτιάχνουμε υπολογιστές (π.χ. κβαντικοί, βιολογικοί) 23

Το πρόβλημα: σειριακό μοντέλο (κλασικός Η/Υ) 24

Γιατί τέτοια απαισιοδοξία; Φυσικοί νόμοι: με βάση την ειδική θεωρία της σχετικότητας του Αϊνστάιν, η ταχύτητα των ηλεκτρικών σημάτων είναι μικρότερη ή ίση αυτής του φωτός. Η ταχύτητα του φωτός είναι περίπου 0,3 m/nsec στο κενό, και αρκετά μικρότερη σε χάλκινα καλώδια. Άρα, αν η απόσταση μεταξύ CPU και μνήμης είναι 30 cm, θα χρειαστεί (τουλάχιστον) 1 nsec για να πάει η διεύθυνση στη μνήμη και άλλο 1 nsec για να φτάσει το δεδομένο στη CPU (υποθέτοντας ότι η μνήμη έχει ΜΗΔΕΝΙΚΗ καθυστέρηση). Άρα η μόνη λύση για να κάνουμε ταχύτερους υπολογιστές είναι να τους κάνουμε εξαιρετικά μικροσκοπικούς! 25

Μικρότεροι επεξεργαστές Ήδη τα μεγέθη των τρανζίστορ και οι αποστάσεις μέσα στα chip είναι πολύ μικρές (2-3 μόρια απαρτίζουν κάποια τμήματα των τρανσίστορ). Περαιτέρω σμίκρυνση θα συνοδευτεί από μοριακά / ατομικά / πυρηνικά φαινόμενα που δεν ξέρουμε ακόμα πώς να τα χειριστούμε. Μικρά μεγέθη + αύξηση συχνότητας λειτουργίας (για ταχύτητα) οδηγεί σε αύξηση της κατανάλωσης. Από τα 4Ghz περίπου πριν 10 χρόνια, οι συχνότητες έπεσαν στα 1.5-2.5GHz και έγιναν πολυπύρηνοι (multicore) 26

Οικογένειες επεξεργαστών & συχνότητες (cpudb@stanford) Λάθος Είναι 2.13 αντί για 21.3 GHz 27

Υπάρχει άλλη λύση; Δεύτερη (και μοναδική) λύση: Παραλληλισμός. Πολλαπλές εντολές εκτελούνται παράλληλη (ταυτόχρονα). Άρα γρηγορότερη ολοκλήρωση των προγραμμάτων. Παραλληλισμός σε επίπεδο εντολών (ILP: διοχέτευση, υπερβαθμωτές αρχιτεκτονικές κλπ) καλός αλλά λίγος (αύξηση ταχύτητας x10, το πολύ) Μοναδική λύση είναι η χρήση καθαρά παράλληλων υπολογιστών: υπολογιστές που διαθέτουν πολλούς επεξεργαστές, διασυνδεδεμένους μεταξύ τους, που συνεργάζονται για την ταυτόχρονη εκτέλεση τμημάτων μίας εφαρμογής. Π.χ. σύστημα με 1000 επεξεργαστές έχει τη δυνατότητα να εκτελέσει ένα πρόγραμμα 1000 φορές πιο γρήγορα (από ότι ένα σύστημα με 1 επεξεργαστή). 28

Παράλληλος υπολογιστής 29

Βασικά ερωτήματα Πόσοι επεξεργαστές; λίγοι (2 10) πολλοί (εκατοντάδες έως δεκάδες χιλιάδες) Πώς συνδέονται / επικοινωνούν / συνεργάζονται; κοινής μνήμης (πολυεπεξεργαστές) κατανεμημένης μνήμης (πολυϋπολογιστές) Πως «σπάει» ένα πρόβλημα για να μοιραστεί στους επεξεργαστές; λεπτόκκοκος / χονδρόκοκκος παραλληλισμός (fine/coarse grain) ισοκατανομή φόρτου (load balancing) Πόσο διαφορετικός είναι ο προγραμματισμός τους; τρία βασικά μοντέλα... 30

Που υπάρχει παραλληλισμός for (i = 0; i < k; i = i+1) c[i] = a[i]+b[i]; Εφαρμογές (grand challenges) συμπεριφορά σωματιδίων (π.χ. δυναμική των μορίων) μελέτη των κυμάτων των ωκεανών και πρόβλεψη καιρού σεισμικά μοντέλα σχεδιασμός VLSI κυκλωμάτων με τη βοήθεια του υπολογιστή (CAD) εξέλιξη των γαλαξιών. 31

Παράδειγμα: το πρόβλημα των N σωμάτων N-body problem Συλλογή από N σώματα (ηλεκτρόνια, μόρια, πλανήτες, σύνεφα, κλπ) Δυνάμεις μεταξύ τους (βαρυτικές, ηλεκτρικές, μαγνητικές, κλπ) που τους αλλάζουν την κατάσταση (π.χ. τη θέση τους στο χώρο) Μελέτη (προσομοιώσεις) για να δούμε σε ποια κατάσταση θα είναι μετά από κάποιο χρονικό διάστημα Παράδειγμα: εξέλιξη γαλαξιών (σώματα = πλανήτες / αστέρια κλπ., δυνάμεις = βαρυτικές, κατάσταση = η θέση των ουρανίων σωμάτων) 32

Εξέλιξη γαλαξιών f ij Gm m i x i j ( x x i 3 j x j ) N j 1 F i f ij. F i m i 2 d x 2 dt i. 33

Σειριακό πρόγραμμα /* [0.. ΜΑΧ_ΤΙΜΕ]: the time interval we want to study * f(i,j): force between i and j (using 1) * xnew(k,f[k]): new position of k (using 3) */ for (t = 0; t < MAX_TIME; t = t + deltat) { for (i = 0; i < N; i++) { F[i] = zero(); /* calculate sum (using 2) */ for (j = 0; j < N; j++) F[i] = add( F[i], f(i,j) ); } for (k = 0; k < N; k++) xnew( k, F[k] ); /* calculate new positions */ } 34

Οι υπολογισμοί των F[] ανεξάρτητοι /* [0.. ΜΑΧ_ΤΙΜΕ]: the time interval we want to study * f(i,j): force between i and j (using 1) * xnew(k,f[k]): new position of k (using 3) */ for (t = 0; t < MAX_TIME; t = t + deltat) { DO EACH i-iteration IN PARALLEL: for (i = 0; i < N; i++) { F[i] = zero(); /* calculate sum (using 2) */ for (j = 0; j < N; j++) F[i] = add( F[i], f(i,j) ); } for (k = 0; k < N; k++) xnew( k, F[k] ); /* calculate new positions */ } 35

Οι υπολογισμοί των x[] ανεξάρτητοι /* [0.. ΜΑΧ_ΤΙΜΕ]: the time interval we want to study * f(i,j): force between i and j (using 1) * xnew(k,f[k]): new position of k (using 3) */ for (t = 0; t < MAX_TIME; t = t + deltat) { DO EACH i-iteration IN PARALLEL: for (i = 0; i < N; i++) { F[i] = zero(); /* calculate sum (using 2) */ for (j = 0; j < N; j++) F[i] = add( F[i], f(i,j) ); } DO EACH k-iteration IN PARALLEL: for (k = 0; k < N; k++) xnew( k, F[k] ); /* calculate new positions */ } 36

Οι υπολογισμοί των x[] εξαρτώνται από τα F[]!! /* [0.. ΜΑΧ_ΤΙΜΕ]: the time interval we want to study * f(i,j): force between i and j (using 1) * xnew(k,f[k]): new position of k (using 3) */ for (t = 0; t < MAX_TIME; t = t + deltat) { DO EACH i-iteration IN PARALLEL: for (i = 0; i < N; i++) { F[i] = zero(); /* calculate sum (using 2) */ for (j = 0; j < N; j++) F[i] = add( F[i], f(i,j) ); } WAIT TILL ALL F[] HAVE BEEN CALCULATED } DO EACH k-iteration IN PARALLEL: for (k = 0; k < N; k++) xnew( k, F[k] ); /* calculate new positions */ 37

Μεγάλη προσοχή!! /* [0.. ΜΑΧ_ΤΙΜΕ]: the time interval we want to study * f(i,j): force between i and j (using 1) * xnew(k,f[k]): new position of k (using 3) */ for (t = 0; t < MAX_TIME; t = t + deltat) { DO EACH i-iteration IN PARALLEL: for (i = 0; i < N; i++) { F[i] = zero(); /* calculate sum (using 2) */ for (j = 0; j < N; j++) F[i] = add( F[i], f(i,j) ); } WAIT TILL ALL F[] HAVE BEEN CALCULATED DO EACH k-iteration IN PARALLEL: for (k = 0; k < N; k++) xnew( k, F[k] ); /* calculate new positions */ WAIT TILL ALL x[] HAVE BEEN CALCULATED } 38

Καλύτερος βρόχος j Λόγω συμμετρίας των δυνάμεων: for (j = 0; j < i; j++) { g = f(i,j); F[i] = add( F[i], g ); F[j] = subtract( F[j], g ); } Προβλήματα, πλέον! Εξαρτήσεις μεταξύ επαναλήψεων Ανισοκατανομή φόρτου 39

Παράλληλες αρχιτεκτονικές Κατά Flynn (1972) SISD (Single-Instruction, Single-Data) SIMD (Single-Instruction, Multiple-Data) MIMD (Multiple-Instruction, Multiple-Data) 40

41

Υπολογιστές SIMD Πρωτοπόρα συστήματα ( 70 & 80) Ακριβοί οι αυτόνομοι επεξεργαστές Κυρίως ερευνητικά, εξειδικευμένα μηχανήματα Illiac IV Επηρέασαν τα κατοπινά συστήματα «επεξεργαστές πίνακα» (array processors) Πλέον μόνο για ειδικού σκοπού συστήματα (π.χ. systolic arrays) Επανεμφάνιση ως: SWAR (SIMD-Within-A-Register: MMX, SSE, κλπ) GPUs! 42

Πολυεπεξεργαστές κοινής & κατανεμημένης μνήμης (MIMD) Επ. 1 Επ. K ΔΙΑΣΥΝΔΕΣΗ ΕΠΕΞΕΡΓΑΣΤΩΝ-ΜΝΗΜΩΝ Κόμβος 1 Κόμβος 2 Κόμβος Ν ΚΟΙΝΕΣ ΜΝΗΜΕΣ ΔΙΚΤΥΟ ΔΙΑΣΥΝΔΕΣΗΣ ΚΟΜΒΩΝ 43

0 0 0 3 K 2 Πλήρεις γράφοι 0 1 Ν 1 1 1 2 1 2 Γραμμικός γράφος K 3 K 4 (0,0) (0,1) (0,2) (0,Μ 1) (1,0) (1,1) (1,Μ 1) (Μ 1,Μ 1) Πλέγμα Μ Μ Πλέγμα 4 3 2 (0,0) 1/001 5/101 0/000 4/100 3/011 7/111 2/010 6/110 (Μ 1,Μ 1) Torus Μ Μ Τρισδιάστατος κύβος 44

Παράλληλος προγραμματισμός (έμμεσος / άμεσος) Ο έμμεσος δεν δίνει καλά αποτελέσματα «Παραλληλοποιητικοί» μεταφραστές που από σειριακό πρόγραμμα παράγουν αυτόματα (ή με κάποια βοήθεια από τον προγραμματιστή) ένα ισοδύναμο παράλληλο πρόγραμμα. Ο άμεσος είναι που μας ενδιαφέρει, αλλά πιο «δύσκολος»: Εξάρτηση από αρχιτεκτονική Ασυμβατότητα μηχανών Πολλά προγραμματιστικά μοντέλα Παραλληλισμού δεδομένων (data parallelism) Κοινού χώρου διευθύνσεων (shared address space) Μεταβίβασης μηνυμάτων (message passing) 45

Βασική μεθοδολογία παραλληλοποίησης Διαχωρισμός (διάσπαση + ανάθεση) + τοποθέτηση (ενορχήστρωση + αντιστοίχηση) Διαχωρισμός (partitioning) Διάσπαση (decomposition) σε εργασίες (tasks) κόκκος παραλληλίας Ανάθεση (assignment) σε διεργασίες (processes) ισοκατανομή φόρου, μείωση επικοινωνιών Τοποθέτηση (placement) Ενορχήστρωση διεργασιών καθορισμός σειράς εκτέλεσης, προγραμματιστικό μοντέλο Αντιστοίχηση (mapping) σε επεξεργαστές στατική, δυναμική 46

Διάσπαση και ανάθεση Διάσπαση: 1. F[i] = add( F[i], f(i,j) ); 2. for (j = 0; j < N; j = j+1) F[i] = add( F[i], f(i,j) ); Ανάθεση σε διεργασία: Process-k : { for (i = (k-1)*n/p; i < k*n/p; i++) { F[i] = zero(); for (j = 0; j < N; j = j+1) F[i] = add( F[i], f(i,j) ); } } 47