Παράλληλος Προγραμματισμός σε Επεξεργαστές Γραφικών

Σχετικά έγγραφα
Παράλληλος Προγραμματισμός σε Επεξεργαστές Γραφικών

Παράλληλος Προγραμματισμός σε Επεξεργαστές Γραφικών

Παράλληλος Προγραμματισμός σε Επεξεργαστές Γραφικών

Παράλληλος προγραμματισμός σε επεξεργαστές γραφικών

Παράλληλος Προγραμματισμός με OpenCL

Προγραμματισμός GPUs μέσω του περιβάλλοντος CUDA

CUDA Compute Unified Device Architecture

ΕΘΝΙΚΟ ΚΑΙ ΚΑΠΟΔΙΣΤΡΙΑΚΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ

ΣΥΣΤΗΜΑΤΑ ΠΑΡΑΛΛΗΛΗΣ ΕΠΕΞΕΡΓΑΣΙΑΣ 9o εξάμηνο ΗΜΜΥ, ακαδημαϊκό έτος

Ανάπτυξη αλγόριθμου Closest Pair με CUDA API

Προγραμματισμός Συστημάτων Υψηλών Επιδόσεων (ΗΥ421) Εργασία Εξαμήνου

Εισαγωγή στον GPGPU προγραμματισμό 50,000, ,000,000 (1 από 2) 19/5/2018

Οργάνωση επεξεργαστή (2 ο μέρος) ΜΥΥ-106 Εισαγωγή στους Η/Υ και στην Πληροφορική

ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ

Παράλληλα Συστήματα. Γιώργος Δημητρίου. Ενότητα 3 η : Παράλληλη Επεξεργασία. Πανεπιστήμιο Θεσσαλίας - Τμήμα Πληροφορικής

Ετήσια Τεχνική Έκθεση

ΤΕΧΝΙΚΕΣ ΑΥΞΗΣΗΣ ΤΗΣ ΑΠΟΔΟΣΗΣ ΤΩΝ ΥΠΟΛΟΓΙΣΤΩΝ I

ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ

ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ. Άσκηση 5: Παράλληλος προγραμματισμός σε επεξεργαστές γραφικών

Αρχιτεκτονική Υπολογιστών

Μηχανοτρονική. Τμήμα Μηχανικών Παραγωγής και Διοίκησης 7 ο Εξάμηνο,

Προσομοιώσεις Monte Carlo σε GPU

ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ Σχολή Μηχανολόγων Μηχανικών Εργαστήριο Θερμικών Στροβιλομηχανών

Παράλληλη Επεξεργασία

ii Πυργιώτης Θεμιστοκλής

Π Τ Υ Χ Ι Α Κ Η / Δ Ι Π Λ Ω Μ ΑΤ Ι Κ Η Ε Ρ ΓΑ Σ Ι Α

Είναι το «μυαλό» του υπολογιστή μας. Αυτός κάνει όλους τους υπολογισμούς και τις πράξεις. Έχει δική του ενσωματωμένη μνήμη, τη λεγόμενη κρυφή

Κατανεμημένο Σύστημα Διαχείρισης Εργασιών Απομακρυσμένης Εκτέλεσης Κώδικα Για Επιταχυντές Γραφικών Σε Συστοιχίες Υπολογιστών ΔΙΠΛΩΜΑΤΙΚΗ ΕΡΓΑΣΙΑ

Συστήματα Παράλληλης & Κατανεμημένης Επεξεργασίας

Πτυχιακή εργασία της φοιτήτριας Λαδοπούλου Παρασκευής ΑΛΕΞΑΝΔΡΕΙΟ Τ.Ε.Ι. ΘΕΣΣΑΛΟΝΙΚΗΣ ΣΧΟΛΗ ΤΕΧΝΟΛΟΓΙΚΩΝ ΕΦΑΡΜΟΓΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΙΑΣ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ Η/Υ, ΤΗΛΕΠΙΚΟΙΝΩΝΙΩΝ ΚΑΙ ΔΙΚΤΥΩΝ

Πανεπιστήμιο Πειραιώς Τμήμα Πληροφορικής Πρόγραμμα Μεταπτυχιακών Σπουδών «Πληροφορική»

Παραλληλισμός Αλγορίθμων σε Κάρτες Γραφικών για Σχεδιασμό Κίνησης

ΑΡΙΣΤΟΤΕΛΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΟΝΙΚΗΣ

GPGPU. Grover. On Large Scale Simulation of Grover s Algorithm by Using GPGPU

Διεργασίες (μοντέλο μνήμης & εκτέλεσης) Προγραμματισμός II 1

Κεντρική Μονάδα Επεξεργασίας

Ιόνιο Πανεπιστήμιο Τμήμα Πληροφορικής Αρχιτεκτονική Υπολογιστών Κρυφές Μνήμες. (οργάνωση, λειτουργία και απόδοση)

Αρχιτεκτονική Υπολογιστών

Εισαγωγικά & Βασικές Έννοιες

Αρχιτεκτονική Υπολογιστών

Το ολοκληρωμένο κύκλωμα μιας ΚΜΕ. «Φέτα» ημιαγωγών (wafer) από τη διαδικασία παραγωγής ΚΜΕ

Αρχιτεκτονική Υπολογιστών

All Pairs Shortest Path

Προγραμματισμός Συστημάτων Υψηλών Επιδόσεων (ΗΥ421) 3η Εργαστηριακή Άσκηση

Διονύσιος Σαλονικίδης. Μεταπτυχιακός Φοιτητής. Διπλωματική Εργασία. Επιβλέπων: Κωνσταντίνος Μαργαρίτης, Καθηγητής. Τμήμα Εφαρμοσμένης Πληροφορικής

CUDA FFT. High Performance 3-D FFT in CUDA Environment. Akira Nukada, 1, 2 Yasuhiko Ogata, 1, 2 Toshio Endo 1, 2 and Satoshi Matsuoka 1, 2, 3

Ατομική Διπλωματική Εργασία ΕΚΤΕΛΕΣΗ ΤΟΥ QUERY 6 ΤΟΥ BENCHMARK TPC-H ΣΕ ΚΑΡΤΑ ΓΡΑΦΙΚΩΝ, ΜΕ CUDA. Μαρία Λοϊζίδη ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΥΠΡΟΥ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

Εισαγωγικά & Βασικές Έννοιες

Παράλληλα Συστήματα. Γιώργος Δημητρίου. Ενότητα 4 η : Παράλληλος Προγραμματισμός. Πανεπιστήμιο Θεσσαλίας - Τμήμα Πληροφορικής

Συστήματα Παράλληλης & Κατανεμημένης Επεξεργασίας

Κεντρική Μονάδα Επεξεργασίας. Επανάληψη: Απόδοση ΚΜΕ. ΚΜΕ ενός κύκλου (single-cycle) Παραλληλισμός σε επίπεδο εντολών. Υπολογιστικό σύστημα

Θέματα Μεταγλωττιστών

13.2 Παράλληλος Προγραµµατισµός Γλωσσάρι, Σελ. 1

ΑΡΧΙΤΕΚΤΟΝΙΚΗ HARDWARE ΥΠΟΛΟΓΙΣΤΙΚΩΝ ΣΥΣΤΗΜΑΤΩΝ

ΠΟΛΥΤΕΧΝΕΙΟ ΚΡΗΤΗΣ ΓΕΝΙΚΟ ΤΜΗΜΑ

ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ

Πολυπύρηνοι επεξεργαστές Multicore processors

Παραλληλισμός σε επίπεδο εντολών

QuakeTM: Parallelizing a Complex Sequential Application Using Transactional Memory (Gajinov et al., 2009)

Αρχιτεκτονικη υπολογιστων

Εικονική Μνήμη (Virtual Μemory)

Αρχιτεκτονική υπολογιστών

ΠΤΥΧΙΑΚΗ ΕΡΓΑΣΙΑ. Σχεδίαση παράλληλων αλγορίθμων ταξινόμησης και ψηφιακών φίλτρων (DSP) με εφαρμογή σε FPGA και CUDA. Αλέξανδρος Κ.

Ε-85: Ειδικά Θέµατα Λογισµικού

ΕΣ 08 Επεξεργαστές Ψηφιακών Σηµάτων. Βιβλιογραφία Ενότητας

ΘΕΜΑ PROJECT COMPILER FLAGS ΤΡΑΧΑΝΗΣ ΔΗΜΗΤΡΗΣ 6108 ΤΡΑΧΑΝΗΣ ΓΕΩΡΓΙΟΣ 5789

Παράλληλη Επεξεργασία

ΠΡΟΗΓΜΕΝΟΙ ΜΙΚΡΟΕΠΕΞΕΡΓΑΣΤΕΣ PROJECT 2: MEMORY MANAGEMENT

Πανεπιστήμιο Θεσσαλίας Τμήμα Μηχανικών Ηλεκτρονικών Υπολογιστών Τηλεπικοινωνιών & Δικτύων

Προχωρηµένα Θέµατα Αρχιτεκτονικής

ΑΠΟΤΕΛΕΣΜΑΤΑ ΔΙΑΒΟΥΛΕΥΣΗΣ. Προκήρυξη Διαγωνισμού για την «Προμήθεια Εξοπλισμού Κόμβου Μηχανικής Μάθησης» /

Ενσωµατωµένα Υπολογιστικά Συστήµατα (Embedded Computer Systems)

EM 361: Παράλληλοι Υπολογισμοί

Αρχιτεκτονική Υπολογιστών

Επίλυση ιδιάστατης Ροής µε Κεντροκυψελική ιατύπωση σε Μη- οµηµένα Πλέγµατα. Προγραµµατισµός σε Επεξεργαστές Καρτών Γραφικών.

Ιεραρχία Μνήμης. Ιεραρχία μνήμης και τοπικότητα. Σκοπός της Ιεραρχίας Μνήμης. Κρυφές Μνήμες

Συστήματα Παράλληλης & Κατανεμημένης Επεξεργασίας

Διεργασίες και Νήματα (2/2)

Η πολυνηματική γλώσσα προγραμματισμού Cilk

Αρχιτεκτονική Επεξεργαστών Ψ.Ε.Σ

Κεφάλαιο 3 Αρχιτεκτονική Ηλεκτρονικού Τμήματος (hardware) των Υπολογιστικών Συστημάτων ΕΡΩΤΗΣΕΙΣ ΑΣΚΗΣΕΙΣ

9. Συστολικές Συστοιχίες Επεξεργαστών

Οργάνωση Υπολογιστών (ΙI)

ΕΘΝΙΚΟ ΜΕΤΣΟΒΙΟ ΠΟΛΥΤΕΧΝΕΙΟ ΔΙΑΤΜΗΜΑΤΙΚΟ ΠΡΟΓΡΑΜΜΑ ΜΕΤΑΠΤΥΧΙΑΚΩΝ ΣΠΟΥΔΩΝ ΥΠΟΛΟΓΙΣΤΙΚΗΣ ΜΗΧΑΝΙΚΗΣ ΜΕΤΑΠΤΥΧΙΑΚΗ ΕΡΓΑΣΙΑ

Διαφορές single-processor αρχιτεκτονικών και SoCs

ΠΛΕ- 074 Αρχιτεκτονική Υπολογιστών 2

ΑΡΙΣΤΟΤΕΛΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΟΝΙΚΗΣ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΙΑΣ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ Η/Υ ΤΗΛΕΠΙΚΟΙΝΩΝΙΩΝ ΚΑΙ ΔΙΚΤΥΩΝ. Διπλωματικη Εργασια. Γεωργία Ε. Κρόκου

Βασικές Έννοιες Πρ Ταο υγρ τόα χ μ ρ μ ο α ν τισμ ος Π ό ρ ςο ΙΙΙ γραμματισμός 1

Ασκήσεις στα Προηγμένα Θέματα Αρχιτεκτονικής Υπολογιστών

Συστήματα μνήμης και υποστήριξη μεταφραστή για MPSoC


MIPS Interactive Learning Environment. MILE Simulator. Version 1.0. User's Manual

ΑΡΙΣΤΟΤΕΛΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΟΝΙΚΗΣ

Υ- 01 Αρχιτεκτονική Υπολογιστών Front- end: Προσκόμιση, αποκωδικοποίηση, μετονομασία καταχωρητών

Ατομική Διπλωματική Εργασία ΣΥΓKΡΙΣΗ ΕΠΙΔΟΣΗΣ ΚΑΙ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΥ ΜΕ ΤΗΝ ΧΡΗΣΗ ΤΗΣ OPENACC ΚΑΙ ΤΗΣ CUDA. Ανδρέας Κωνσταντίνου ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΥΠΡΟΥ

Τεχνικές για διαμοιρασμό φορτίου και μακροεντολές Broadcast - Scatter για αποδοτικές πολύ-επεξεργαστικές εφαρμογές

Προγραμματισμός Ταυτόχρονος Προγραμματισμός

Συγκριτική μελέτη διεπιφανειών παράλληλου προγραμματισμού σε εφαρμογές εύρεσης κωδικού κρυπτογραφημένου με αλγόριθμο MD5

Transcript:

Παράλληλος Προγραμματισμός σε Επεξεργαστές Γραφικών Συστήματα Παράλληλης Επεξεργασίας 9ο εξάμηνο, ΣΗΜΜΥ Εργαστήριο Υπολογιστικών Συστημάτων (CSLab) Νοέμβριος 2016

1 Εισαγωγικά 2 Compute Unified Device Architecture (CUDA) CUDA parallel computing platform CUDA programming model 3 CUDA C 4 Ζητήματα επίδοσης 5 Χρήσιμα links 2 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

1 Εισαγωγικά 2 Compute Unified Device Architecture (CUDA) CUDA parallel computing platform CUDA programming model 3 CUDA C 4 Ζητήματα επίδοσης 5 Χρήσιμα links 3 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

Τι είναι οι Επεξεργαστές Γραφικών (GPUs); Επιταχυντές για την επεξεργασία γραφικών Υψηλός παραλληλισμός σε εφαρμογές γραφικών (visualization, games, κ.λπ.) Αρχικά, σχεδιάστηκαν μόνο για αυτό (hardwired logic, little to no programmability) Η ιδέα της επιτάχυνσης υπολογισμών υπάρχει από τα 70's Για μαθηματικές πράξεις Για ειδικές υπολογιστικά απαιτητικές λειτουργίες (signal processing, encryption κ.λπ.) Οι GPUs σήμερα "Fully" programmable από το 2006 Χρησιμοποιούνται ευρέως για την επιτάχυνση data και compute intensive εφαρμογών 4 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

Γιατί GPUs; Πολύ μεγάλη υπολογιστική ισχύς (> 1 TFLOPS) Καλή ενεργειακή απόδοση CPU > 1000pJ/instruction vs GPU < 200pJ/instruction Μέσα στο top-10 του Green500 τα τελευταία χρόνια Χαμηλότερο $/performance Μαζικά παράλληλοι επεξεργαστές (massively parallel/threaded) 5 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CPU vs GPU architecture CPUs - optimized for single-thread performance of legacy workloads Λίγα και σύνθετα cores (2-22) Υψηλή συχνότητα ρολογιού (2-4 GΗz) Μικρό register file Σύνθετο control logic -- branch prediction -- in-order execution Λίγα και ισχυρά ALUs (2-16) Small-scale simultaneous multi-threading Memory prefetchers Υποσύστημα μνήμης 3-4 επίπεδα κρυφής μνήμης Kρυφές μνήμες μεγάλης χωρητικότητας ( MB) Μέτριο εύρος ζώνης κύριας μνήμης ( 60 GB/s) Thread scheduling handled by software (OS) Χρονοβόρο context-switching 6 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CPU vs GPU architecture GPUs - optimized for aggregate performance of data-parallel workloads 7 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας Περισσότερα και απλούστερα cores (16-60) Μικρότερη συχνότητα ρολογιού (0.6-1.6 GΗz) Μεγάλο register file Απλούστερο control logic -- no branch prediction -- no out-of-order execution Πολλά, αλλά απλούστερα ALUs (64-192) Large-scale interleaved multi-threading Υποσύστημα μνήμης 1-2 επίπεδα κρυφής μνήμης Kρυφές μνήμες μικρής χωρητικότητας ( KB) Υψηλό εύρος ζώνης κύριας μνήμης (>300 GB/s) Thread scheduling handled entirely by hardware Zero-cost context-switching

Flynn's Taxonomy CPUs vs GPUs. CPUs. ṂIMD + SIMD SIMD implementation: "explicit" με επεκτάσεις του ISA (π.χ. ΜΜΧ, SSE, AVX extensions για x86) ο προγραμματιστής (ή ο μεταγλωττιστής) προσαρμόζει ρητά τον κώδικα η αντιμετώπιση της "διαφοροποίησης εκτέλεσης" είναι απαραίτητη για την ορθότητα του προγράμματος -- masking 8 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

Flynn's Taxonomy CPUs vs GPUs. GPUs. ṢIMD SIMD implementation: "implicit" με διαχείριση από το hardware ο προγραμματιστής (ή ο μεταγλωττιστής) παράγει σειριακό κώδικα τα νήματα μπορούν να διαφοροποιούνται ελεύθερα -- μπορεί να επηρεάσει αρνητικά την επίδοση η αντιμετώπιση της "διαφοροποίησης εκτέλεσης" αποτελεί βελτιστοποίηση 9 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

GPGPU General-Purpose computation on Graphics Processing Units χρήση των GPUs για επιτάχυνση υψηλά παραλληλοποιήσιμων υπολογιστικών προβλημάτων γενικού σκοπού Ποιες εφαρμογές είναι ιδανικές για GPGPU; υψηλός παραλληλισμός υψηλό arithmetic intensity μεγάλα data sets Πώς γίνεται ο GPGPU προγραμματισμός; Vendor specific interfaces: -- Nvidia CUDA -- AMD Stream Generic interfaces: -- OpenCL -- OpenACC -- OpenMP (?) 10 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

GPGPU Processing flow Βασικά βήματα: 1. Αντιγραφή των δεδομένα που θέλουμε να επεξεργαστούμε από τη μνήμη της CPU στη μνήμη της GPU 2. Η CPU αναθέτει τον υπολογισμό στην GPU 3. Ο υπολογισμός εκτελείται στην GPU 4. Αντιγραφή των αποτελεσμάτων του υπολογισμού από τη μνήμη της GPU στη μνήμη της CPU 11 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

1 Εισαγωγικά 2 Compute Unified Device Architecture (CUDA) CUDA parallel computing platform CUDA programming model 3 CUDA C 4 Ζητήματα επίδοσης 5 Χρήσιμα links 12 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

Compute Unified Device Architecture (CUDA) Parallel computing platform + programming model Aναπτύχθηκε από την NVIDIA ειδικά για GPGPU computing 13 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

1 Εισαγωγικά 2 Compute Unified Device Architecture (CUDA) CUDA parallel computing platform CUDA programming model 3 CUDA C 4 Ζητήματα επίδοσης 5 Χρήσιμα links 14 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA parallel computing platform Γενική αρχιτεκτονική μίας NVIDIA GPU Κάθε συσκευή GPU αποτελείται από συστοιχίες πολυεπεξεργαστών ροών (Streaming Multiprocessors -- SMs) Κάθε πολυεπεξεργαστής ροών αποτελείται από: Eπεξεργαστές ροών (Streaming Processors -- SPs ή αλλιώς CUDA cores) Πολύ μεγάλο αρχείο καταχωρητών (8K -- 32K) Shared memory Constant cache (read-only) Texture cache... Πηγή: NVIDIA CUDA Programming Guide 15 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA parallel computing platform Βασική δομική μονάδα: Streaming Multiprocessor (SM) Υποστηρίζονται εκατοντάδες ενεργά νήματα ανά SM Κάθε SM αναλαμβάνει να εκτελέσει ένα ή περισσότερα μπλοκ από νήματα (thread blocks) Όλα τα νήματα ενός thread block μοιράζονται τους πόρους του SM Τα νήματα οργανώνονται περαιτέρω σε ομάδες των 32 νημάτων (warps) και δρομολογούνται από τον(τους) warp scheduler(s) στα cores που το αποτελούν Σε κάθε κύκλο ρολογιού όλα τα cores εκτελούν την ίδια εντολή για κάθε νήμα του warp που δρομολογήθηκε Η χρονοδρομολόγηση των warps ενός μπλοκ έχει μηδαμινό κόστος Πηγή: NVIDIA CUDA Programming Guide 16 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA parallel computing platform Παράδειγμα: αρχιτεκτονική Fermi Πηγή: NVIDIA CUDA Programming Guide 17 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA parallel computing platform Δυνατότητες συσκευών Οι δυνατότητες κάθε συσκευής καθορίζονται από το ``compute capability'' <major>.<minor> Ο αριθμός major δηλώνει έκδοση της κύριας αρχιτεκτονικής Ο αριθμός minor δηλώνει βελτιώσεις της αρχιτεκτονικής Microarchitecture Comp. Capability Tesla 1.x Fermi 2.x Kepler 3.x Maxwell 5.x 18 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

1 Εισαγωγικά 2 Compute Unified Device Architecture (CUDA) CUDA parallel computing platform CUDA programming model 3 CUDA C 4 Ζητήματα επίδοσης 5 Χρήσιμα links 19 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA programming model Heterogeneous Συμμετέχουν η CPU (ως host) και η GPU (ως device) Η εκτέλεση υπολογισμών στην GPU γίνονται μέσα από kernel launches kernel = ο κώδικας που εκτελεί κάθε νήμα (σειριακός) Κάθε kernel εκτελείται N φορές, όπου Ν ο αριθμός των νημάτων που ορίζονται από τον προγραμματιστή Single Instruction Multiple Thread (SIMT) μοντέλο εκτέλεσης Κλιμακώσιμο Το ίδιο εκτελέσιμο μπορεί να τρέξει σε πολλές διαφορετικές κάρτες γραφικών 20 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA programming model Thread abstraction Κάθε υπολογιστικός πυρήνας (kernel) που ανατίθεται προς εκτέλεση στην GPU οργανώνεται από τον προγραμματιστή σε ένα πλέγμα (grid) από νήματα grid. thread block thread block warp warp 32 threads Το grid και τα thread blocks μπορούν να είναι 1D, 2D ή 3D Υπάρχουν περιορισμοί στις διαστάσεις του grid και του thread block (ανάλογα με το compute capability) 21 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA programming model Thread abstraction Τι αναπαριστά ένα CUDA thread; ένα ανεξάρτητο νήμα εκτέλεσης με δικό του program counter, καταχωρητές, processor state κ.λπ. Τι αναπαριστά ένα CUDA thread block; ένα (data) parallel και ανεξάρτητο task όλα τα thread blocks έχουν το ίδιο σημείο εισόδου, αλλά μπορούν να διαφοροποιηθούν στην εκτέλεση κώδικα το πρόγραμμα οφείλει να είναι ορθό για οποιαδήποτε σειρά εκτέλεσης των threads blocks 22 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA programming model Thread abstraction Σε κάθε νήμα εκτέλεσης ανατίθεται ένα μοναδικό ID εντός του thread block στο οποίο ανήκει Το ID κάθε νήματος προσδιορίζεται από τις «συντεταγμένες» του εντός του thread block στο οποίο ανήκει Για μπλοκ (Dx, Dy), το ID του νήματος (x, y) είναι x + yd x Για μπλοκ (Dx, Dy, Dz), το ID του νήματος (x, y, z) είναι x + yd x + zd xd y Η οργάνωση των νημάτων ενός thread block σε warps γίνεται σειριακά με βάση τα IDs των νημάτων το warp 0 περιέχει τα νήματα με IDs 0-31, το warp 1 τα νήματα με IDs 32-63, κ.ο.κ. αν ο αριθμός νημάτων του thread block δεν είναι πολλαπλάσιο του warp size (32) τότε το τελευταίο warp θα συμπληρωθεί με νήματα τα οποία θα είναι «μαρκαρισμένα» ως ανενεργά Τα IDs χρησιμοποιούνται συνήθως για την ανάθεση δεδομένων σε νήματα 23 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA programming model Υποστηριζόμενοι τρόποι παραλληλοποίησης Thread parallelism κάθε νήμα είναι ένα ανεξάρτητο νήμα εκτέλεσης Data parallelism ανάμεσα σε νήματα ενός thread block ανάμεσα σε thread blocks ενός grid Task parallelism ανάμεσα σε thread block ενός grid ανάμεσα σε kernels 24 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA programming model Συγχρονισμός Εντός ενός thread block (ή SM): Memory fences Barriers Atomic operations (compute capability >= 1.1) Καθολικά: Μεταξύ διαδοχικών κλήσεων πυρήνων Atomic operations (compute capability >= 1.1) 25 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA programming model Αρχιτεκτονικά στοιχεία που εκτίθενται στο Π.Μ. Σχεδόν `1-1' αναλογία μεταξύ αρχιτεκτονικής και Π.Μ. Αρχιτεκτονικό στοιχείο Εκτίθεται GPC ΟΧΙ SM ΟΧΙ SP ΟΧΙ Warp ΝΑΙ Έμμεσα Thread Block ΝΑΙ Grid ΝΑΙ Καθολική μνήμη ΝΑΙ Μνήμη σταθερών ΝΑΙ Μνήμη textures ΝΑΙ Μοιραζόμενη μνήμη ΝΑΙ Τοπική μνήμη ΝΑΙ Μέσω assembly Caches ΟΧΙ (Εξαίρεση L1/shared στις Fermi) 26 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA programming model Πρόσβαση στην ιεραρχία μνήμης Η ιεραρχία μνήμης εκτίθεται στο Π.Μ. και μπορεί να την χειριστεί ο προγραμματιστής Διαμοιρασμός της ιεραρχίας Καθολική μνήμη Όλα τα blocks Μνήμη σταθερών Όλα τα blocks Μνήμη textures Όλα τα blocks Μοιραζόμενη μνήμη Όλα τα νήματα ενός block Register file Όλα τα νήματα ενός block 27 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

1 Εισαγωγικά 2 Compute Unified Device Architecture (CUDA) CUDA parallel computing platform CUDA programming model 3 CUDA C 4 Ζητήματα επίδοσης 5 Χρήσιμα links 28 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA C Επέκταση της C με επιπλέον τύπους και προσδιοριστές Χρησιμοποιεί το front-end της C++ Πολυμορφισμός Παράμετροι προεπιλογής (default parameters) Υπερφόρτωση τελεστών Χώροι ονομάτων (namespaces) Πρότυπα συναρτήσεων (function templates) Αρχεία πηγαίου κώδικα με κατάληξη.cu Μεταγλωττιστής: nvcc Κώδικας που πρόκειται να τρέξει στην CPU (host code) Κώδικας που πρόκειται να τρέξει στην GPU (device code) Χρησιμοποιεί τον μεταγλωττιστή του συστήματος για την παραγωγή κώδικα για την CPU 29 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA C Διαδικασία μεταγλώττισης και εκτέλεσης $ nvcc o my_gpu_prog my_prog. cu + Just-In-Time μεταγλώττιση του πυρήνα GPU. nvcc front-end host compiler nvcc core PTX assembly fat binary for VM 30 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA C Διαχωρισμός κώδικα host/device Με χρήση προσδιοριστών (qualifiers) συναρτήσεων device Εκτελείται στην συσκευή Μπορεί να κληθεί μόνο από κώδικα της συσκευής host Εκτελείται στο host Μπορεί να κληθεί μόνο από κώδικα του host global Εκτελείται στην συσκευή Συνήθως αναφέρεται ως GPU kernel 31 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA C Διαχωρισμός κώδικα host/device -- Παράδειγμα device i n t g e t _ t h r e a d _ i d ( ) { r e t u r n (... ) ; } global void my_gpu_kernel ( const f l o a t * input, f l o a t * r e s u l t ) { i n t t i d = g e t _ t h r e a d _ i d ( ) ;... } i n t main ( ) { f l o a t * my_input, * my_result ;... my_gpu_kernel <<<G, B>>>(my_input, m y_result ) ; } 32 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA C Διαχωρισμός κώδικα host/device -- Περιορισμοί για τις συναρτήσεις συσκευής Δεν υποστηρίζονται static μεταβλητές Δεν μπορούν να δεχτούν μεταβλητό αριθμό ορισμάτων Οι συναρτήσεις global δεν πρέπει να επιστρέφουν τιμή Κάθε κλήση συνάρτησης global θα πρέπει να προσδιορίζει τις παραμέτρους εκτέλεσης (blocks, grid, κ.λπ.) Τα ορίσματα στις συναρτήσεις global πρέπει να είναι μέχρι 256 byte 33 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA C Προσδιοριστές μεταβλητών device Βρίσκεται στην καθολική μνήμη Προσβάσιμη από όλα τα blocks constant Βρίσκεται στην μνήμη σταθερών Προσβάσιμη από όλα τα blocks shared Βρίσκεται στην μοιραζόμενη μνήμη του SM Προσβάσιμη από όλα τα νήματα ενός thread block Π.χ., πίνακας 256 floats στην μοιραζόμενη μνήμη: shared f l o a t a r r a y [ 2 5 6 ] ; 34 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA C Περιβάλλον εκτέλεσης και οργάνωση νημάτων -- Κλήση πυρήνων Κατά την κλήση ενός πυρήνα για την GPU θα πρέπει να προσδιορίζονται πάντα το μέγεθος του block και του grid Παράδειγμα δημιουργίας μονοδιάστατου block 32 νημάτων και αντίστοιχου grid: i n t main (... ) {... dim3 block ( 3 2 ) ; dim3 g r i d ( N / 3 2 ) ; my_gpu_kernel <<<grid, block > > > (... ) ;... }. Η κλήση του πυρήνα μπορεί να αποτύχει, εάν δεν επαρκούν οι πόροι της. συσκευής (registers, shared memory) 35 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA C Περιβάλλον εκτέλεσης και οργάνωση νημάτων -- Προσδιορισμός νήματος Το ID κάθε νήματος προσδιορίζεται από τις «συντεταγμένες» του εντός του block στο οποίο ανήκει Η CUDA C ορίζει τις εξής μεταβλητές: uint3 threadidx: οι συντεταγμένες του νήματος εντός του τρέχοντος block uint3 blockidx: οι συντεταγμένες του block εντός του grid dim3 blockdim: οι διαστάσεις του block dim3 griddim: οι διαστάσεις του grid Π.χ., το ID του τρέχοντος νήματος ενός μονοδιάστατου block σε ένα μονοδιάστατο grid είναι local_tid = threadidx. x, εντός του block global_tid = threadidx.x + blockdim.x*blockidx.x, εντός του grid 36 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA C Πρόσβαση στην ιεραρχία μνήμης Μνήμη σταθερών Με χρήση του προσδιοριστή constant Μοιραζόμενη μνήμη Με χρήση του προσδιοριστή shared Μνήμη textures Με χρήση ειδικών δομών που ονομάζονται texture references Τοπική μνήμη Με χρήση του προσδιοριστή. local στην PTX assembly 37 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA C Πρόσβαση στην ιεραρχία μνήμης -- Μοιραζόμενη μνήμη Το μέγεθος της μοιραζόμενης μνήμης μπορεί να καθοριστεί και κατά την κλήση μίας global συνάρτησης Κώδικας πυρήνα global my_gpu_kernel (... ) { } e x t e r n shared f l o a t shmem_buff [ ] ;... Κλήση του πυρήνα i n t main ( ) { }... shmem_size = 32* s i z e o f ( f l o a t ) ; my_gpu_kernel <<<G, B, shmem_size > > > (... ) ;... 38 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA C Συγχρονισμός Memory fences Εγγυάται ότι όλες οι προσβάσεις στην μνήμη (global ή shared) μέχρι αυτό το σημείο έχουν πραγματοποιηθεί threadfence(), threadfence_block() Barriers Εγγυάται ότι όλα τα νήματα του block έχουν φτάσει σε κάποιο σημείο και όλες οι προσβάσεις που έχουν γίνει στην μνήμη (global ή shared) έχουν πραγματοποιηθεί syncthreads() Ατομικές συναρτήσεις Αναφορές στην μνήμη (global, shared) atomicadd(), atomicinc () κ.ο.κ.. Καθολικός συγχρονισμός..μόνο μεταξύ διαδοχικών κλήσεων του πυρήνα 39 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA C Runtime Environment Συναρτήσεις διαχείρισης μνήμης cudamalloc(), cudafree() cudamallochost(), cudafreehost() Συναρτήσεις επικοινωνίας με την συσκευή cudamemcpy() Συναρτήσεις διαχείρισης σφαλμάτων cudagetlasterror () Συναρτήσεις διαχείρισης νημάτων cudathreadsynchronize(), cudathreadexit() Συναρτήσεις διαχείρισης της συσκευής Συναρτήσεις διαχείρισης γεγονότων cudaeventcreate(), cudaeventdestroy(), cudaeventelapsedtime(). Μεταγλώττιση..Συνδεση με την βιβλιοθήκη cudart, lcudart 40 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA C Παράδειγμα -- Άθροισμα διανυσμάτων -- Host code (1/2) i n t main ( ) { f l o a t a [ N ], b [ N ], c [ N ] ; f l o a t * dev_a, * dev_b, * dev_c ; / / A l l o c a t e memory on the GPU cudamalloc ( ( void * * ) & dev_a, N* s i z e o f ( i n t ) ) ; cudamalloc ( ( void * * ) & dev_b, N* s i z e o f ( i n t ) ) ; cudamalloc ( ( void * * ) & dev_c, N* s i z e o f ( i n t ) ) ; / / I n i t i a l i z e data on the CPU... / / Copy the a r r a y s ' a ' and ' b ' to the GPU cudamemcpy ( dev_a, a, N* s i z e o f ( i n t ), cudamemcpyhosttodevice ) ; cudamemcpy ( dev_b, b, N* s i z e o f ( i n t ), cudamemcpyhosttodevice ) ;... 41 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA C Παράδειγμα -- Άθροισμα διανυσμάτων -- Host code (2/2)... / / Launch the k e r n e l with N/128 thread b l o c k s / / of 128 t h r e a d s dim3 block ( 1 2 8 ) ; dim3 g r i d ( ( N+ 1 2 7 ) / 1 2 8 ) ; vec_add <<<grid, block >>>(dev_a, dev_b, dev_c, N ) ; / / Copy the a r r a y ' c ' back from the GPU to the CPU cudamemcpy ( c, dev_c, N* s i z e o f ( i n t ), cudamemcpydevicetohost ) ; / / Free the memory a l l o c a t e d on the GPU cudafree ( dev_a ) ; cudafree ( dev_b ) ; cudafree ( dev_c ) ; } r e t u r n 0 ; 42 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA C Παράδειγμα -- Άθροισμα διανυσμάτων -- Device code Ορίσαμε 1Δ grid και 1Δ block (γιατί;) Κάθε νήμα αναλαμβάνει τον υπολογισμό ενός στοιχείου global void vec_add ( const f l o a t * a, const f l o a t *b, f l o a t * c, i n t N ) { i n t t i d = blockdim. x * b l o c k I d x. x + t h r e a d I d x. x ; i f ( t i d >= N ) r e t u r n ; } c [ t i d ] = a [ t i d ] + b [ t i d ] ;. Τι θα συμβεί αν το Ν είναι αρκετά μεγάλο ώστε τα Ν/128 blocks να υπερβαίνουν το. επιτρεπτό όριο της διάστασης του grid; 43 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

CUDA C Παράδειγμα -- Άθροισμα διανυσμάτων -- Device code Ορίζουμε grid με fixed διαστάσεις μέσα στα επιτρεπτά όρια (ανεξάρτητες του N) Αναθέτουμε σε κάθε νήμα τον υπολογισμό περισσότερων στοιχείων global void vec_add ( const f l o a t * a, const f l o a t *b, f l o a t * c, i n t N ) { / / Grid s t r i d e loop f o r ( i n t t i d = blockdim. x * b l o c k I d x. x + t h r e a d I d x. x ; t i d < N ; t i d += blockdim. x * griddim. x ) { c [ t i d ] = a [ t i d ] + b [ t i d ] ; } }. Τώρα μπορούμε να προσθέσουμε διανύσματα οποιουδήποτε μήκους, περιοριζόμενοι μόνο. από το μέγεθος της RAM στην GPU 44 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

1 Εισαγωγικά 2 Compute Unified Device Architecture (CUDA) CUDA parallel computing platform CUDA programming model 3 CUDA C 4 Ζητήματα επίδοσης 5 Χρήσιμα links 45 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

Προϋποθέσεις για υψηλή επίδοση Συνένωση αναφορών στην καθολική μνήμη (memory access coalescing) Warps χωρίς διακλαδώσεις Εκμετάλλευση της μοιραζόμενης μνήμης Μεγάλος αριθμός νημάτων Υψηλή χρησιμοποίηση των SMs 46 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

Προϋποθέσεις για υψηλή επίδοση Συνένωση αναφορών στην καθολική μνήμη Κρύβει την καθυστέρηση πρόσβασης στην καθολική μνήμη Η καθολική μνήμη χωρίζεται σε τμήματα (segments) των 32, 64 ή 128 byte, ευθυγραμμισμένα (aligned) στα αντίστοιχα όρια Η πρόσβαση στην μνήμη γίνεται με διενέργειες (transactions) ανά τμήμα Με την συνένωση των αναφορών στην μνήμη επιδιώκουμε με ένα transaction να μεταφέρουμε όσο το δυνατόν περισσότερα χρήσιμα δεδομένα Αυστηρές προϋποθέσεις στην ακολουθία των αναφορών ανάμεσα στα νήματα και στο alignment των δεδομένων 47 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

Προϋποθέσεις για υψηλή επίδοση Συνένωση αναφορών στην καθολική μνήμη -- Προϋποθέσεις (I) Τα 16 νήματα ενός half-warp θα πρέπει να προσπελαύνουν είτε λέξεις 4-byte (ένα 64-byte transaction) είτε λέξεις 8-byte (ένα 128-byte transaction) είτε λέξεις 16-byte (δύο 128-byte transactions) Και οι 16 λέξεις θα πρέπει να βρίσκονται στο ίδιο memory segment Το k-οστό νήμα θα πρέπει να προσπελαύνει την k-οστή λέξη 48 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

Προϋποθέσεις για υψηλή επίδοση Συνένωση αναφορών στην καθολική μνήμη -- Προϋποθέσεις (II) Παράδειγμα πρόσβασης σε λέξεις 4 byte Συνεχόμενες και ευθυγραμμισμένες Aligned and sequential Addresses: 96 128 160 192 224 256 288 Threads: 0 31 Compute capability: Memory transactions: 1.0 and 1.1 1 x 64B at 128 1 x 64B at 192 Uncached 1.2 and 1.3 1 x 64B at 128 1 x 64B at 192 2.0 Cached 1 x 128B at 128 Πηγή: NVIDIA CUDA Programming Guide 49 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

Προϋποθέσεις για υψηλή επίδοση Συνένωση αναφορών στην καθολική μνήμη -- Προϋποθέσεις (III) Παράδειγμα πρόσβασης σε λέξεις 4 byte Μη συνεχόμενες και ευθυγραμμισμένες Aligned and non-sequential Addresses: 96 128 160 192 224 256 288 Threads: 0 31 Compute capability: Memory transactions: 1.0 and 1.1 8 x 32B at 128 8 x 32B at 160 8 x 32B at 192 8 x 32B at 224 Uncached 1.2 and 1.3 1 x 64B at 128 1 x 64B at 192 2.0 Cached 1 x 128B at 128 Πηγή: NVIDIA CUDA Programming Guide 50 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

Προϋποθέσεις για υψηλή επίδοση Συνένωση αναφορών στην καθολική μνήμη -- Προϋποθέσεις (IV) Παράδειγμα πρόσβασης σε λέξεις 4 byte Συνεχόμενες και μη ευθυγραμμισμένες Misaligned and sequential Addresses: 96 128 160 192 224 256 288 Threads: 0 31 Compute capability: Memory transactions: 1.0 and 1.1 Uncached 1.2 and 1.3 2.0 Cached 7 x 32B at 128 8 x 32B at 160 8 x 32B at 192 8 x 32B at 224 1 x 32B at 256 1 x 128B at 128 1 x 64B at 192 1 x 32B at 256 1 x 128B at 128 1 x 128B at 256 Πηγή: NVIDIA CUDA Programming Guide 51 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

Προϋποθέσεις για υψηλή επίδοση Warps χωρίς διακλαδώσεις Το SIMT μοντέλο επιτρέπει σε κάθε νήμα να ακολουθήσει διαφορετικό κλάδο, αλλά Κάθε κλάδος εκτελείται από όλα τα νήματα του warp, απενεργοποιώντας τα αντίστοιχα νήματα όταν εκτελείται ο ``not taken'' κλάδος τους Το πλήθος των χρήσιμων υπολογισμών ανά νήμα μειώνεται σημαντικά i f ( t h r e a d I d x. x > 2 ) { / / do s t u f f } i f ( t h r e a d I d x. x / WARP_SIZE > 2 ) { / / do s t u f f }. Divergence για το πρώτο warp. κάθε thread block!. Ṇo divergence! 52 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

Προϋποθέσεις για υψηλή επίδοση Εκμετάλλευση της μοιραζόμενης μνήμης Η πρόσβαση στην μοιραζόμενη μνήμη έχει μηδενικό κόστος Οργάνωση σε 16 ή 32 banks Διαδοχικές λέξεις ανατίθενται σε διαδοχικά banks Εκμετάλλευση της χρονικής τοπικότητας των προγραμμάτων Δύο φάσεις: 1. (Προ)φόρτωση των δεδομένων προς υπολογισμό 2. Υπολογισμοί με χρήση της μοιραζόμενης μνήμης. Περιορισμοί. Περιορισμένο μέγεθος (16--48 KiB) που μοιράζονται όλα τα νήματα ενός block. Μπορεί να οδηγήσει σε χαμηλή χρησιμοποιήση των SMs Προσοχή στα bank conflicts 53 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

Προϋποθέσεις για υψηλή επίδοση Υψηλή χρησιμοποιήση των SMs Κάθε SM υποστηρίζει ένα μέγιστο αριθμό ενεργών block (ή warps) Ένα warp είναι ενεργό όταν μπορεί να δρομολογηθεί Περισσότερα ενεργά νήματα μπορούν να κρύψουν τις καθυστερήσεις από την πρόσβαση στην καθολική μνήμη Η χρησιμοποιήση των SMs εξαρτάται από τις απαιτήσεις κάθε νήματος σε καταχωρητές και μοιραζόμενη μνήμη, το πλήθος των νημάτων ανά block 54 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

Προϋποθέσεις για υψηλή επίδοση Υψηλή χρησιμοποιήση των SMs -- Παράδειγμα Υποθέτουμε GPU με compute capability 1.0: Register file 8192 Shared memory 16384 Active blocks/sm 8 Active warps/sm 24 Υποθέτουμε πυρήνα με Block size 128 Register usage/thread 9 Shared memory usage/block 1024 Πόσα ενεργά warps υπάρχουν ανά SM? CUDA Occupancy calculator 55 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

OpenCL Ανοιχτό πρότυπο για παράλληλο προγραμματισμό σε ετερογενείς αρχιτεκτονικές (π.χ., CPU+GPU) Διάφορες υλοποιήσεις (NVIDIA, AMD κ.ά) Ίδιες αρχές με το μοντέλο CUDA, αλλά αρκετά πιο γενικευμένο με ελαφρώς διαφορετική ορολογία + Τρέχει παντού + Πολλές δυνατότητες, ανοιχτές υλοποιήσεις -- API που απαιτεί περίοδο εξοικείωσης -- Θέματα επίδοσης (αρχικές υλοποιήσεις) 56 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

1 Εισαγωγικά 2 Compute Unified Device Architecture (CUDA) CUDA parallel computing platform CUDA programming model 3 CUDA C 4 Ζητήματα επίδοσης 5 Χρήσιμα links 57 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

Χρήσιμα links www.gpgpu.org www.gpucomputing.net NVIDIA Developer Zone, https://developer.nvidia.com http://docs.nvidia.com/cuda/cuda-c-programming-guide OpenCL http://www.khronos.org/opencl 58 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας

Συζήτηση -- Ερωτήσεις 59 11 / 2016 Συστήματα Παράλληλης Επεξεργασίας