ΝΤUA. Τεχνολογία Πολυμέσων

Μέγεθος: px
Εμφάνιση ξεκινά από τη σελίδα:

Download "ΝΤUA. Τεχνολογία Πολυμέσων"

Transcript

1 ΝΤUA Τεχνολογία Πολυμέσων

2 Περιεχόμενα 2. Διάλεξη 2: Συμπίεση

3 Wh Comress? To reduce the volume of data to be transmitted tet, fa, images) To reduce the bandwidth required for transmission and to reduce storage requirements seech, audio, video)

4 A simle eamle Suose we have a message consisting of 5 smbols, e.g. [ ] How can we code this message using / so the coded message will have minimum length for transmission or saving!) 5 smbols at least 3 bits For a simle encoding, length of code is *3=3 bits

5 A simle eamle cont. Intuition: Those smbols that are more frequent should have smaller codes, et since their length is not the same, there must be a wa of distinguishing each code. The length of encoded message will be =3*2 +3*2+2*2+3+3=24bits

6 Κατηγορίες Συμπίεσης Συμπίεση χωρίς Απώλειες Μεθόδους χωρίς απώλεια πληροφορίας που χρησιμοποιούν μη απωλεστικούς lossless) αλγορίθμους. Οι συγκεκριμένες μέθοδοι συμπιέζουν τα δεδομένα με τέτοιοι τρόπο, ώστε να μην υπάρχει απώλεια πληροφορίας, ενώ επιτυγχάνουν μέτριο λόγο συμπίεσης. Έτσι μία εικόνα που συμπιέστηκε με μια τέτοια μέθοδο είναι ίδια με την αρχική, όταν αποσυμπιεστεί. Συμπίεση με Απώλειες Μεθόδους με απώλεια πληροφορίας που συμπιέζουν τα δεδομένα απορρίπτοντας μη ουσιώδη πληροφορία. Οι συγκεκριμένες μέθοδοι χρησιμοποιούν απωλεστικούς loss) αλγορίθμους και επιτυγχάνουν υψηλό λόγο συμπίεσης.

7 Lossless Comression Run Length Encoding RLE): aaaaaaabbbb 7a4b abababababa abababababa Lossless comression relies on inut being nonrandom to achieve comression.

8 Το μοντέλο του Επικοινωνιακού Συστήματος Πηγή Δέκτης s ŝ Κανάλι με Θόρυβο

9 Το μοντέλο του Επικοινωνιακού Συστήματος Πηγή Δέκτης s ŝ Κωδικοποίηση & Συμπίεση Πηγής q Κανάλι με Θόρυβο

10 Το μοντέλο του Επικοινωνιακού Συστήματος Πηγή Δέκτης s ŝ Κωδικοποίηση & Συμπίεση Πηγής q Αποκωδικοποίηση & Αποσυμπίεση Πηγής qˆ Κανάλι με Θόρυβο

11 Το μοντέλο του Επικοινωνιακού Συστήματος Πηγή Δέκτης s ŝ Κωδικοποίηση & Συμπίεση Πηγής Αποκωδικοποίηση & Αποσυμπίεση Πηγής q Κωδικοποιητής t Κανάλι με Θόρυβο qˆ

12 Το μοντέλο του Επικοινωνιακού Συστήματος Πηγή Δέκτης s ŝ Κωδικοποίηση & Συμπίεση Πηγής Αποκωδικοποίηση & Αποσυμπίεση Πηγής q Κωδικοποιητής t Κανάλι με Θόρυβο r qˆ Αποκωδικοποιητής

13 Το μοντέλο του Επικοινωνιακού Συστήματος Πηγή s Η Θεωρία Πληροφορίας μελετά τα θεωρητικά όρια και τις δυνατότητες τέτοιων συστημάτων. Θεωρία Κωδικοποίησης ασχολείται με τη δημιουργία πρακτικών συστημάτων κωδικοποίησης/αποκωδικοποίησης. Δέκτης ŝ Κωδικοποίηση & Συμπίεση Πηγής Αποκωδικοποίηση & Αποσυμπίεση Πηγής q Κωδικοποιητής t Κανάλι με Θόρυβο r qˆ Αποκωδικοποιητής

14 Το μοντέλο του Επικοινωνιακού Συστήματος Κωδικοποίηση Πηγής: αποδοτική αναπαράσταση των δεδομένων που εξάγει μια πηγή πληροφορίας Κωδικοποίηση Καναλιού: η αποδοτική μετάδοση της πληροφορίας πάνω από ένα κανάλι.

15 Θεωρία Πληροφορίας Ιδρυτής της θεωρείται ο Claude E. Shannon 96-2) aka father of the Digital Age The Mathematical Theor of Communication, Bell Labs, 948 He showed how information could be quantified with absolute recision, and demonstrated the essential unit of all information media bit Information Theor is one of the few scientific fields fortunate enough to have an identifiable beginning - Claude Shannon's 948 aer. Δύο θεμελιώδη Θεωρήματα Θεμελιώδες Θεώρημα Κωδικοποίησης Πηγής Source Coding Theorem) Θεμελιώδες Θεώρημα Κωδικοποίησης Καναλιού Channel Coding Theorem)

16 Θεωρία Πληροφορίας Channel Caacit & The Nois Channel Coding Theorem ever communication channel had a seed limit, measured in binar digits er second Shannon Limit) mathematicall imossible to get error free communication above the limit gave rise to the entire field of error-correcting codes and channel coding theor Formal Architecture of Communication Sstems communication sstem can be searated into comonents, which can be treated indeendentl all communication sstems are essentiall based on this model

17 Θεωρία Πληροφορίας Digital Reresentation establishing that tet, telehone signals, images and film all modes of communication could be encoded in bits, a term that was first used in rint in his article. Efficienc of Reresentation: Source Coding Discusses a loss-less method of comressing data at the source Shannon-Fano) The basic objective of source coding is to remove redundanc in the information to make the message smaller Three ears later after 948), David Huffman, a student of Prof. Fano s class at MIT came u with Huffman Coding, which is widel used for data comression. JPEGS, MP3s and.zip files are onl some eamles.

18 Source Source coder Channel coder Channel Channel Channel Source Sink, decoder decoder receiver

19 An source of information Source Source coder Channel coder Channel Channel Channel Source Sink, decoder decoder receiver

20 Change to an efficient reresentation, i.e., data comression. Source Source coder Channel coder Channel Channel Channel Source Sink, decoder decoder receiver

21 Change to an efficient reresentation for, transmission, i.e., error control coding. Source Source coder Channel coder Channel Channel Channel Source Sink, decoder decoder receiver

22 Source Source coder Channel coder Channel Channel Channel Source Sink, decoder decoder receiver Recover from channel distortion.

23 Source Source coder Channel coder Channel Channel Channel Source Sink, decoder decoder receiver Uncomress

24 Source Source coder Channel coder Channel Channel Channel Source Sink, decoder decoder receiver The channel is anthing transmitting or storing information a radio link, a cable, a disk, a CD, a iece of aer,

25 Information and Entro Assume a binar memorless source, e.g., a fli of a coin. How much information do we receive when we are told that the outcome is heads? If it s a fair coin, i.e., Pheads) = P tails) =.5, we sa that the amount of information is bit. If we alread know that it will be or was) heads, i.e., Pheads) =, the amount of information is zero! If the coin is not fair, e.g., Pheads) =.9, the amount of information is more than zero but less than one bit! Intuitivel, the amount of information received is the same if Pheads) =.9 or P heads) =..

26 Shannon Information An ensemble X is a trile, A, P ) : value of a random variable A : set of ossible values for aka alhabet) A ={a, a 2,, a I } P : robabilit for each value, P ={, 2,, I } where P)=P=a i )= i, i >, Shannon information content or self information) of =a i h) = log 2 /P)) i The roabilit of two indeendent smbols is multilied while their information carried should be added Information carried b a smbol increases with decreasing robabilities, that is smbols that occur rarel conve a large amount of information What logarithm to use? i a i i ha i ) a b c z.7.4

27 Shannon Information Eamle : i= => h) = log/ = Eamle 2: i=.5 => h.5) = log/.5 = bit

28 Entro Average information er smbol is called entro H H ) A P ).log P ) bits er codeword Η εντροπία δεν εξαρτάται από τις τιμές της τ.μ Χ αλλά από την κατανομή της, και μετριέται σε bits. Average number of bits er codeword = Σ L i i where L i is the number of bits for the smbol generated b the encoding algorithm

29 Εντροπία 2) Παράδειγμα Έστω Χ μία τυχαία μεταβλητή με δύο ενδεχόμενα και -). H)=-*log)--)*log-) Η μέγιστη τιμή της εντροπίας είναι όταν τα δύο ενδεχόμενα είναι ισοπίθανα X Παράδειγμα 2 a b c d με πιθανότητα / 2 με πιθανότητα / 4 με πιθανότητα / 8 με πιθανότητα / 8 ) log log log log bits

30 Εντροπία 3) Συνδυασμένη ή από κοινού εντροπία Η Συνδυασμένη ή από κοινού εντροπία ΗΧ,Υ) ενός ζεύγους δύο διακριτών τυχαίων μεταβλητών με πιθανότητα μάζας,) ορίζεται ως, ), )log, )

31 Εντροπία 4) Δεσμευμένη ή υπό συνθήκη εντροπία Uncertaint of X given random variable Y Quantifies the amount of information needed to describe the outcome of a random variable X given that the value of another random variable Y is known h i / j )=-log i / j ) HX Y=) is the entro of the discrete random variable X conditioned on the discrete random variable Y taking a certain value HX Y) is the result of averaging HX Y=) over all ossible values Y ma take Y ) / )log / ) / Y X H ) / )log, ) / )log / ) / ) ) / ) / )log, ) / X Y ) / )log, ) / If is the entro of the discrete random variable conditioned on the discrete random variable taking a certain value, then is the result of averaging ove

32 Εντροπία 5) Θεώρημα : Αθροιστικός Κανόνας chain rule) ΗΧ,Υ)=ΗΧ)+ΗΥ/Χ) Το θεώρημα αυτό μας λέει ότι η εντροπία της συνδυασμένης τυχαίας μεταβλητής Χ,Υ) ισούται με την εντροπία της μίας από αυτές, Χ, συν την εξαρτημένη εντροπία της άλλης τ.μ., Υ, όταν έχει συμβεί η Χ. Ισχύει επίσης, ΗΧ,Υ)=ΗΥ)+ΗΧ/Υ) ΗΧ)-ΗΧ/Υ)=ΗΥ)-ΗΥ/Χ) Προσοχή! ΗΧ/Υ) ΗΥ/Χ) Εάν Χ,Υ είναι ανεξάρτητες τ.μ τότε ΗΧ,Υ)=ΗΧ)+ΗΥ) Πρόταση: ΗΧ,Υ/Ζ)=ΗΧ/Ζ)+ΗΥ/Χ,Ζ)

33 Εντροπία 6) Let X, X2,..., Xn be a collection of random variables with, 2,..., n). Then the entro of HX, X2,, Xn) is a sum of conditional entroies.

34 Εντροπία 8) Αθροιστική Ιδιότητα Εντροπίας: ΗΧ,Υ)=ΗΧ)+ΗΥ/Χ) Παράδειγμα 2: Ας υποθέσουμε ότι η τ.μ Z = {,,2} ως εξής Τότε )=/2, )=/4, 2)=/4 Ποια είναι η εντροπία της Z; ΗZ)=- [)log )+ )log )+ 2)log 2)] = /2*log2+ /4*log4+ /4*log4 =3/2 bits Υπάρχει και 2 ος τρόπος υπολογισμού της πληροφορίας ιδιαίτερα όταν αυτή μας αποκαλύπτεται σταδιακά. Εάν θεωρήσουμε το αποτέλεσμα του ου βήματος ως μία μεταβλητή Χ={,} και το αποτέλεσμα του 2 ου βήματος ως μια άλλη μεταβλητή Υ ={,} τότε, ΗΖ)=ΗΧ,Υ)=ΗΧ) + ΗΥ/Χ) =+/2*ΗΥ/Χ=)+/2*ΗΥ Χ=)=++/2*Η/2,/2) /2 /2 /2 /2 2 2 X Y

35 Εντροπία 9) Άσκηση Έστω δύο δοχεία Α, Β. Το Α περιέχει 6 κόκκινες αριθμημένες μπάλες από το -6 και το Β περιέχει 8 μπλε αριθμημένες μπάλες από το -8. Έστω Χ η τυχαία μεταβλητή η οποία συμβολίζει το χρώμα και τον αριθμό της μπάλας που επιλέγεται αφού προηγηθεί η επιλογή κάποιου εκ των δύο δοχείων. Η επιλογή των δοχείων Α, Β γίνεται με την ίδια πιθανότητα. Η δε πιθανότητα επιλογής μιας αριθμημένης μπάλας από το επιλεγμένο δοχείο είναι ίδια. Να βρεθεί η εντροπία της Χ. Χ={Κ,...,Κ6,Μ,...,Μ8}, Δ={Κ, Μ} ΗΧ)=ΗΔ,Σ)=ΗΔ) + ΗΣ/Δ) = ΗΔ)+/2*ΗΣ/Δ=Κ)+/2*ΗΣ/Δ=Μ)= =ΗΔ)+/2*ΗΚ,...,Κ6)+/2*ΗΜ,...,Μ8) ΗΧ)=log 2 2+/2*{log 2 6+log 2 8}=+7/2=4.5 bits /2 /2 /6 Α Β /

36 Εντροπία ) Παράδειγμα 4 Μία τράπουλα έχει 52 χαρτιά. Αυτά χωρίζονται σε 4 κατηγορίες, σπαθιά, μπαστούνια, καρό και κούπες. Κάθε κατηγορία έχει 3 χαρτιά η κάθε μία ενώ τα σπαθιά και τα μπαστούνια είναι μαύρου χρώματος και τα καρό και οι κούπες κόκκινου χρώματος. Το τυχαίο πείραμα συνιστάται στο τράβηγμα ενός χαρτιού από την τράπουλα. Θεωρούμε ότι η πιθανότητα να τραβήξουμε το κάθε χαρτί είναι η ίδια. Ποια ποσότητα πληροφορίας λαμβάνουμε όταν μας γνωστοποιείται το χαρτί που τραβήξαμε; Αν μας γνωστοποιηθούν διαδοχικά το χρώμα, μετά η κατηγορία και μετά ο αριθμός ποια είναι η ποσότητα της πληροφορίας που θα έχουμε λάβει; Ποια είναι η ποσότητα της πληροφορίας σε κάθε ένα από τα στάδια; Δοθέντος ότι γνωρίζουμε το χρώμα, ποια είναι η ποσότητα της πληροφορίας που λαμβάνουμε όταν μας γνωστοποιείται ο αριθμός; Δοθέντος ότι γνωρίζουμε το χρώμα, ποια είναι η ποσότητα της πληροφορίας που λαμβάνουμε όταν μας γνωστοποιείται η κατηγορία;

37 Εντροπία ) Απάντηση Έστω Χ,Υ,Ζ οι τ.μ που συμβολίζουν χρώμα, κατηγορία, αριθμό. Ποια ποσότητα πληροφορίας λαμβάνουμε όταν μας γνωστοποιείται το χαρτί που τραβήξαμε; ΗΖ)=-log/52)=5.7 bits Αν μας γνωστοποιηθούν διαδοχικά το χρώμα, μετά η κατηγορία και μετά ο αριθμός ποια είναι η ποσότητα της πληροφορίας που θα έχουμε λάβει; Ποια είναι η ποσότητα της πληροφορίας σε κάθε ένα από τα στάδια; ο Στάδιο: Χρώμα Η/2,/2)=-log/2)= bits 2 ο Στάδιο: Κατηγορία HΥ/Χ)=/2*ΗΥ/Χ=μαύρο)+/2*ΗΥ/Χ=κόκκινο)=/2*Η/2,/2)+/2*Η/2,/2)=Η /2,/2)=-log/2)= bits 3 ο Στάδιο: Αριθμός ΗΖ/Χ,Υ)=ΗΖ/Χ=..,Υ=..) + ΗΖ/Χ=..,Υ=..) + ΗΖ/Χ=..,Υ=..) + ΗΖ/Χ=..,Υ=..) = /4*Η/3,/3,,/3)+...+ /4*Η/3,/3,,/3)=Η/3,/3,,/3)=log/3)=3.7 bits Δηλαδή αποτελεί γενίκευση του παρακάτω τύπου ΗΧ,Υ,Ζ)=ΗΧ)+ΗΥ,Ζ/Χ)=ΗΧ)+ΗΥ/Χ)+ΗΖ/Χ,Υ)=Η/2,/2)+Η/2,/2)+Η/3,/ 3,...,/3)=++3.7 bits ΠΡΟΣΟΧΗ: Η πληροφορία του συνδυασμένου γεγονότος χρώμα, κατηγορία), ΗΧ,Υ)=ΗX)+ΗY/X) = 2 bits, ΔΕΝ ΕΙΝΑΙ ΙΣΗ με ΗΥ/Χ)= bits

38 Αμοιβαία Πληροφορία ) Έστω δύο τ.μ. Χ, Υ με συνδυασμένη πιθανότητα,) και πιθανότητες ) και ), αντίστοιχα. Τότε η αμοιβαία πληροφορία IX;Y) ορίζεται ως, ) I X; Y), )log ) ) Συμβολίζει την ποσότητα πληροφορίας που περιέχει μια τμ Χ για μια άλλη τμ Υ.

39 Αμοιβαία Πληροφορία 2) ) / ) ) / )log, ) )log ) / )log, ) )log, ) ) ) ) / )log, ) ) ), )log, ) ; Y X H X H Y X I

40 Αμοιβαία Πληροφορία 2) ) / ) ) / )log, ) )log ) / )log, ) )log, ) ) ) ) / )log, ) ) ), )log, ) ; Y X H X H Y X I

41 Αμοιβαία Πληροφορία 2) ) / ) ) / )log, ) )log ) / )log, ) )log, ) ) ) ) / )log, ) ) ), )log, ) ; Y X H X H Y X I ) log ) / log ) ) / log

42 Αμοιβαία Πληροφορία 3) Συμπεραίνουμε ότι η αμοιβαία πληροφορία ΙΧ;Υ) είναι η μείωση της αβεβαιότητας της Χ εξαιτίας του γεγονότος ότι γνωρίζουμε την Υ!! Θεώρημα 4: Ισχύουν ΙΧ;Υ)= ΗΧ)-ΗΧ/Υ) ΙΧ;Υ)=ΗΥ)-ΗΥ/Χ) ΙΧ;Υ)=ΗΧ)+ΗΥ)-ΗΧ,Υ) ΙΧ;Υ)=ΙΥ;Χ) ΙΧ;Χ)=ΗΧ) HΧ) Venn diagram HΧ,Υ) HX/Y) ΙX;Υ) ΗΥ/Χ) HY)

43 Αμοιβαία Πληροφορία 4) Παράδειγμα 6: Έστω Χ,Υ) έχουν την παρακάτω πιθανότητα μάζας Χ Υ /4 H ) P ).log P) /2 /4 /8 /8 A P ) HX)=7/4 bits και ΗΥ)=2 bits / ), )log / ), HX/Y)=/8 bits και HY/X)=3/8 bits ΗΧ,Υ)=27/8 bits, ) / ) ΙΧ;Υ)=ΗΧ)-ΗΧ/Υ)=ΗΥ)-ΗΥ/Χ)=3/8 bits ) ΗΧ,Υ)=ΗΧ)+ΗΥ/Χ) P) /4 /4 /4

44 Θεώρημα 9: Ανισότητες Εντροπίας Έστω Χ μία τ.μ. με πλήθος στοιχείων n. Τότε ισχύει ΗΧ) logn Η ισότητα ισχύει εάν η κατανομή της Χ είναι ομοιόμορφη, δηλ. )=/n, Χ Θεώρημα : Η εξάρτηση μειώνει την εντροπία) ΗΧ/Υ) ΗΧ) Η ισότητα ισχύει εάν Χ,Υ είναι ανεξάρτητες μεταβλητές Θεώρημα : HX,Y) ΗΧ) + HY) Θεώρημα 2: Ανώτατο Όριο εντροπίας πολυδιάστατης τ.μ) Έστω Χ,Χ 2,...,Χ n τ.μ με συνδυασμένη πιθανότητα μάζας, 2,, n ). Τότε ισχύει H X, X, X H 2, n n X i i Με την ισότητα να ισχύει στην περίπτωση που οι τ.μ. είναι ανεξάρτητες.

45 Εντροπία Πηγής ) Διακριτή Πηγή Πληροφορίας Παράγει ακολουθίες συμβόλων ή γραμμάτων), s i Αλφάβητο πηγής είναι το σύνολο των συμβόλων S=s,s 2,,s n ), όπου n είναι το πλήθος των συμβόλων Παράγει διαδοχικές ακολουθίες συμβόλων που ονομάζονται μηνύματα Το πλήθος των δυνατών μηνυμάτων μήκους l είναι n l Η Παραγωγή των συμβόλων λαμβάνει χώρα με κάποια πιθανότητα, i Η παραγωγή κάθε συμβόλου γίνεται Είτε ανεξάρτητα αυτών που έχουν προηγηθεί οπότε αναφερόμαστε σε διακριτή πηγή χωρίς μνήμη Είτε εξαρτάται στατιστικά αυτών που έχουν προηγηθεί οπότε αναφερόμαστε σε διακριτή πηγή με μνήμη

46 Εντροπία Πηγής 2) Ποσότητα πληροφορίας της πηγής χωρίς μνήμη Μέση ποσότητα πληροφορίας ή εντροπία των συμβόλων n bits/smbol) HS i log i i Μέγιστη μέση ποσότητα πληροφορίας bits/smbol) n ma HS log logn Πλεονασμός διακριτής πηγής, [,] Μέσος Ρυθμός Πληροφορίας της πηγής rs είναι ο ρυθμός συμβόλων smbols/sec) i n n S H S H red ma R r S H S S H logn

47 Εντροπία Πηγής 3) Παράδειγμα: S={,} με )=3/4 και )=/4 HS)=.85 bits/smbol mahs)=log2= bit/smbol red=-.85/=.85

48 Εντροπία Πηγής 4) Μέσο πληροφοριακό περιεχόμενο μηνυμάτων της πηγής Εάν γνωρίζουμε ότι η πηγή παράγει μηνύματα μήκους l, με δεδομένο ότι το πλήθος του συνόλου Μ=m,m 2,,m q ), των μηνυμάτων είναι q=n l, και η πιθανότητα εμφάνισης ενός μηνύματος m i είναι m i ), τότε το μέσο πληροφοριακό περιεχόμενο των μηνυμάτων είναι H l n M i m )log i m i Αποδεικνύεται ότι για μια πηγη χωρις μνήμη, ΗΜ)= l*hs), δηλαδή το μέσο πληροφοριακό περιεχόμενο ενός μηνύματος είναι ίσο με το άθροισμα της πληροφορίας που μεταφέρουν τα σύμβολα που το αποτελούν. Παράδειγμα: Τα μηνύματα μήκους 2 που δημιουργούνται από την πηγή των συμβόλων του προηγούμενου παραδείγματος είναι Μ={,,,} πλήθους 4 και οι πιθανότητες να συμβούν είναι )=9/6, )=)=3/6, )=/6. Τότε ΗΜ)=.63 bits/μήνυμα=2*.85 )

49 Εντροπία Πηγής 5) Άσκηση Μια πηγή πληροφορίας παράγει σύμβολα, τα οποία ανήκουν στο αλφάβητο S={τ, υ, φ, χ, ψ, ω}. Οι πιθανότητες των συμβόλων αυτών είναι ¼, ¼, /8, /8, /8 και /8, αντίστοιχα. Θεωρώντας την πηγή χωρίς μνήμη, ζητείται να υπολογίσετε α) Το σύμβολο με το μεγαλύτερο και το μικρότερο πληροφορικό περιεχόμενο της πηγής. β) Το μέσο πληροφορικό περιεχόμενο των συμβόλων της πηγής, γ) Το μέσο πληροφορικό περιεχόμενο των μηνυμάτων της πηγής αποτελούμενων από δύο σύμβολα. δ) Τον πλεονασμό της πηγής log6=2,585) και ε) Το μέσο ρυθμό πληροφορίας της πηγής για ρυθμό 5 συμβόλων /sec.

50 Απάντηση Εντροπία Πηγής 6) α) Τα σύμβολα με το μεγαλύτερο πληροφορικό περιεχόμενο είναι αυτά που έχουν την μικρότερη πιθανότητα δηλαδή Hi)=-log/8)=3 bits όπου i=φ,χ,ψ,ω. Αντίθετα τα σύμβολα με το μικρότερο πληροφορικό περιεχόμενο είναι αυτά που έχουν την μεγαλύτερη πιθανότητα δηλαδή Hi)=log/4)=2 bits όπου i=τ,υ. β) Το μέσο πληροφορικό περιεχόμενο των συμβόλων της πηγής 6 log log log log log log log 2/8) 2,5 bits/smbol H S i i i

51 Εντροπία Πηγής 7) Απάντηση συνέχεια) γ) Για τον υπολογισμό του μέσου πληροφορικού περιεχομένου των μηνυμάτων της πηγής αποτελούμενων από 2 σύμβολα, υπολογίζουμε πρώτα τις συνδυασμένες) πιθανότητες δημιουργίας των μηνυμάτων αυτών. Αφού η πηγή είναι χωρίς μνήμη, για τον υπολογισμό της πιθανότητας κάθε μηνύματος αρκεί να πολλαπλασιάσουμε τις πιθανότητες παραγωγής των συμβόλων από τα οποία αποτελείται. Συνολικά έχουμε 36 μηνύματα. Παρατηρούμε ότι από τα 36 μηνύματα, 4 έχουν πιθανότητα παραγωγής ίση με /6), 6 μηνύματα έχουν πιθανότητα παραγωγής /64) και 6 μηνύματα έχουν πιθανότητα παραγωγής /32). =τ,τ)=/6, 2=τ,υ)=/6, 3=τ,φ)=/32, 4=τ,χ)=/32, 5=τ,ψ)=/32, 6=τ,ω)=/32, 7=υ,τ)=/6, 8=υ,υ)=/6, 9=υ,φ)=/32, =υ,χ)=/32, =υ,ψ)=/32, 2=υ,ω)=/32, 3=φ,τ)=/32, 4=φ,υ)=/32, 5=φ,φ)=/64, 6=φ,χ)=/64, 7=φ,ψ)=/64, 8=φ,ω)=/64, 9=χ,τ)=/32, 2=χ,υ)=/32, 2=χ,φ)=/64, 22=χ,χ)=/64, 23=χ,ψ)=/64, 24=χ,ω)=/64, 25=ψ,τ)=/32, 26=ψ,υ)=/32, 27=ψ,φ)=/64, 28=ψ,χ)=/64, 29=ψ,ψ)=/64, 3=ψ,ω)=/64, 3=ω,τ)=/32, 32=ω,υ)=/32, 33=ω,φ)=/64, 34=ω,χ)=/64, 35=ω,ψ)=/64, 36=ω,ω)=/64.

52 Απάντηση συνέχεια) Επομένως i Εντροπία Πηγής 8) 36 H M ilog i 4 log -6 log -6 log 32/64) 5 bits/message Παρατηρείστε ότι HM)=2 ΗS) Αυτό συμβαίνει λόγω του ότι η πηγή είναι χωρίς μνήμη δ) red=-hs)/mahs)=-hs)/log6=-2,5/2,585)=-,967=,328. ε) R=rHS)=52,5)=25 bits/sec.

53 Κωδικοποίηση Πηγής ) Πηγή Δέκτης s ŝ Κωδικοποιητής Πηγής/Συμπίεση Αποκωδικοποιητής Πηγής/Συμπίεση q Κωδικοποιητής t Κανάλι με Θόρυβο r qˆ Αποκωδικοποιητής

54 Κωδικοποίηση Πηγής 2) Κωδικοποίηση/συμπίεση της πηγής Η αποδοτική αναπαράσταση των δεδομένων που εξάγει μια πηγή πληροφορίας Αντιστοίχισης του αλφάβητου των συμβόλων σε ένα άλλο αλφάβητο Το καινούριο αυτό αλφάβητο ονομάζεται κωδικό αλφάβητο και τα μέλη ονομάζονται κωδικά σύμβολα. Οι ακολουθίες των κωδικών συμβόλων που αντιστοιχούν σε σύμβολα της πηγής λέγονται κωδικές λέξεις Πηγή Συμβόλων Αλφάβητο S={s,s 2,,s n } s i Κωδικοποιητής Πηγής Αλφάβητο Q={,}

55 Κωδικοποίηση Πηγής 4) Απαιτήσεις για χρησιμότητα κωδικών Κάθε ακολουθία κωδικών λέξεων πρέπει να μπορεί να αποκωδικοποιηθεί με μοναδικό τρόπο Η αποκωδικοποίηση πρέπει να γίνεται εύκολα και άμεσα Ο κώδικας πρέπει να πετυχαίνει τη βέλτιστη δυνατή συμπίεση

56 Ορισμοί Κωδικοποίηση Πηγής 5) Μη ιδιάζων κώδικας Όταν όλες οι κωδικές λέξεις είναι διαφορετικές Μοναδικά αποκωδικοποιήσιμος Όταν και οι ακολουθίες των κωδικών λέξεων είναι διαφορετικές Άμεσος ή Προθεματικός κώδικας Κάθε μοναδικά αποκωδικοποίησιμος κώδικας που επιτρέπει την άμεση αποκωδικοποίηση της κωδικής λέξης χωρίς να χρειάζεται να λάβει υπόψη του τις επόμενες κωδικές λέξεις. Ο άμεσος κώδικας αποτελείται από κωδικές λέξεις οι οποίες δεν αποτελούν μέρος προθέματα) άλλων

57 Κωδικοποίηση Πηγής 6) Παράδειγμα Μη ιδιάζων, Ι,ΙΙ,ΙΙΙ,ΙV Μοναδικά αποκωδικοποιήσιμος, ΙΙ,ΙΙΙ,ΙV. Ο Ι δεν είναι αφού ΦΦΦΦ, ΦΦΨ, ΨΨ όλα έχουν κωδική λέξη την ίδια, Άμεσοι κώδικες, ΙΙ και ΙΙΙ Ο κώδικας ΙV δεν είναι άμεσος αφού χρειάζεται να γνωρίζουμε ψηφία που ανήκουν στην επόμενη κωδική λέξη, π.χ.? Ι ΙΙ ΙΙΙ ΙV Φ Χ Ψ Ω

58 Κωδικοποίηση Πηγής 7) Παραδείγματα άλλων άμεσων και μη αμέσων κωδικών C={,} C2={,} C3={,,,} C4={,,,} C5={,,,}

59 Κωδικοποίηση Πηγής 7) Παραδείγματα άλλων άμεσων και μη αμέσων κωδικών C={,} C2={,} C3={,,,} C4={,,,} C5={,,,} Άμεσος

60 Κωδικοποίηση Πηγής 7) Παραδείγματα άλλων άμεσων και μη αμέσων κωδικών C={,} C2={,} C3={,,,} C4={,,,} C5={,,,} Άμεσος Μη άμεσος

61 Κωδικοποίηση Πηγής 7) Παραδείγματα άλλων άμεσων και μη αμέσων κωδικών C={,} C2={,} C3={,,,} C4={,,,} C5={,,,} Άμεσος Μη άμεσος Άμεσος

62 Κωδικοποίηση Πηγής 7) Παραδείγματα άλλων άμεσων και μη αμέσων κωδικών C={,} C2={,} C3={,,,} C4={,,,} C5={,,,} Άμεσος Μη άμεσος Άμεσος Άμεσος

63 Κωδικοποίηση Πηγής 7) Παραδείγματα άλλων άμεσων και μη αμέσων κωδικών C={,} C2={,} C3={,,,} C4={,,,} C5={,,,} Άμεσος Μη άμεσος Άμεσος Άμεσος Μη άμεσος

64 Κωδικοποίηση Πηγής 8) C={,,,}

65 Κωδικοποίηση Πηγής 8) C={,,,}

66 Κωδικοποίηση Πηγής 8) C={,,,}

67 Κωδικοποίηση Πηγής 8) C={,,,}

68 Κωδικοποίηση Πηγής 8) C={,,,}

69 Κωδικοποίηση Πηγής 8) C={,,,}

70 Κωδικοποίηση Πηγής 9) C4={,,,} C3={,,,}

71 Κωδικοποίηση Πηγής ) Θεώρημα 2: Ανισότητα του Kraft Για κάθε άμεσο κώδικα με πλήθος κωδικών συμβόλων q=2) του κωδικού αλφαβήτου Q και μήκη των κωδικών λέξεων l i, όπου i=,2,,n και n το πλήθος των συμβόλων της πηγής ισχύει, n i 2 l i Αντίστροφα, αν για ένα σύνολο μηκών κωδικών λέξεων ισχύει η ανισότητα Kraft τότε υπάρχει ένας άμεσος κώδικας του οποίου οι κωδικές λέξεις έχουν αυτά τα μήκη.

72 Κωδικοποίηση Πηγής ) Απόδειξη Τέτοιοι κώδικες άμεσοι και αποκωδικοποιήσιμοι) έχουν κωδικές λέξεις οι οποίες έχουν ένα μέγιστο μήκος, π.χ l ma. Όλες οι λέξεις σε αυτό το επίπεδο είναι είτε μέρος του συνόλου των κωδικών λέξεων είτε απόγονοι άλλων κωδικών λέξεων οι οποίες βρίσκονται σε μικρότερα επίπεδα. Το πλήθος των απογόνων μιας κωδικής λέξης του επιπέδου l i, που βρίσκονται στο επίπεδο l ma, ισούται με το πλήθος των λέξεων μήκους l ma -l i και άρα είναι 2 lma-li. Καθένα από τα σύνολα αυτά των απογόνων κωδικών λέξεων δεν έχει κανένα κοινό στοιχείο μεταξύ τους Επίσης το άθροισμα των απογόνων αυτών δεν μπορεί να ξεπεράσει το q lma που είναι όλο το σύνολο των λέξεων όχι κατ ανάγκη κωδικών μήκους l ma ) Επομένως ισχύει n i 2 2 lma li ) lma n i 2 l i

73 Κωδικοποίηση Πηγής 2) C={,,,,}

74 Κωδικοποίηση Πηγής 2) C={,,,,}

75 Κωδικοποίηση Πηγής 2) C={,,,,}

76 Κωδικοποίηση Πηγής 2) C={,,,,}

77 Κωδικοποίηση Πηγής 2) C={,,,,}

78 Κωδικοποίηση Πηγής 2) C={,,,,}

79 Κωδικοποίηση Πηγής 2) C={,,,,}

80 Κωδικοποίηση Πηγής 2) C={,,,,}

81 Κωδικοποίηση Πηγής 3) Μπορούμε να βρούμε ένα κώδικα άμεσο και αποκωδικοποιήσιμο) του οποίου οι κωδικές λέξεις να έχουν το βέλτιστο δυνατό μήκος; Να έχουν δηλαδή κατά μέσο όρο τη μικρότερη τιμή μήκους κωδικής λέξης; min i l i i υπό τον περιορισμό n i li 2 Υπάρχει σχέση μήκους λέξης και πιθανότητας εμφάνισης συμβόλου πηγής; Αν αντιστοιχίσουμε κωδικές λέξεις μικρού μήκους σε σύμβολα με μεγάλη πιθανότητα εμφάνισης θα μειωθεί το μέσο μήκος της κωδικής λέξης; Ξέρουμε όμως ότι μικρού μήκους κωδικές λέξεις έχουν μεγάλο κόστος αφού χρειάζεται να εισάγουμε μεγάλου μήκους κωδικές λέξεις για την πλήρη αντιστοίχιση των συμβόλων πηγής. Το πληροφοριακό περιεχόμενο της πηγής των συμβόλων πως επηρεάζει την παραγωγή των κωδικών λέξεων και με ποιο τρόπο; Ποια είναι η βέλτιστη συμπίεση που είναι δυνατόν να επιτευχθεί;

82 Κωδικοποίηση Πηγής 4) Θεώρημα 3: Κωδικοποίησης Πηγής Έστω μια πηγή παράγει S={s,s 2,,s n } σύμβολα με πιθανότητα εμφάνισης κάθε συμβόλου {, 2,..., n }. Τα σύμβολα αυτά κωδικοποιούνται από ένα κωδικό αλφάβητο q συμβόλων και αντιστοιχίζονται σε άμεσο και αποκωδικοποιήσιμο κώδικα n κωδικών λέξεων μήκους l i η κάθε μία, i=,2,,n. Αν ΗS) είναι το μέσο πληροφοριακό περιεχόμενο των συμβόλων της πηγής τότε ισχύει, H S) Tο βέλτιστο ελάχιστο) μέσο μήκος κωδικής λέξης είναι ίσο με το μέσο πληροφοριακό περιεχόμενο της πηγής των συμβόλων και δεν μπορεί να είναι μικρότερο από αυτό. Για ποιές τιμές των l i ισχύει η ισότητα του θεωρήματος της κωδικοποίησης της πηγής; Ελάχιστο του μήκους των κωδικών λέξεων Η ισότητα ισχύει όταν li log 2 i n i i l i

83 Κωδικοποίηση Πηγής 5) Δεν μπορούμε λοιπόν να συμπιέσουμε λιγότερο από την εντροπία της πηγής. Πρακτικά πόσο κοντά σε αυτή την τιμή μπορούμε να φτάσουμε; Θεώρημα 4: Για κάθε τ.μ Χ υπάρχει ένας άμεσος και μοναδικά αποκωδικοποιήσιμος κώδικας C του οποίου η μέση τιμή μήκους, LC,X), ικανοποιεί τη σχέση HX) LC,X) < HX)+ Ο κώδικας αυτός έχει κωδικές λέξεις μήκους όπου χ είναι ο μικρότερος l ακέραιος που είναι μεγαλύτερος του χ. log 2 i i

84 Συμπίεση Πληροφορίας ή Κωδικοποίηση Πηγής... Αλγόριθμοι κωδικοποίησης FANO SHANNON HUFFMAN JPEG και MPEG χρησιμοποιούν μεταξύ άλλων και τον αλγόριθμο Huffman

85 Αλγόριθμος Κωδικοποίησης FANO Βήμα ο : Τα σύμβολα ή τα μηνύματα) ταξινομούνται έτσι ώστε οι πιθανότητές τους είναι σε φθίνουσα ακολουθία. Βήμα 2 ο : Στη συνέχεια τα σύμβολα χωρίζονται σε ομάδες ο αριθμός των οποίων είναι ίσος με τον αριθμό των κωδικών συμβόλων στην περίπτωση δυαδικού κώδικα oι ομάδες χωρισμού συμβόλων είναι δύο). Το κριτήριο σχηματισμού της κάθε ομάδας είναι τέτοιο ώστε αφενός να διατηρείται η σειρά των συμβόλων όπως αυτή έχει καθοριστεί από το βήμα Αφετέρου δε να ελαχιστοποιείται η σχέση k i n i ik i Βήμα 3 ο : Για κάθε μία ομάδα συμβόλων που δημιουργήσαμε αντιστοιχίζουμε ένα από τα κωδικά σύμβολα ως το πρώτο τον κωδικών λέξεων που θα προκύψουν Βήμα 4 ο : Επαναλαμβάνουμε τα βήματα 2 & 3 για κάθε μία από τις ομάδες προσθέτοντας κάθε φορά και από ένα κωδικό σύμβολο στην κωδική λέξη μέχρι να δημιουργήσουμε ομάδες με ένα μόνο σύμβολο Ο αλγόριθμος FANO δημιουργεί κώδικες όπου όλες οι κωδικές λέξεις είναι του ίδιου μήκους εάν η διαίρεση σε υποομάδες γίνεται πάντα με την ίδια πιθανότητα.

86 Αλγόριθμος Κωδικοποίησης FANO Παράδειγμα S={s,s2,,s} {,2,,}={/4,/4,/8,/8,/6,/6,/32,/32,/32,/32} Ποιες είναι οι κωδικές λέξεις χρησιμοποιώντας τον αλγόριθμο FANO

87 Αλγόριθμος Κωδικοποίησης FANO Παράδειγμα S={s,s2,,s} {,2,,}={/4,/4,/8,/8,/6,/6,/32,/32,/32,/32} Ποιες είναι οι κωδικές λέξεις χρησιμοποιώντας τον αλγόριθμο FANO {s,s2} /2 /2 {s3,,s}

88 Αλγόριθμος Κωδικοποίησης FANO {s,s2} /4 {s} Παράδειγμα S={s,s2,,s} {,2,,}={/4,/4,/8,/8,/6,/6,/32,/32,/32,/32} Ποιες είναι οι κωδικές λέξεις χρησιμοποιώντας τον αλγόριθμο FANO /2 /4 {s2} /2 {s3,,s}

89 Αλγόριθμος Κωδικοποίησης FANO {s,s2} /4 {s} Παράδειγμα S={s,s2,,s} {,2,,}={/4,/4,/8,/8,/6,/6,/32,/32,/32,/32} Ποιες είναι οι κωδικές λέξεις χρησιμοποιώντας τον αλγόριθμο FANO /2 /4 {s2} {s3,s4} /2 {s3,,s} /4 /4 {s5,,s}

90 Αλγόριθμος Κωδικοποίησης FANO {s,s2} /4 {s} Παράδειγμα S={s,s2,,s} {,2,,}={/4,/4,/8,/8,/6,/6,/32,/32,/32,/32} Ποιες είναι οι κωδικές λέξεις χρησιμοποιώντας τον αλγόριθμο FANO {s3} /2 /4 {s2} /8 {s4} /2 {s3,,s} /4 {s3,s4} /8 /4 {s5,,s}

91 Αλγόριθμος Κωδικοποίησης FANO {s,s2} /4 {s} Παράδειγμα S={s,s2,,s} {,2,,}={/4,/4,/8,/8,/6,/6,/32,/32,/32,/32} Ποιες είναι οι κωδικές λέξεις χρησιμοποιώντας τον αλγόριθμο FANO {s3} /2 /4 {s2} /8 {s4} /2 {s3,,s} /4 /4 {s3,s4} {s5,,s} /8 /8 /8 {s5,s6} {s7,,s}

92 Αλγόριθμος Κωδικοποίησης FANO /2 /2 {s,s2} {s3,,s} /4 /4 /4 /4 {s} {s2} {s3,s4} {s5,,s} Παράδειγμα S={s,s2,,s} {,2,,}={/4,/4,/8,/8,/6,/6,/32,/32,/32,/32} Ποιες είναι οι κωδικές λέξεις χρησιμοποιώντας τον αλγόριθμο FANO /8 /8 /8 /8 {s3} {s4} {s5,s6} {s7,,s} /6 /6 {s5} {s6}

93 Αλγόριθμος Κωδικοποίησης FANO /2 /2 {s,s2} {s3,,s} /4 /4 /4 /4 {s} {s2} {s3,s4} {s5,,s} Παράδειγμα S={s,s2,,s} {,2,,}={/4,/4,/8,/8,/6,/6,/32,/32,/32,/32} Ποιες είναι οι κωδικές λέξεις χρησιμοποιώντας τον αλγόριθμο FANO /8 /8 /8 /8 {s3} {s4} {s5,s6} {s7,,s} /6 /6 /6 /6 {s5} {s6} {s7,s8} {s9,s}

94 Αλγόριθμος Κωδικοποίησης FANO /2 /2 {s,s2} {s3,,s} /4 /4 /4 /4 {s} {s2} {s3,s4} {s5,,s} Παράδειγμα S={s,s2,,s} {,2,,}={/4,/4,/8,/8,/6,/6,/32,/32,/32,/32} Ποιες είναι οι κωδικές λέξεις χρησιμοποιώντας τον αλγόριθμο FANO /8 /8 /8 /8 {s3} {s4} {s5,s6} {s7,,s} /6 /6 /6 /6 {s5} {s6} {s7,s8} {s9,s} /32 /32 {s7} {s8}

95 Αλγόριθμος Κωδικοποίησης FANO /2 /2 {s,s2} {s3,,s} /4 /4 /4 /4 {s} {s2} {s3,s4} {s5,,s} Παράδειγμα S={s,s2,,s} {,2,,}={/4,/4,/8,/8,/6,/6,/32,/32,/32,/32} Ποιες είναι οι κωδικές λέξεις χρησιμοποιώντας τον αλγόριθμο FANO /8 /8 /8 /8 {s3} {s4} {s5,s6} {s7,,s} /6 /6 /6 /6 {s5} {s6} {s7,s8} {s9,s} /32 /32 /32 /32 {s7} {s8} {s5} {s5}

96 Αλγόριθμος κωδικοποίησης SHANNON Βήμα ο : Τα σύμβολα ή τα μηνύματα) ταξινομούνται έτσι ώστε οι πιθανότητές τους είναι σε φθίνουσα ακολουθία, όπως ακριβώς και του FANO. Βήμα 2 ο : Για κάθε σύμβολο s i του οποίου η πιθανότητα εμφάνισης είναι s i ) υπολογίζεται η αθροιστική πιθανότητα P j ως εξής: Βήμα 3 ο : Το μήκος της κωδικής λέξης που αντιστοιχεί στο σύμβολο s i ισούται με τον ακέραιο αριθμό l i, που πληροί τη σχέση i Pi s j ), P, i 2,..., n j l log 2 i s i Βήμα 4 ο : Η κωδική λέξη c i που αντιστοιχεί στο σύμβολο πηγής s i είναι το δυαδικό ανάπτυγμα του κλάσματος P i μόνο τα πρώτα l i bits αναπτύγματος)

97 Αλγόριθμος κωδικοποίησης SHANNON Μετατροπή δεκαδικού κλασματικού αριθμού σε δυαδικό Ισχύει ότι το δυαδικό ανάπτυγμα ενός δεκαδικού αριθμού F είναι k i όπου τα α i είναι ή F i Πολλαπλασιάζοντας το F με το 2 έχουμε ότι 2 i. 2 2F k k i i a i2 2 Από αυτό προκύπτει ότι το α ισούται με εάν 2F < και εάν 2F Ομοίως τo α 2 ισούται με εάν το 22F-α )< και εάν 22F-α ), κοκ

98 Αλγόριθμος κωδικοποίησης SHANNON Παράδειγμα μετατροπής δεκαδικού κλάσματος σε δυαδικό F=.375 2F=2*.375=.75 < α = 22F-α )=2*.75=.5 α 2 = 222F-α )-α2)=2.5-)= α 3 = Άρα το δυαδικό ανάπτυγμα του.375 είναι. F=.327 2*.327=.654 < α = 2*.654=.38 α 2 = 2*.38-)=.66 < α 3 = 2*.66=.232 α 4 = 2*.232-)=.464 < α 5 = 2*.464=.928 < α 6 = 2*.928=.956 α 7 = 2*.956-)=.92 α 8 = 2*.92-)=.824 α 9 = Άρα το δυαδικό ανάπτυγμα του.327 είναι. Παρατηρούμε ότι είναι δυνατόν το δυαδικό ανάπτυγμα ενός κλάσματος να αποτελείται από άπειρα δυαδικά ψηφία

99 Αλγόριθμος κωδικοποίησης SHANNON Παράδειγμα

100 Αλγόριθμος κωδικοποίησης SHANNON Παράδειγμα

101 Αλγόριθμος κωδικοποίησης SHANNON Παράδειγμα

102 Αλγόριθμος κωδικοποίησης SHANNON Παράδειγμα

103 Αλγόριθμος κωδικοποίησης SHANNON Παράδειγμα

104 Κωδικοποίηση HUFFMAN ) Δοθείσας μιας πηγής συμβόλων με πιθανότητες εμφάνισης i, πως μπορούμε να σχεδιάσουμε ένα βέλτιστο άμεσο κώδικα; Με τον όρο βέλτιστο εννοούμε ελαχιστοποίηση του μέσου μήκους των κωδικών λέξεων ακεραίου μήκους. Η διαδικασία Huffman βασίζεται σε δύο παρατηρήσεις που έχουν σχέση με βέλτιστους κώδικες: Σε έναν βέλτιστο κώδικα τα σύμβολα που εμφανίζονται συχνότερα μεγαλύτερη πιθανότητα εμφάνισης) θα πρέπει να αντιστοιχούν σε μικρότερες κωδικές λέξεις απ ότι σύμβολα με μικρότερη συχνότητα εμφάνισης Σε ένα βέλτιστο κώδικα τα δύο σύμβολα με τη μικρότερη πιθανότητα εμφάνισης αντιστοιχούν σε κωδικές λέξεις ίδιου μήκους

105 Κωδικοποίηση HUFFMAN 3) Αλγόριθμος κωδικοποίησης HUFFMAN Ο αλγόριθμος Huffman κατασκευάζει το δυαδικό δέντρο αρχίζοντας από τα φύλλα του και προχωράει προς τη ρίζα του. Βήμα ο : Τα σύμβολα ή τα μηνύματα) ταξινομούνται έτσι ώστε οι πιθανότητές τους είναι σε φθίνουσα ακολουθία. Βήμα 2 ο : Στη συνέχεια παίρνουμε τα δύο σύμβολα με τις μικρότερες πιθανότητες. Γι αυτά μέσα από την διαδικασία του αλγορίθμου θα αναθέσουμε, τις μακρύτερες δυνατές κωδικές λέξεις έτσι ώστε αυτές να έχουν το ίδιο μήκος και να διαφέρουν στο τελευταίο τους ψηφίο. Το βήμα αυτό θα δημιουργήσει το τελευταίο από τα ψηφία της κωδικής λέξης Βήμα 3 ο : Συνδυάζοντας τα δύο σύμβολα που επιλέξαμε στο βήμα 2 σε ένα και αναθέτοντας στο συνδυασμένο σύμβολο το άθροισμα των πιθανοτήτων των επιμέρους συμβόλων επαναλαμβάνουμε τη διαδικασία από το βήμα μεταξύ των συμβόλων που απομένουν και του συμβόλου που δημιουργήσαμε μέχρις ότου καταλήξουμε σε ένα σύμβολο με πιθανότητα. Βήμα 4 ο : Οι κωδικές λέξεις που αντιστοιχούν στο κάθε σύμβολο αποτελούνται από τις ακολουθίες και που δημιουργούνται αν διατρέξουμε το δένδρο που δημιουργήθηκε από τον κόμβο με το μοναδικό σύμβολο προς τα σύμβολα από τα οποία ξεκινήσαμε

106 Κωδικοποίηση HUFFMAN 4) Παράδειγμα s i α β γ δ ε i,

107 Κωδικοποίηση HUFFMAN 4) Παράδειγμα s i i H α β γ δ ε,

108 Κωδικοποίηση HUFFMAN 4) Παράδειγμα α.25 β γ δ ε s i i H α β γ δ ε,

109 Κωδικοποίηση HUFFMAN 4) Παράδειγμα α.25 β.25 s i i H α,25 2. γ.2 β γ δ.3 δ ε ε

110 Κωδικοποίηση HUFFMAN 4) Παράδειγμα α.25 β.25 s i i H α,25 2. γ.2 β γ δ.5.3 δ ε ε.5

111 Κωδικοποίηση HUFFMAN 4) Παράδειγμα α.25 β.25 s i i H α,25 2. γ.2 β γ δ.5.3 δ ε ε.5

112 Κωδικοποίηση HUFFMAN 4) Παράδειγμα α.25 β.45 s i i H α,25 2. γ β γ δ.5.3 δ ε ε.5

113 Κωδικοποίηση HUFFMAN 4) Παράδειγμα α.25 β s i i H γ.2 α β, γ δ.5.3 δ ε ε.5

114 Κωδικοποίηση HUFFMAN 4) Παράδειγμα α.25 β s i i H γ.2 α β, γ δ δ ε ε.5

115 Κωδικοποίηση HUFFMAN 4) Παράδειγμα α.55 β s i i H γ.2 α β, γ δ.5.3 δ ε ε.5

116 Κωδικοποίηση HUFFMAN 4) Παράδειγμα α β s i i H γ.2 α β γ, δ.5.3 δ ε ε.5

117 Κωδικοποίηση HUFFMAN 4) Παράδειγμα α β s i i H γ.2 α β γ, δ.5.3 δ ε ε.5

118 Κωδικοποίηση HUFFMAN 4) Παράδειγμα α β s i i H γ.2 α β γ, δ.5.3 δ ε ε.5

119 Κωδικοποίηση HUFFMAN 4) Παράδειγμα α β s i i H γ.2 α β γ, δ.5.3 δ ε ε.5

120 Κωδικοποίηση HUFFMAN 4) Παράδειγμα α β s i i H Cs i ) γ.2 α β γ, δ.5.3 δ ε ε.5

121 Κωδικοποίηση HUFFMAN 4) Παράδειγμα α β s i i H l i Cs i ) γ.2 α β γ, δ.5.3 δ ε ε.5

122 Κωδικοποίηση HUFFMAN 4) Παράδειγμα α β s i i H l i Cs i ) γ.2 α β γ, δ.5.3 δ ε ε.5

123 Κωδικοποίηση HUFFMAN 4) Παράδειγμα α β s i i H l i Cs i ) γ.2 α β γ, δ.5.3 δ ε ε

124 Κωδικοποίηση HUFFMAN 6) Παρατηρήσεις σχετικά με τον αλγόριθμο Huffman Αποδεικνύεται ότι κανένας άλλος αλγόριθμος δεν μπορεί να οδηγήσει στην κατασκευή κώδικα με μικρότερο μέσο μήκος κωδικών λέξεων για ένα δεδομένο αλφάβητο πηγής. Η κατασκευή του δένδρου γίνεται από τα φύλλα προς τη ρίζα του δένδρου,

125 Κωδικοποίηση HUFFMAN 7) ΑΚΟΛΟΥΘΙΕΣ ΣΥΜΒΟΛΩΝ Μειονεκτήματα αλγορίθμου Huffman Υπόθεση: Τα σύμβολα της πηγής παράγονται ανεξάρτητα το ένα από το άλλο. Τι γίνεται όμως αν τα σύμβολα αυτά εξαρτώνται από το ποια σύμβολα έχουν παραχθεί στο άμεσο παρελθόν; Γνωρίζουμε ότι ο αλγόριθμος Huffman παράγει βέλτιστο κώδικα και άρα βάσει του θεωρήματος ισχύει ότι ΗΧ) LC,X) < HX)+ Άρα κατά μέσο όρο και ανά σύμβολο έχουμε πλεονάζοντα bits μεταξύ και. Αν η εντροπία ΗΧ) της πηγής είναι μεγάλη τότε το πλεονάζον αυτό bit, LC,X)-HX), θα ήταν αμελητέο στην παραγωγή μηνυμάτων. Αν όμως η εντροπία είναι μικρότερη από bit τότε το πλεονάζον bit θα ήταν καθοριστικό στην παραγωγή μηνυμάτων. Χρειάζεται να ξέρουμε τις πιθανότητες εμφάνισης εκ των προτέρων. Αν όχι τότε θα πρέπει να συλλέξουμε πρώτα τα στατιστικά μιας πηγής και μετά να εφαρμόσουμε τον αλγόριθμο Έτσι λοιπόν παρόλο που οι κώδικες Huffman θεωρούνται βέλτιστοι αυτό αφορά στην παραγωγή συμβόλων και όχι στην παραγωγή μηνυμάτων που είναι και αυτό που χρειαζόμαστε στην πράξη.

126 Κωδικοποίηση HUFFMAN 8) Παράδειγμα Έστω μία πηγή με αλφάβητο Α={α,α 2,α 3 } και P={.8,.2,.8}. ΗΑ)=,86 bits/smbol Εφαρμόζοντας τον αλγόριθμο του Huffman παίρνουμε τις εξής κωδικές λέξεις και μήκη Παρατηρούμε ότι το μέσο μήκος κωδικής λέξης είναι.2 bits/smbol το οποίο απέχει κατά 47% από την εντροπία δηλαδή υπάρχει πλεονασμός κατά.384 bits/smbol. Σε επίπεδο μηνυμάτων ακολουθίες συμβόλων) αυτός ο πλεονασμός παίζει καθοριστικό ρόλο Π.χ. Για ακολουθίες μηνυμάτων που αποτελούνται από Ν= σύμβολα τότε σύμφωνα με την κωδικοποίηση κατά Huffman θα παράγαμε κατά μέσο όρο 384 bits περισσότερα από τα 86 που είναι τα αναγκαία Τι πρέπει να γίνει; α i i H l i Cα i ) α α 2 α ,86,2 HΑ) LC,Α) ΠΛΗ22 : Βασικά Ζητήματα Δικτύων Η/Υ 46

127 Κωδικοποίηση HUFFMAN 9) Παράδειγμα συνέχεια) Να εφαρμόσουμε τον αλγόριθμο όχι σε επίπεδο συμβόλων αλλά σε επίπεδο μηνυμάτων. Έτσι για μηνύματα δύο συμβόλων έχουμε Το μέσο μήκος κάθε κωδικής λέξης που αντιστοιχεί σε μήνυμα 2 συμβόλων είναι.7228 bits και άρα κάθε σύμβολο το μέσο μήκος κωδικής λέξης ανά σύμβολο είναι.7228/2=.864 bits το οποίο συγκρινόμενο με την εντροπία ΗΑ)=.86 είναι μόλις κατά 5.5% προσαυξημένο Το πρόβλημα που παρουσιάζει αυτή η μέθοδος στην πράξη είναι ότι χρειάζεται να υπολογίσουμε όλες τις πιθανότητες των πιθανών μηνυμάτων. Για ένα αλφάβητο με n σύμβολα και μηνύματα μήκους m τότε το σύνολο όλων των μηνυμάτων είναι m n, δηλαδή για ένα αλφάβητο 5 συμβόλων και μηνύματα μήκους θα χρειαστεί να υπολογίσουμε περίπου εκ. πιθανότητες πρώτα!! α i i H l i Cα i ) α α α α 2 α α 3 α 2 α α 2 α 2 α 2 α 3 α 3 α ,632 HΑ 2 ) ,7228 LC,Α 2 ) α 3 α α 3 α *HΑ) LC,Α 2 )/2=,86

ΝΤUA. Τεχνολογία Πολυμέσων

ΝΤUA. Τεχνολογία Πολυμέσων ΝΤUA Τεχνολογία Πολυμέσων Contents 2. Lesson 2: Compression Wh Compress? To reduce the volume of data to be transmitted tet, fa, images) To reduce the bandwidth required for transmission and to reduce

Διαβάστε περισσότερα

Θεωρία Πληροφορίας. Διάλεξη 4: Διακριτή πηγή πληροφορίας χωρίς μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Θεωρία Πληροφορίας. Διάλεξη 4: Διακριτή πηγή πληροφορίας χωρίς μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής Θεωρία Πληροφορίας Διάλεξη 4: Διακριτή πηγή πληροφορίας χωρίς μνήμη Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής 1 Ατζέντα Διακριτή πηγή πληροφορίας χωρίς μνήμη Ποσότητα πληροφορίας της πηγής Κωδικοποίηση

Διαβάστε περισσότερα

Τηλεπικοινωνιακά Συστήματα ΙΙ

Τηλεπικοινωνιακά Συστήματα ΙΙ Τηλεπικοινωνιακά Συστήματα ΙΙ Διάλεξη 11: Κωδικοποίηση Πηγής Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής 1 Ατζέντα 1. Αλγόριθμοι κωδικοποίησης πηγής Αλγόριθμος Fano Αλγόριθμος Shannon Αλγόριθμος Huffman

Διαβάστε περισσότερα

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 3 : Πηγές Πληροφορίας Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 3 : Πηγές Πληροφορίας Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ Κεφάλαιο 3 : Πηγές Πληροφορίας Χρήστος Ξενάκης Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων Περιεχόμενα Διακριτές Πηγές Πληροφορίας χωρίς μνήμη Ποσότητα πληροφορίας της πηγής Κωδικοποίηση

Διαβάστε περισσότερα

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ Θ.Ε. ΠΛΗ22 (2012-13) ΓΡΑΠΤΗ ΕΡΓΑΣΙΑ #4. Έκδοση v2 με διόρθωση τυπογραφικού λάθους στο ερώτημα 6.3 Στόχος: Βασικό στόχο της 4 ης εργασίας αποτελεί η εξοικείωση με τα μέτρα ποσότητας πληροφορίας τυχαίων

Διαβάστε περισσότερα

Επεξεργασία Πολυµέσων. Δρ. Μαρία Κοζύρη Π.Μ.Σ. «Εφαρµοσµένη Πληροφορική» Τµήµα Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών Πανεπιστήµιο Θεσσαλίας

Επεξεργασία Πολυµέσων. Δρ. Μαρία Κοζύρη Π.Μ.Σ. «Εφαρµοσµένη Πληροφορική» Τµήµα Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών Πανεπιστήµιο Θεσσαλίας Π.Μ.Σ. «Εφαρµοσµένη Πληροφορική» Τµήµα Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών Πανεπιστήµιο Θεσσαλίας Ενότητα 3: Επισκόπηση Συµπίεσης 2 Θεωρία Πληροφορίας Κωδικοποίηση Θεµελιώθηκε απο τον Claude

Διαβάστε περισσότερα

Θεωρία Πληροφορίας. Διάλεξη 5: Διακριτή πηγή πληροφορίας με μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Θεωρία Πληροφορίας. Διάλεξη 5: Διακριτή πηγή πληροφορίας με μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής Θεωρία Πληροφορίας Διάλεξη 5: Διακριτή πηγή πληροφορίας με μνήμη Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής 1 Ατζέντα 1. Διακριτές πηγές πληροφορίας με μνήμη Μαρκοβιανές αλυσίδες Τάξη μακροβιανών αλυσίδων

Διαβάστε περισσότερα

Θέματα Συστημάτων Πολυμέσων

Θέματα Συστημάτων Πολυμέσων Θέματα Συστημάτων Πολυμέσων Ενότητα # 6: Στοιχεία Θεωρίας Πληροφορίας Διδάσκων: Γεώργιος K. Πολύζος Τμήμα: Μεταπτυχιακό Πρόγραμμα Σπουδών Επιστήμη των Υπολογιστών Άδειες Χρήσης Το παρόν εκπαιδευτικό υλικό

Διαβάστε περισσότερα

Συμπίεση Δεδομένων

Συμπίεση Δεδομένων Συμπίεση Δεδομένων 2014-2015 Ρυθμός κωδικοποίησης Ένας κώδικας που απαιτεί L bits για την κωδικοποίηση μίας συμβολοσειράς N συμβόλων που εκπέμπει μία πηγή έχει ρυθμό κωδικοποίησης (μέσο μήκος λέξης) L

Διαβάστε περισσότερα

Θέματα Συστημάτων Πολυμέσων

Θέματα Συστημάτων Πολυμέσων Θέματα Συστημάτων Πολυμέσων Ενότητα # 5: Βασική Θεωρία Πληροφορίας Διδάσκων: Γεώργιος Πολύζος Τμήμα: Μεταπτυχιακό Πρόγραμμα Σπουδών Επιστήμη των Υπολογιστών Άδειες χρήσης Το παρόν εκπαιδευτικό υλικό υπόκειται

Διαβάστε περισσότερα

ΕΑΠ/ΠΛΗ22/ΑΘΗ-4. 3 η ΟΣΣ

ΕΑΠ/ΠΛΗ22/ΑΘΗ-4. 3 η ΟΣΣ ΕΑΠ/ΠΛΗ22/ΑΘΗ-4 3 η ΟΣΣ 08.02.205 Ν.Δημητρίου Σημείωση: Η παρουσίαση αυτή είναι συμπληρωματική της ύλης των βιβλίων (τόμος Β / μέρη Α,Β και τόμος Α ) καθώς και των 2 παρουσιάσεων στο study.eap.gr (oss3_plh22_digicomms_205,

Διαβάστε περισσότερα

Απαντήσεις σε απορίες

Απαντήσεις σε απορίες Ερώτηση Η µέση ποσότητα πληροφορίας κατά Shannon είναι Η(Χ)=-Σp(xi)logp(xi)...σελ 28 Στο παραδειγµα.3 στη σελιδα 29 στο τέλος δεν καταλαβαίνω πως γίνεται η εφαρµογή του παραπάνω τύπου ηλαδη δεν βλεπω συντελεστη

Διαβάστε περισσότερα

Δομές Δεδομένων και Αλγόριθμοι

Δομές Δεδομένων και Αλγόριθμοι Δομές Δεδομένων και Αλγόριθμοι Χρήστος Γκόγκος ΤΕΙ Ηπείρου Χειμερινό Εξάμηνο 2014-2015 Παρουσίαση 20 Huffman codes 1 / 12 Κωδικοποίηση σταθερού μήκους Αν χρησιμοποιηθεί κωδικοποίηση σταθερού μήκους δηλαδή

Διαβάστε περισσότερα

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 2 : Πληροφορία και Εντροπία Διάλεξη: Κώστας Μαλιάτσος Χρήστος Ξενάκης, Κώστας Μαλιάτσος

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ. Κεφάλαιο 2 : Πληροφορία και Εντροπία Διάλεξη: Κώστας Μαλιάτσος Χρήστος Ξενάκης, Κώστας Μαλιάτσος ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ Κεφάλαιο 2 : Πληροφορία και Εντροπία Διάλεξη: Κώστας Μαλιάτσος Χρήστος Ξενάκης, Κώστας Μαλιάτσος Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων Περιεχόμενα Πιθανότητες Πληροφορία Μέτρο

Διαβάστε περισσότερα

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ Κεφάλαιο 2 : Πληροφορία και Εντροπία Χρήστος Ξενάκης Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων Περιεχόμενα Πληροφορία Μέτρο πληροφορίας Μέση πληροφορία ή Εντροπία Από κοινού εντροπία

Διαβάστε περισσότερα

Θεωρία πληροφοριών. Τεχνολογία Πολυµέσων 07-1

Θεωρία πληροφοριών. Τεχνολογία Πολυµέσων 07-1 Θεωρία πληροφοριών Εισαγωγή Αµοιβαία πληροφορία Εσωτερική πληροφορία Υπό συνθήκη πληροφορία Παραδείγµατα πληροφορίας Μέση πληροφορία και εντροπία Παραδείγµατα εντροπίας Εφαρµογές Τεχνολογία Πολυµέσων 07-

Διαβάστε περισσότερα

Ψηφιακές Τηλεπικοινωνίες

Ψηφιακές Τηλεπικοινωνίες Ψηφιακές Τηλεπικοινωνίες Θεωρία Πληροφορίας: Κωδικοποίηση Πηγής Ψηφιακή Μετάδοση Υπάρχουν ιδιαίτερα εξελιγμένες τεχνικές αναλογικής μετάδοσης (που ακόμη χρησιμοποιούνται σε ορισμένες εφαρμογές) Επίσης,

Διαβάστε περισσότερα

Δίαυλος Πληροφορίας. Δρ. Α. Πολίτης

Δίαυλος Πληροφορίας. Δρ. Α. Πολίτης Δίαυλος Πληροφορίας Η λειτουργία του διαύλου πληροφορίας περιγράφεται από: Τον πίνακα διαύλου μαθηματική περιγραφή. Το διάγραμμα διάυλου παραστατικός τρόπος περιγραφής. Πίνακας Διαύλου Κατασκευάζεται με

Διαβάστε περισσότερα

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ Κεφάλαιο 9 : Κανάλι-Σύστημα Χρήστος Ξενάκης Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων Περιεχόμενα Ομιλίας Χωρητικότητα Χ ό καναλιού Το Gaussian κανάλι επικοινωνίας Τα διακριτά

Διαβάστε περισσότερα

Κωδικοποίηση Πηγής. Δρ. Α. Πολίτης

Κωδικοποίηση Πηγής. Δρ. Α. Πολίτης Κωδικοποίηση Πηγής Coder Decoder Μεταξύ πομπού και καναλιού παρεμβάλλεται ο κωδικοποιητής (coder). Έργο του: η αντικατάσταση των συμβόλων πληροφορίας της πηγής με εναλλακτικά σύμβολα ή λέξεις. Κωδικοποίηση

Διαβάστε περισσότερα

Τεχνολογία Πολυμέσων. Ενότητα # 7: Θεωρία πληροφορίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Τεχνολογία Πολυμέσων. Ενότητα # 7: Θεωρία πληροφορίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής Τεχνολογία Πολυμέσων Ενότητα # 7: Θεωρία πληροφορίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής Χρηματοδότηση Το παρόν εκπαιδευτικό υλικό έχει αναπτυχθεί στα πλαίσια του εκπαιδευτικού έργου του διδάσκοντα.

Διαβάστε περισσότερα

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ Κεφάλαιο 3 : Πηγές Πληροφορίας Χρήστος Ξενάκης Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων Περιεχόμενα Διακριτές Πηγές Πληροφορίας χωρίς μνήμη Ποσότητα πληροφορίας της πηγής Κωδικοποίηση

Διαβάστε περισσότερα

Κωδικοποίηση Πηγής. Η λειτουργία ενός συστήματος επικοινωνίας (γενικό διάγραμμα):

Κωδικοποίηση Πηγής. Η λειτουργία ενός συστήματος επικοινωνίας (γενικό διάγραμμα): Κωδικοποίηση Πηγής Η λειτουργία ενός συστήματος επικοινωνίας (γενικό διάγραμμα): Coder Decoder Μεταξύ πομπού-καναλιού παρεμβάλλεται ο κωδικοποιητής (coder). Έργο του: η αντικατάσταση των συμβόλων πληροφορίας

Διαβάστε περισσότερα

ΕΑΠ/ΠΛΗ22/ΑΘΗ-3. 3 η ΟΣΣ

ΕΑΠ/ΠΛΗ22/ΑΘΗ-3. 3 η ΟΣΣ ΕΑΠ/ΠΛΗ22/ΑΘΗ-3 3 η ΟΣΣ 04.02.207 Ν.Δημητρίου Σημείωση: Η παρουσίαση αυτή είναι συμπληρωματική της ύλης των βιβλίων (τόμος Β / μέρη Α,Β και τόμος Α ) καθώς και των 2 παρουσιάσεων στο study.eap.gr (oss3_plh22_digicomms_207,

Διαβάστε περισσότερα

ΕΑΠ/ΠΛΗ22/ΑΘΗ-4. 3 η ΟΣΣ

ΕΑΠ/ΠΛΗ22/ΑΘΗ-4. 3 η ΟΣΣ ΕΑΠ/ΠΛΗ22/ΑΘΗ-4 3 η ΟΣΣ 06.02.2016 Ν.Δημητρίου Σημείωση: Η παρουσίαση αυτή είναι συμπληρωματική της ύλης των βιβλίων (τόμος Β / μέρη Α,Β και τόμος Α ) καθώς και των 2 παρουσιάσεων στο study.eap.gr (PLH22_3rdOSS_2015_16,

Διαβάστε περισσότερα

Ψηφιακές Τηλεπικοινωνίες

Ψηφιακές Τηλεπικοινωνίες Ψηφιακές Τηλεπικοινωνίες Θεωρία Πληροφορίας: Χωρητικότητα Καναλιού Χωρητικότητα Καναλιού Η θεωρία πληροφορίας περιλαμβάνει μεταξύ άλλων: κωδικοποίηση πηγής κωδικοποίηση καναλιού Κωδικοποίηση πηγής: πόση

Διαβάστε περισσότερα

Δίαυλος Πληροφορίας. Η λειτουργία του περιγράφεται από:

Δίαυλος Πληροφορίας. Η λειτουργία του περιγράφεται από: Δίαυλος Πληροφορίας Η λειτουργία του περιγράφεται από: Πίνακας Διαύλου (μαθηματική περιγραφή) Διάγραμμα Διαύλου (παραστατικός τρόπος περιγραφής της λειτουργίας) Πίνακας Διαύλου Χρησιμοποιούμε τις υπό συνθήκη

Διαβάστε περισσότερα

Elements of Information Theory

Elements of Information Theory Elements of Information Theory Model of Digital Communications System A Logarithmic Measure for Information Mutual Information Units of Information Self-Information News... Example Information Measure

Διαβάστε περισσότερα

Μάθημα Εισαγωγή στις Τηλεπικοινωνίες Κωδικοποίηση πηγής- καναλιού Μάθημα 9o

Μάθημα Εισαγωγή στις Τηλεπικοινωνίες Κωδικοποίηση πηγής- καναλιού Μάθημα 9o Μάθημα Εισαγωγή στις Τηλεπικοινωνίες Κωδικοποίηση πηγής- καναλιού Μάθημα 9o ΕΘΝΙΚΟ & ΚΑΠΟΔΙΣΤΡΙΑΚΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ Τομέας Επικοινωνιών και Επεξεργασίας Σήματος Τμήμα Πληροφορικής & Τηλεπικοινωνιών

Διαβάστε περισσότερα

Τεχνολογία Πολυμέσων. Ενότητα # 9: Κωδικοποίηση εντροπίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Τεχνολογία Πολυμέσων. Ενότητα # 9: Κωδικοποίηση εντροπίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής Τεχνολογία Πολυμέσων Ενότητα # 9: Κωδικοποίηση εντροπίας Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής Χρηματοδότηση Το παρόν εκπαιδευτικό υλικό έχει αναπτυχθεί στα πλαίσια του εκπαιδευτικού έργου του

Διαβάστε περισσότερα

Τεχνικές Συµπίεσης Βίντεο. Δρ. Μαρία Κοζύρη Τµήµα Πληροφορικής Πανεπιστήµιο Θεσσαλίας

Τεχνικές Συµπίεσης Βίντεο. Δρ. Μαρία Κοζύρη Τµήµα Πληροφορικής Πανεπιστήµιο Θεσσαλίας Τεχνικές Συµπίεσης Βίντεο Δρ. Μαρία Κοζύρη Τµήµα Πληροφορικής Πανεπιστήµιο Θεσσαλίας Ενότητα 3: Entropy Coding Δρ. Μαρία Κοζύρη Τεχνικές Συµπίεσης Βίντεο Ενότητα 3 2 Θεωρία Πληροφορίας Κωδικοποίηση Θεµελιώθηκε

Διαβάστε περισσότερα

Εισαγωγή στη θεωρία πληροφορίας

Εισαγωγή στη θεωρία πληροφορίας Θεωρία πληροφορίας Εισαγωγή στη θεωρία πληροφορίας Τηλεπικοινωνιακά συστήματα Όλα τα τηλεπικοινωνιακά συστήματα σχεδιάζονται για να μεταφέρουν πληροφορία Σε κάθε τηλεπικοινωνιακό σύστημα υπάρχει μια πηγή

Διαβάστε περισσότερα

Θεωρία της Πληροφορίας 3 ο Εξάμηνο

Θεωρία της Πληροφορίας 3 ο Εξάμηνο Σμήμα Πληροφορικής & Επικοινωνιών Θεωρία της Πληροφορίας 3 ο Εξάμηνο Τομέας Τηλεπικοινωνιών και Δικτύων Δρ. Αναστάσιος Πολίτης Καθηγητής Εφαρμογών 1 Διεξαγωγή και Εξέταση του Μαθήματος Μάθημα Πώς? 13 Διαλέξεις.

Διαβάστε περισσότερα

( ) log 2 = E. Σεραφείµ Καραµπογιάς

( ) log 2 = E. Σεραφείµ Καραµπογιάς Παρατηρούµε ότι ο ορισµός της Η βασίζεται στη χρονική µέση τιµή. Για να ισχύει ο ορισµός αυτός και για µέση τιµή συνόλου πρέπει η πηγή να είναι εργοδική, δηλαδή H ( X) ( ) = E log 2 p k Η εντροπία µιας

Διαβάστε περισσότερα

Συμπίεση χωρίς Απώλειες

Συμπίεση χωρίς Απώλειες Συμπίεση χωρίς Απώλειες Στόχοι της συμπίεσης δεδομένων: Μείωση του απαιτούμενου χώρου αποθήκευσης των δεδομένων. Περιορισμός της απαιτούμενης χωρητικότητας διαύλου επικοινωνίας για την μετάδοση. μείωση

Διαβάστε περισσότερα

Θεώρημα κωδικοποίησης πηγής

Θεώρημα κωδικοποίησης πηγής Κωδικοποίηση Kωδικοποίηση πηγής Θεώρημα κωδικοποίησης πηγής Καθορίζει ένα θεμελιώδες όριο στον ρυθμό με τον οποίο η έξοδος μιας πηγής πληροφορίας μπορεί να συμπιεσθεί χωρίς να προκληθεί μεγάλη πιθανότητα

Διαβάστε περισσότερα

Main source: "Discrete-time systems and computer control" by Α. ΣΚΟΔΡΑΣ ΨΗΦΙΑΚΟΣ ΕΛΕΓΧΟΣ ΔΙΑΛΕΞΗ 4 ΔΙΑΦΑΝΕΙΑ 1

Main source: Discrete-time systems and computer control by Α. ΣΚΟΔΡΑΣ ΨΗΦΙΑΚΟΣ ΕΛΕΓΧΟΣ ΔΙΑΛΕΞΗ 4 ΔΙΑΦΑΝΕΙΑ 1 Main source: "Discrete-time systems and computer control" by Α. ΣΚΟΔΡΑΣ ΨΗΦΙΑΚΟΣ ΕΛΕΓΧΟΣ ΔΙΑΛΕΞΗ 4 ΔΙΑΦΑΝΕΙΑ 1 A Brief History of Sampling Research 1915 - Edmund Taylor Whittaker (1873-1956) devised a

Διαβάστε περισσότερα

d k 10 k + d k 1 10 k d d = k i=0 d i 10 i.

d k 10 k + d k 1 10 k d d = k i=0 d i 10 i. Διακριτά Μαθηματικά ΙΙ Χρήστος Νομικός Τμήμα Μηχανικών Η/Υ και Πληροφορικής Πανεπιστήμιο Ιωαννίνων 2018 Χρήστος Νομικός ( Τμήμα Μηχανικών Η/Υ Διακριτά και Πληροφορικής Μαθηματικά Πανεπιστήμιο ΙΙ Ιωαννίνων

Διαβάστε περισσότερα

Κατηγορίες Συμπίεσης. Συμπίεση με απώλειες δεδομένων (lossy compression) π.χ. συμπίεση εικόνας και ήχου

Κατηγορίες Συμπίεσης. Συμπίεση με απώλειες δεδομένων (lossy compression) π.χ. συμπίεση εικόνας και ήχου Συμπίεση Η συμπίεση δεδομένων ελαττώνει το μέγεθος ενός αρχείου : Εξοικονόμηση αποθηκευτικού χώρου Εξοικονόμηση χρόνου μετάδοσης Τα περισσότερα αρχεία έχουν πλεονασμό στα δεδομένα τους Είναι σημαντική

Διαβάστε περισσότερα

Πρόβλημα 1: Αναζήτηση Ελάχιστης/Μέγιστης Τιμής

Πρόβλημα 1: Αναζήτηση Ελάχιστης/Μέγιστης Τιμής Πρόβλημα 1: Αναζήτηση Ελάχιστης/Μέγιστης Τιμής Να γραφεί πρόγραμμα το οποίο δέχεται ως είσοδο μια ακολουθία S από n (n 40) ακέραιους αριθμούς και επιστρέφει ως έξοδο δύο ακολουθίες από θετικούς ακέραιους

Διαβάστε περισσότερα

EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας 3η σειρά ασκήσεων Διακριτά και Συνεχή Κανάλια. Παράδοση: Έως 22/6/2015

EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας 3η σειρά ασκήσεων Διακριτά και Συνεχή Κανάλια. Παράδοση: Έως 22/6/2015 EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας Φυλλάδιο 13 Δ. Τουμπακάρης 30 Μαΐου 2015 EE728 (22Α004) - Προχωρημένα Θέματα Θεωρίας Πληροφορίας 3η σειρά ασκήσεων Διακριτά και Συνεχή Κανάλια Παράδοση:

Διαβάστε περισσότερα

HOMEWORK 4 = G. In order to plot the stress versus the stretch we define a normalized stretch:

HOMEWORK 4 = G. In order to plot the stress versus the stretch we define a normalized stretch: HOMEWORK 4 Problem a For the fast loading case, we want to derive the relationship between P zz and λ z. We know that the nominal stress is expressed as: P zz = ψ λ z where λ z = λ λ z. Therefore, applying

Διαβάστε περισσότερα

Solutions to Exercise Sheet 5

Solutions to Exercise Sheet 5 Solutions to Eercise Sheet 5 jacques@ucsd.edu. Let X and Y be random variables with joint pdf f(, y) = 3y( + y) where and y. Determine each of the following probabilities. Solutions. a. P (X ). b. P (X

Διαβάστε περισσότερα

ω ω ω ω ω ω+2 ω ω+2 + ω ω ω ω+2 + ω ω+1 ω ω+2 2 ω ω ω ω ω ω ω ω+1 ω ω2 ω ω2 + ω ω ω2 + ω ω ω ω2 + ω ω+1 ω ω2 + ω ω+1 + ω ω ω ω2 + ω

ω ω ω ω ω ω+2 ω ω+2 + ω ω ω ω+2 + ω ω+1 ω ω+2 2 ω ω ω ω ω ω ω ω+1 ω ω2 ω ω2 + ω ω ω2 + ω ω ω ω2 + ω ω+1 ω ω2 + ω ω+1 + ω ω ω ω2 + ω 0 1 2 3 4 5 6 ω ω + 1 ω + 2 ω + 3 ω + 4 ω2 ω2 + 1 ω2 + 2 ω2 + 3 ω3 ω3 + 1 ω3 + 2 ω4 ω4 + 1 ω5 ω 2 ω 2 + 1 ω 2 + 2 ω 2 + ω ω 2 + ω + 1 ω 2 + ω2 ω 2 2 ω 2 2 + 1 ω 2 2 + ω ω 2 3 ω 3 ω 3 + 1 ω 3 + ω ω 3 +

Διαβάστε περισσότερα

Ψηφιακές Τηλεπικοινωνίες. Θεωρία Ρυθμού Παραμόρφωσης

Ψηφιακές Τηλεπικοινωνίες. Θεωρία Ρυθμού Παραμόρφωσης Ψηφιακές Τηλεπικοινωνίες Θεωρία Ρυθμού Παραμόρφωσης Θεωρία Ρυθμού-Παραμόρφωσης Θεώρημα Κωδικοποίησης Πηγής: αν έχω αρκετά μεγάλο μπλοκ δεδομένων, μπορώ να φτάσω κοντά στην εντροπία Πιθανά Προβλήματα: >

Διαβάστε περισσότερα

ΚΥΠΡΙΑΚΗ ΕΤΑΙΡΕΙΑ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ 19/5/2007

ΚΥΠΡΙΑΚΗ ΕΤΑΙΡΕΙΑ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ 19/5/2007 Οδηγίες: Να απαντηθούν όλες οι ερωτήσεις. Αν κάπου κάνετε κάποιες υποθέσεις να αναφερθούν στη σχετική ερώτηση. Όλα τα αρχεία που αναφέρονται στα προβλήματα βρίσκονται στον ίδιο φάκελο με το εκτελέσιμο

Διαβάστε περισσότερα

1 Βασικές Έννοιες Θεωρίας Πληροφορίας

1 Βασικές Έννοιες Θεωρίας Πληροφορίας 1 Βασικές Έννοιες Θεωρίας Πληροφορίας Εντροπία τυχαίων μεταβλητών X, Y : H(X) = E [log Pr(x)] (1) H(X, Y ) = E [log Pr(x, y)] (2) H(X Y ) = E [log Pr(x y)] (3) Ιδιότητες Εντροπίας: Νόμος Bayes: Pr(y x)

Διαβάστε περισσότερα

Block Ciphers Modes. Ramki Thurimella

Block Ciphers Modes. Ramki Thurimella Block Ciphers Modes Ramki Thurimella Only Encryption I.e. messages could be modified Should not assume that nonsensical messages do no harm Always must be combined with authentication 2 Padding Must be

Διαβάστε περισσότερα

Ψηφιακή Επεξεργασία Εικόνας

Ψηφιακή Επεξεργασία Εικόνας ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ Ανώτατο Εκπαιδευτικό Ίδρυμα Πειραιά Τεχνολογικού Τομέα Ψηφιακή Επεξεργασία Εικόνας Ενότητα 6 : Κωδικοποίηση & Συμπίεση εικόνας Ιωάννης Έλληνας Τμήμα Η/ΥΣ Άδειες Χρήσης Το παρόν εκπαιδευτικό

Διαβάστε περισσότερα

Συμπίεση Πολυμεσικών Δεδομένων

Συμπίεση Πολυμεσικών Δεδομένων Συμπίεση Πολυμεσικών Δεδομένων Εισαγωγή στο πρόβλημα και επιλεγμένες εφαρμογές Παράδειγμα 2: Συμπίεση Εικόνας ΔΠΜΣ ΜΥΑ, Ιούνιος 2011 Εισαγωγή (1) Οι τεχνικές συμπίεσης βασίζονται στην απόρριψη της πλεονάζουσας

Διαβάστε περισσότερα

Περιεχόμενα 3ης Διάλεξης 1 Σύνοψη Προηγούμενου Μαθήματος 2 Δεσμευμένη Πιθανότητα 3 Bayes Theorem 4 Στοχαστική Ανεξαρτησία 5 Αμοιβαία (ή πλήρης) Ανεξαρ

Περιεχόμενα 3ης Διάλεξης 1 Σύνοψη Προηγούμενου Μαθήματος 2 Δεσμευμένη Πιθανότητα 3 Bayes Theorem 4 Στοχαστική Ανεξαρτησία 5 Αμοιβαία (ή πλήρης) Ανεξαρ Πιθανότητες και Αρχές Στατιστικής (3η Διάλεξη) Σωτήρης Νικολετσέας, καθηγητής Τμήμα Μηχανικών Η/Υ & Πληροφορικής, Πανεπιστήμιο Πατρών Ακαδημαϊκό Ετος 2017-2018 Σωτήρης Νικολετσέας, καθηγητής 1 / 38 Περιεχόμενα

Διαβάστε περισσότερα

Σεραφείµ Καραµπογιάς. Πηγές Πληροφορίας και Κωδικοποίηση Πηγής 6.3-1

Σεραφείµ Καραµπογιάς. Πηγές Πληροφορίας και Κωδικοποίηση Πηγής 6.3-1 Ο αλγόριθµος Lempel-iv Ο αλγόριθµος Lempel-iv ανήκει στην κατηγορία των καθολικών universal αλγορίθµων κωδικοποίησης πηγής δηλαδή αλγορίθµων που είναι ανεξάρτητοι από τη στατιστική της πηγής. Ο αλγόριθµος

Διαβάστε περισσότερα

Τηλεπικοινωνιακά Συστήματα ΙΙ

Τηλεπικοινωνιακά Συστήματα ΙΙ Τηλεπικοινωνιακά Συστήματα ΙΙ Διάλεξη 13: Συνελικτικοί Κώδικες Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής 1 Κώδικες: Εισαγωγή Συνελικτικοί κώδικες Ατζέντα Ιστορική αναδρομή Μαθηματικό υπόβαθρο Αναπαράσταση

Διαβάστε περισσότερα

Περιεχόμενα 3ης Διάλεξης 1 Σύνοψη Προηγούμενου Μαθήματος 2 Δεσμευμένη Πιθανότητα 3 Bayes Theorem 4 Στοχαστική Ανεξαρτησία 5 Αμοιβαία (ή πλήρης) Ανεξαρ

Περιεχόμενα 3ης Διάλεξης 1 Σύνοψη Προηγούμενου Μαθήματος 2 Δεσμευμένη Πιθανότητα 3 Bayes Theorem 4 Στοχαστική Ανεξαρτησία 5 Αμοιβαία (ή πλήρης) Ανεξαρ 3ο Μάθημα Πιθανότητες Σωτήρης Νικολετσέας, αναπληρωτής καθηγητής Τμήμα Μηχανικών Η/Υ & Πληροφορικής, Πανεπιστήμιο Πατρών Ακαδημαϊκό Ετος 2016-2017 Σωτήρης Νικολετσέας, αναπληρωτής καθηγητής 3ο Μάθημα Πιθανότητες

Διαβάστε περισσότερα

Other Test Constructions: Likelihood Ratio & Bayes Tests

Other Test Constructions: Likelihood Ratio & Bayes Tests Other Test Constructions: Likelihood Ratio & Bayes Tests Side-Note: So far we have seen a few approaches for creating tests such as Neyman-Pearson Lemma ( most powerful tests of H 0 : θ = θ 0 vs H 1 :

Διαβάστε περισσότερα

Η πιθανότητα επομένως που ζητείται να υπολογίσουμε, είναι η P(A 1 M 2 ). Η πιθανότητα αυτή μπορεί να γραφεί ως εξής:

Η πιθανότητα επομένως που ζητείται να υπολογίσουμε, είναι η P(A 1 M 2 ). Η πιθανότητα αυτή μπορεί να γραφεί ως εξής: Άσκηση 1: Ένα κουτί περιέχει 3 άσπρες και 2 μαύρες μπάλες. Αφαιρούμε τυχαία δύο μπάλες διαδοχικά. Ποια η πιθανότητα η πρώτη μπάλα να είναι άσπρη και η δεύτερη μπάλα να είναι μαύρη; Λύση: Αρχικά ορίζουμε

Διαβάστε περισσότερα

EE512: Error Control Coding

EE512: Error Control Coding EE512: Error Control Coding Solution for Assignment on Finite Fields February 16, 2007 1. (a) Addition and Multiplication tables for GF (5) and GF (7) are shown in Tables 1 and 2. + 0 1 2 3 4 0 0 1 2 3

Διαβάστε περισσότερα

Ανάκτηση Πληροφορίας

Ανάκτηση Πληροφορίας Ιόνιο Πανεπιστήμιο Τμήμα Πληροφορικής Ανάκτηση Πληροφορίας Διδάσκων: Φοίβος Μυλωνάς fmylonas@ionio.gr Διάλεξη #08 Συµπίεση Κειµένων Φοίβος Μυλωνάς fmylonas@ionio.gr Ανάκτηση Πληροφορίας 1 Άδεια χρήσης

Διαβάστε περισσότερα

Αθανάσιος Χρ. Τζέμος Τομέας Θεωρητικής Φυσικής. Εντροπία Shannon

Αθανάσιος Χρ. Τζέμος Τομέας Θεωρητικής Φυσικής. Εντροπία Shannon Αθανάσιος Χρ. Τζέμος Τομέας Θεωρητικής Φυσικής Εντροπία Shannon Ένα από τα βασικά ερωτήματα της θεωρίας της πληροφορίας ήταν ανέκαθεν το πώς θα μπορούσε να ποσοτικοποιηθεί η πληροφορία, ώστε να μπορούμε

Διαβάστε περισσότερα

Τεχνολογία Πολυμέσων. Ενότητα # 8: Αρχές κωδικοποίησης Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Τεχνολογία Πολυμέσων. Ενότητα # 8: Αρχές κωδικοποίησης Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής Τεχνολογία Πολυμέσων Ενότητα # 8: Αρχές κωδικοποίησης Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής Χρηματοδότηση Το παρόν εκπαιδευτικό υλικό έχει αναπτυχθεί στα πλαίσια του εκπαιδευτικού έργου του

Διαβάστε περισσότερα

Συμπίεση Δεδομένων

Συμπίεση Δεδομένων Συμπίεση Δεδομένων 014-015 Μοναδικά Αποκωδικοποιήσιμοι Κώδικες Δρ. Ν. Π. Σγούρος Έλεγος μοναδικής Αποκωδικοποίησης Γενικοί ορισμοί Έστω δύο κωδικές λέξεις α,β με μήκη,m και

Διαβάστε περισσότερα

Phys460.nb Solution for the t-dependent Schrodinger s equation How did we find the solution? (not required)

Phys460.nb Solution for the t-dependent Schrodinger s equation How did we find the solution? (not required) Phys460.nb 81 ψ n (t) is still the (same) eigenstate of H But for tdependent H. The answer is NO. 5.5.5. Solution for the tdependent Schrodinger s equation If we assume that at time t 0, the electron starts

Διαβάστε περισσότερα

Πληροφορική Ι. Μάθημα 9 ο Συμπίεση δεδομένων. Τμήμα Χρηματοοικονομικής & Ελεγκτικής ΤΕΙ Ηπείρου Παράρτημα Πρέβεζας. Δρ.

Πληροφορική Ι. Μάθημα 9 ο Συμπίεση δεδομένων. Τμήμα Χρηματοοικονομικής & Ελεγκτικής ΤΕΙ Ηπείρου Παράρτημα Πρέβεζας. Δρ. Οι διαφάνειες έχουν βασιστεί στο βιβλίο «Εισαγωγή στην επιστήμη των υπολογιστών» του B. Forouzanκαι Firoyz Mosharraf(2 η έκδοση-2010) Εκδόσεις Κλειδάριθμος Τμήμα Χρηματοοικονομικής & Ελεγκτικής ΤΕΙ Ηπείρου

Διαβάστε περισσότερα

ΚΥΠΡΙΑΚΟΣ ΣΥΝΔΕΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY 21 ος ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ Δεύτερος Γύρος - 30 Μαρτίου 2011

ΚΥΠΡΙΑΚΟΣ ΣΥΝΔΕΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY 21 ος ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ Δεύτερος Γύρος - 30 Μαρτίου 2011 Διάρκεια Διαγωνισμού: 3 ώρες Απαντήστε όλες τις ερωτήσεις Μέγιστο Βάρος (20 Μονάδες) Δίνεται ένα σύνολο από N σφαιρίδια τα οποία δεν έχουν όλα το ίδιο βάρος μεταξύ τους και ένα κουτί που αντέχει μέχρι

Διαβάστε περισσότερα

Homework 3 Solutions

Homework 3 Solutions Homework 3 Solutions Igor Yanovsky (Math 151A TA) Problem 1: Compute the absolute error and relative error in approximations of p by p. (Use calculator!) a) p π, p 22/7; b) p π, p 3.141. Solution: For

Διαβάστε περισσότερα

Θεωρία τησ Πληροφορίασ (Θ) ΔΙΔΑΚΩΝ: Δρ. Αναςτάςιοσ Πολίτησ

Θεωρία τησ Πληροφορίασ (Θ) ΔΙΔΑΚΩΝ: Δρ. Αναςτάςιοσ Πολίτησ Θεωρία τησ Πληροφορίασ (Θ) Ενότητα 3: Κωδικοποίηςη Πηγήσ ΔΙΔΑΚΩΝ: Δρ. Αναςτάςιοσ Πολίτησ ΧΟΛΗ ΣΕΧΝΟΛΟΓΙΚΩΝ ΕΦΑΡΜΟΓΩΝ ΣΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΠΛΗΡΟΦΟΡΙΚΗ ΣΕ Άδειεσ Χρήςησ Σο παρόν εκπαιδευτικό υλικό υπόκειται ςε

Διαβάστε περισσότερα

HY380 Αλγόριθμοι και πολυπλοκότητα Hard Problems

HY380 Αλγόριθμοι και πολυπλοκότητα Hard Problems HY380 Αλγόριθμοι και πολυπλοκότητα Hard Problems Ημερομηνία Παράδοσης: 0/1/017 την ώρα του μαθήματος ή με email: mkarabin@csd.uoc.gr Γενικές Οδηγίες α) Επιτρέπεται η αναζήτηση στο Internet και στην βιβλιοθήκη

Διαβάστε περισσότερα

Αρχές κωδικοποίησης. Τεχνολογία Πολυµέσων 08-1

Αρχές κωδικοποίησης. Τεχνολογία Πολυµέσων 08-1 Αρχές κωδικοποίησης Απαιτήσεις κωδικοποίησης Είδη κωδικοποίησης Βασικές τεχνικές κωδικοποίησης Κωδικοποίηση Huffman Κωδικοποίηση µετασχηµατισµών Κβαντοποίηση διανυσµάτων ιαφορική κωδικοποίηση Τεχνολογία

Διαβάστε περισσότερα

Τεχνολογία Πολυμέσων. Ενότητα # 11: Κωδικοποίηση εικόνων: JPEG Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής

Τεχνολογία Πολυμέσων. Ενότητα # 11: Κωδικοποίηση εικόνων: JPEG Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής Τεχνολογία Πολυμέσων Ενότητα # 11: Κωδικοποίηση εικόνων: JPEG Διδάσκων: Γεώργιος Ξυλωμένος Τμήμα: Πληροφορικής Χρηματοδότηση Το παρόν εκπαιδευτικό υλικό έχει αναπτυχθεί στα πλαίσια του εκπαιδευτικού έργου

Διαβάστε περισσότερα

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη (3η έκδοση, 11/3)

ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη (3η έκδοση, 11/3) ΕΕ728 Προχωρηµένα Θέµατα Θεωρίας Πληροφορίας 2η διάλεξη (3η έκδοση, 11/3) ηµήτρης-αλέξανδρος Τουµπακάρης Τµήµα ΗΜ&ΤΥ, Πανεπιστήµιο Πατρών 19 Φεβρουαρίου 2013 ηµήτρης-αλέξανδρος Τουµπακάρης Προχωρηµένα

Διαβάστε περισσότερα

Σχεδιαση Αλγοριθμων -Τμημα Πληροφορικης ΑΠΘ - Κεφαλαιο 9ο

Σχεδιαση Αλγοριθμων -Τμημα Πληροφορικης ΑΠΘ - Κεφαλαιο 9ο Σχεδίαση Αλγορίθμων Άπληστοι Αλγόριθμοι http://delab.csd.auth.gr/~gounaris/courses/ad 1 Άπληστοι αλγόριθμοι Προβλήματα βελτιστοποίησης ηςλύνονται με μια σειρά επιλογών που είναι: εφικτές τοπικά βέλτιστες

Διαβάστε περισσότερα

Μέρος ΙΙ. Τυχαίες Μεταβλητές

Μέρος ΙΙ. Τυχαίες Μεταβλητές Μέρος ΙΙ. Τυχαίες Μεταβλητές Ορισμοί Συναρτήσεις κατανομής πιθανότητας και πυκνότητας πιθανότητας Διακριτές τυχαίες μεταβλητές Ειδικές κατανομές διακριτών τυχαίων μεταβλητών Συνεχείς τυχαίες μεταβλητές

Διαβάστε περισσότερα

ΤΕΧΝΟΛΟΓΙΕΣ ΠΟΛΥΜΕΣΩΝ

ΤΕΧΝΟΛΟΓΙΕΣ ΠΟΛΥΜΕΣΩΝ ΤΕΧΝΟΛΟΓΙΕΣ ΠΟΛΥΜΕΣΩΝ Κείμενα Ν. Μ. Σγούρος (sgouros@unipi.gr) Επεξεργασία Κειμένων Αναζήτηση Ακολουθιακή Αναζήτηση, Δομές Trie Συμπίεση Huffmann Coding, Run-Length Encoding, Burrows- Wheeler Κρυπτογράφηση

Διαβάστε περισσότερα

Bayesian statistics. DS GA 1002 Probability and Statistics for Data Science.

Bayesian statistics. DS GA 1002 Probability and Statistics for Data Science. Bayesian statistics DS GA 1002 Probability and Statistics for Data Science http://www.cims.nyu.edu/~cfgranda/pages/dsga1002_fall17 Carlos Fernandez-Granda Frequentist vs Bayesian statistics In frequentist

Διαβάστε περισσότερα

Συμπίεση Δεδομένων Δοκιμής (Test Data Compression) Νικολός Δημήτριος, Τμήμα Μηχ. Ηλεκτρονικών Υπολογιστών & Πληροφορικής, Παν Πατρών

Συμπίεση Δεδομένων Δοκιμής (Test Data Compression) Νικολός Δημήτριος, Τμήμα Μηχ. Ηλεκτρονικών Υπολογιστών & Πληροφορικής, Παν Πατρών Συμπίεση Δεδομένων Δοκιμής (Test Data Compression), Παν Πατρών Test resource partitioning techniques ΑΤΕ Automatic Test Equipment (ATE) based BIST based Έλεγχος παραγωγής γής βασισμένος σε ΑΤΕ Μεγάλος

Διαβάστε περισσότερα

Κεφάλαιο 2 Πληροφορία και εντροπία

Κεφάλαιο 2 Πληροφορία και εντροπία Κεφάλαιο 2 Πληροφορία και εντροπία Άσκηση. Έστω αλφάβητο Α={0,} και δύο πηγές p και q. Έστω οτι p(0)=-r, p()=r, q(0)=-s και q()=s. Να υπολογιστούν οι σχετικές εντροπίες Η(Α,p/q) και Η(Α,q/p). Να γίνει

Διαβάστε περισσότερα

Section 8.3 Trigonometric Equations

Section 8.3 Trigonometric Equations 99 Section 8. Trigonometric Equations Objective 1: Solve Equations Involving One Trigonometric Function. In this section and the next, we will exple how to solving equations involving trigonometric functions.

Διαβάστε περισσότερα

Αρχές κωδικοποίησης. Τεχνολογία Πολυμέσων και Πολυμεσικές Επικοινωνίες 08-1

Αρχές κωδικοποίησης. Τεχνολογία Πολυμέσων και Πολυμεσικές Επικοινωνίες 08-1 Αρχές κωδικοποίησης Απαιτήσεις κωδικοποίησης Είδη κωδικοποίησης Κωδικοποίηση εντροπίας Διαφορική κωδικοποίηση Κωδικοποίηση μετασχηματισμών Στρωματοποιημένη κωδικοποίηση Κβαντοποίηση διανυσμάτων Τεχνολογία

Διαβάστε περισσότερα

ΗΜΥ 210 ΣΧΕΔΙΑΣΜΟΣ ΨΗΦΙΑΚΩΝ ΣΥΣΤΗΜΑΤΩΝ. Χειµερινό Εξάµηνο 2016 ΔΙΑΛΕΞΗ 13: Διαδικασία Σχεδιασµού Ακολουθιακών Κυκλωµάτων (Κεφάλαιο 6.

ΗΜΥ 210 ΣΧΕΔΙΑΣΜΟΣ ΨΗΦΙΑΚΩΝ ΣΥΣΤΗΜΑΤΩΝ. Χειµερινό Εξάµηνο 2016 ΔΙΑΛΕΞΗ 13: Διαδικασία Σχεδιασµού Ακολουθιακών Κυκλωµάτων (Κεφάλαιο 6. ΗΜΥ 210 ΣΧΕΔΙΑΣΜΟΣ ΨΗΦΙΑΚΩΝ ΣΥΣΤΗΜΑΤΩΝ Χειµερινό Εξάµηνο 2016 ΔΙΑΛΕΞΗ 13: Διαδικασία Σχεδιασµού Ακολουθιακών Κυκλωµάτων (Κεφάλαιο 6.3) ΧΑΡΗΣ ΘΕΟΧΑΡΙΔΗΣ Επίκουρος Καθηγητής, ΗΜΜΥ (ttheocharides@ucy.ac.cy)

Διαβάστε περισσότερα

derivation of the Laplacian from rectangular to spherical coordinates

derivation of the Laplacian from rectangular to spherical coordinates derivation of the Laplacian from rectangular to spherical coordinates swapnizzle 03-03- :5:43 We begin by recognizing the familiar conversion from rectangular to spherical coordinates (note that φ is used

Διαβάστε περισσότερα

Επίλυση Προβληµάτων µε Greedy Αλγόριθµους

Επίλυση Προβληµάτων µε Greedy Αλγόριθµους Επίλυση Προβληµάτων µε Greedy Αλγόριθµους Περίληψη Επίλυση προβληµάτων χρησιµοποιώντας Greedy Αλγόριθµους Ελάχιστα Δέντρα Επικάλυψης Αλγόριθµος του Prim Αλγόριθµος του Kruskal Πρόβληµα Ελάχιστης Απόστασης

Διαβάστε περισσότερα

ΚΥΠΡΙΑΚΗ ΕΤΑΙΡΕΙΑ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ 24/3/2007

ΚΥΠΡΙΑΚΗ ΕΤΑΙΡΕΙΑ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ 24/3/2007 Οδηγίες: Να απαντηθούν όλες οι ερωτήσεις. Όλοι οι αριθμοί που αναφέρονται σε όλα τα ερωτήματα μικρότεροι του 10000 εκτός αν ορίζεται διαφορετικά στη διατύπωση του προβλήματος. Αν κάπου κάνετε κάποιες υποθέσεις

Διαβάστε περισσότερα

ΕΡΓΑΣΤΗΡΙΑΚΕΣ ΑΣΚΗΣΕΙΣ C ΣΕΙΡΑ 1 η

ΕΡΓΑΣΤΗΡΙΑΚΕΣ ΑΣΚΗΣΕΙΣ C ΣΕΙΡΑ 1 η Δημοκρίτειο Πανεπιστήμιο Θράκης Πολυτεχνική Σχολή Τμήμα Μηχανικών Παραγωγής & Διοίκησης Ακαδ. έτος 2015-2016 Τομέας Συστημάτων Παραγωγής Εξάμηνο Β Αναπληρωτής Καθηγητής Στέφανος Δ. Κατσαβούνης ΜΑΘΗΜΑ :

Διαβάστε περισσότερα

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ Θ.Ε. ΠΛΗ (0-3) ΓΡΑΠΤΗ ΕΡΓΑΣΙΑ #4 Στόχος : Βασικό στόχο της 4 ης εργασίας αποτελεί η εξοικείωση με τα μέτρα ποσότητας πληροφορίας τυχαίων μεταβλητών (Κεφάλαιο ), τις σχετικές έννοιες και τα μέτρα διακριτών

Διαβάστε περισσότερα

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2

Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας. Version 2 Σέργιος Θεοδωρίδης Κωνσταντίνος Κουτρούμπας Version 2 1 ΜΗ ΓΡΑΜΜΙΚΟΙ ΤΑΞΙΝΟΜΗΤΕΣ ΔΕΝΔΡΑ ΑΠΟΦΑΣΗΣ Πρόκειται για μια οικογένεια μη γραμμικών ταξινομητών Είναι συστήματα απόφασης πολλών σταδίων (multistage),

Διαβάστε περισσότερα

Αριθμητική Κωδικοποίηση

Αριθμητική Κωδικοποίηση Αριθμητική Κωδικοποίηση Ο κώδικας Huffmann είναι βέλτιστος γιατί παράγει συμπαγή κώδικα για δεδομένες πιθανότητες Συμπαγής κώδικας: Δεν υπάρχει άλλος με μικρότερο μέσο μήκος κωδικής λέξης Δεν είναι 100%

Διαβάστε περισσότερα

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων

Χρήστος Ξενάκης. Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣΟΡ Κεφάλαιο 1 : Εισαγωγή στη Θεωρία ωία Πληροφορίας Χρήστος Ξενάκης Πανεπιστήμιο Πειραιώς, Τμήμα Ψηφιακών Συστημάτων Περιεχόμενα Ομιλίας Έννοια της πληροφορίας Άλλες βασικές έννοιες Στόχος

Διαβάστε περισσότερα

Μάθημα 7 ο. Συμπίεση Εικόνας ΤΜΗΥΠ / ΕΕΣΤ 1

Μάθημα 7 ο. Συμπίεση Εικόνας ΤΜΗΥΠ / ΕΕΣΤ 1 Μάθημα 7 ο Συμπίεση Εικόνας ΤΜΗΥΠ / ΕΕΣΤ 1 Εισαγωγή (1) Οι τεχνικές συμπίεσης βασίζονται στην απόρριψη της πλεονάζουσας πληροφορίας Ανάγκες που καλύπτονται Εξοικονόμηση μνήμης Ελάττωση χρόνου και εύρους

Διαβάστε περισσότερα

Problem Set 3: Solutions

Problem Set 3: Solutions CMPSCI 69GG Applied Information Theory Fall 006 Problem Set 3: Solutions. [Cover and Thomas 7.] a Define the following notation, C I p xx; Y max X; Y C I p xx; Ỹ max I X; Ỹ We would like to show that C

Διαβάστε περισσότερα

Δομές Δεδομένων & Αλγόριθμοι

Δομές Δεδομένων & Αλγόριθμοι Σωροί 1 Ορισμοί Ένα δέντρο μεγίστων (δένδρο ελαχίστων) είναι ένα δένδρο, όπου η τιμή κάθε κόμβου είναι μεγαλύτερη (μικρότερη) ή ίση με των τιμών των παιδιών του Ένας σωρός μεγίστων (σωρός ελαχίστων) είναι

Διαβάστε περισσότερα

(C) 2010 Pearson Education, Inc. All rights reserved.

(C) 2010 Pearson Education, Inc. All rights reserved. Connectionless transmission with datagrams. Connection-oriented transmission is like the telephone system You dial and are given a connection to the telephone of fthe person with whom you wish to communicate.

Διαβάστε περισσότερα

the total number of electrons passing through the lamp.

the total number of electrons passing through the lamp. 1. A 12 V 36 W lamp is lit to normal brightness using a 12 V car battery of negligible internal resistance. The lamp is switched on for one hour (3600 s). For the time of 1 hour, calculate (i) the energy

Διαβάστε περισσότερα

ΕΡΓΑΣΤΗΡΙΑΚΕΣ ΑΣΚΗΣΕΙΣ C ΣΕΙΡΑ 1 η

ΕΡΓΑΣΤΗΡΙΑΚΕΣ ΑΣΚΗΣΕΙΣ C ΣΕΙΡΑ 1 η Δ.Π.Θ. - Πολυτεχνική Σχολή Τμήμα Μηχανικών Παραγωγής & Διοίκησης Ακαδ. έτος 2016-2017 Τομέας Συστημάτων Παραγωγής Εξάμηνο Β Αναπληρωτής Καθηγητής Στέφανος Δ. Κατσαβούνης ΜΑΘΗΜΑ : ΔΟΜΗΜΕΝΟΣ ΠΡΟΓΡΑΜΜΑΤΙΣΜΟΣ

Διαβάστε περισσότερα

3.4 SUM AND DIFFERENCE FORMULAS. NOTE: cos(α+β) cos α + cos β cos(α-β) cos α -cos β

3.4 SUM AND DIFFERENCE FORMULAS. NOTE: cos(α+β) cos α + cos β cos(α-β) cos α -cos β 3.4 SUM AND DIFFERENCE FORMULAS Page Theorem cos(αβ cos α cos β -sin α cos(α-β cos α cos β sin α NOTE: cos(αβ cos α cos β cos(α-β cos α -cos β Proof of cos(α-β cos α cos β sin α Let s use a unit circle

Διαβάστε περισσότερα

Γνωστό: P (M) = 2 M = τρόποι επιλογής υποσυνόλου του M. Π.χ. M = {A, B, C} π. 1. Π.χ.

Γνωστό: P (M) = 2 M = τρόποι επιλογής υποσυνόλου του M. Π.χ. M = {A, B, C} π. 1. Π.χ. Παραδείγματα Απαρίθμησης Γνωστό: P (M 2 M τρόποι επιλογής υποσυνόλου του M Τεχνικές Απαρίθμησης Πχ M {A, B, C} P (M 2 3 8 #(Υποσυνόλων με 2 στοιχεία ( 3 2 3 #(Διατεταγμένων υποσυνόλων με 2 στοιχεία 3 2

Διαβάστε περισσότερα

6.3 Forecasting ARMA processes

6.3 Forecasting ARMA processes 122 CHAPTER 6. ARMA MODELS 6.3 Forecasting ARMA processes The purpose of forecasting is to predict future values of a TS based on the data collected to the present. In this section we will discuss a linear

Διαβάστε περισσότερα

ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΥΠΡΟΥ, ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ

ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΥΠΡΟΥ, ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΥΠΡΟΥ, ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΕΠΛ 4: ΣΥΣΤΗΜΑΤΑ ΠΟΛΥΜΕΣΩΝ Θεωρητικές Ασκήσεις (# ): ειγµατοληψία, κβαντοποίηση και συµπίεση σηµάτων. Στην τηλεφωνία θεωρείται ότι το ουσιαστικό περιεχόµενο της

Διαβάστε περισσότερα

ιαφορική εντροπία Σεραφείµ Καραµπογιάς

ιαφορική εντροπία Σεραφείµ Καραµπογιάς ιαφορική εντροπία Σεραφείµ Καραµπογιάς Για πηγές διακριτού χρόνου µε συνεχές αλφάβητο, των οποίων οι έξοδοι είναι πραγµατικοί αριθµοί, ορίζεται µια άλλη ποσότητα που µοιάζει µε την εντροπία και καλείται

Διαβάστε περισσότερα

Μέρος IV. Πολυδιάστατες τυχαίες μεταβλητές. Πιθανότητες & Στατιστική 2017 Τμήμα Μηχανικών Η/Υ & Πληροφορικής, Παν. Ιωαννίνων Δ15 ( 1 )

Μέρος IV. Πολυδιάστατες τυχαίες μεταβλητές. Πιθανότητες & Στατιστική 2017 Τμήμα Μηχανικών Η/Υ & Πληροφορικής, Παν. Ιωαννίνων Δ15 ( 1 ) Μέρος IV Πολυδιάστατες τυχαίες μεταβλητές Πιθανότητες & Στατιστική 07 Τμήμα Μηχανικών Η/Υ & Πληροφορικής Παν. Ιωαννίνων Δ5 ( ) Πολυδιάστατες μεταβλητές Πολλά ποσοτικά χαρακτηριστικά που σχετίζονται με

Διαβάστε περισσότερα