ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ, ΕΝΤΡΟΠΙΑ, ΠΟΛΥΠΛΟΚΟΤΗΤΑ 4. ΔΙΑΥΛΟΙ, ΚΩΔΙΚΕΣ, ΔΙΚΤΥΑ

Σχετικά έγγραφα
Elements of Information Theory

Κανόνες Γκεστάλτ. Για την οργάνωση της Όρασης (και άλλων αισθήσεων)

ΚΥΠΡΙΑΚΗ ΕΤΑΙΡΕΙΑ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ 19/5/2007

5.4 The Poisson Distribution.

Problem Set 3: Solutions

Επεξεργασία Πολυµέσων. Δρ. Μαρία Κοζύρη Π.Μ.Σ. «Εφαρµοσµένη Πληροφορική» Τµήµα Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών Πανεπιστήµιο Θεσσαλίας

Phys460.nb Solution for the t-dependent Schrodinger s equation How did we find the solution? (not required)

Models for Probabilistic Programs with an Adversary

A Bonus-Malus System as a Markov Set-Chain. Małgorzata Niemiec Warsaw School of Economics Institute of Econometrics

ΚΥΠΡΙΑΚΗ ΕΤΑΙΡΕΙΑ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ 24/3/2007

2 Composition. Invertible Mappings

ΕΙΣΑΓΩΓΗ ΣΤΗ ΣΤΑΤΙΣΤΙΚΗ ΑΝΑΛΥΣΗ

Τεχνικές Συµπίεσης Βίντεο. Δρ. Μαρία Κοζύρη Τµήµα Πληροφορικής Πανεπιστήµιο Θεσσαλίας

Bayesian statistics. DS GA 1002 Probability and Statistics for Data Science.

ΚΥΠΡΙΑΚΗ ΕΤΑΙΡΕΙΑ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ 6/5/2006

(C) 2010 Pearson Education, Inc. All rights reserved.

HOMEWORK 4 = G. In order to plot the stress versus the stretch we define a normalized stretch:

Homomorphism in Intuitionistic Fuzzy Automata

Nowhere-zero flows Let be a digraph, Abelian group. A Γ-circulation in is a mapping : such that, where, and : tail in X, head in

Reminders: linear functions

TMA4115 Matematikk 3

the total number of electrons passing through the lamp.

Block Ciphers Modes. Ramki Thurimella

ΤΕΧΝΟΛΟΓΙΚΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΚΥΠΡΟΥ ΤΜΗΜΑ ΝΟΣΗΛΕΥΤΙΚΗΣ

Main source: "Discrete-time systems and computer control" by Α. ΣΚΟΔΡΑΣ ΨΗΦΙΑΚΟΣ ΕΛΕΓΧΟΣ ΔΙΑΛΕΞΗ 4 ΔΙΑΦΑΝΕΙΑ 1

Potential Dividers. 46 minutes. 46 marks. Page 1 of 11

ΚΥΠΡΙΑΚΟΣ ΣΥΝΔΕΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY 21 ος ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ Δεύτερος Γύρος - 30 Μαρτίου 2011

[1] P Q. Fig. 3.1

Jesse Maassen and Mark Lundstrom Purdue University November 25, 2013

4.6 Autoregressive Moving Average Model ARMA(1,1)

Every set of first-order formulas is equivalent to an independent set

EE512: Error Control Coding

6.003: Signals and Systems. Modulation

Abstract Storage Devices

Πρόβλημα 1: Αναζήτηση Ελάχιστης/Μέγιστης Τιμής

Instruction Execution Times

Statistical Inference I Locally most powerful tests

Ordinal Arithmetic: Addition, Multiplication, Exponentiation and Limit

ΚΥΠΡΙΑΚΗ ΕΤΑΙΡΕΙΑ ΠΛΗΡΟΦΟΡΙΚΗΣ CYPRUS COMPUTER SOCIETY ΠΑΓΚΥΠΡΙΟΣ ΜΑΘΗΤΙΚΟΣ ΔΙΑΓΩΝΙΣΜΟΣ ΠΛΗΡΟΦΟΡΙΚΗΣ 11/3/2006

6.1. Dirac Equation. Hamiltonian. Dirac Eq.

Tridiagonal matrices. Gérard MEURANT. October, 2008

Fractional Colorings and Zykov Products of graphs

PARTIAL NOTES for 6.1 Trigonometric Identities

Bayesian modeling of inseparable space-time variation in disease risk

Concrete Mathematics Exercises from 30 September 2016

Finite Field Problems: Solutions

EPL324: Tutorials* on Communications and Networks Tutorial 2: Chapter 1 Review Questions

ΤΕΧΝΟΛΟΓΙΚΟ ΕΚΠΑΙΔΕΥΤΙΚΟ ΙΔΡΥΜΑ ΗΡΑΚΛΕΙΟ ΚΡΗΤΗΣ ΣΧΟΛΗ ΔΙΟΙΚΗΣΗΣ ΚΑΙ ΟΙΚΟΝΟΜΙΑΣ ΤΜΗΜΑ ΛΟΓΙΣΤΙΚΗΣ

Congruence Classes of Invertible Matrices of Order 3 over F 2

Approximation of distance between locations on earth given by latitude and longitude

Εργαστήριο Ανάπτυξης Εφαρμογών Βάσεων Δεδομένων. Εξάμηνο 7 ο

Δίκτυα Δακτυλίου. Token Ring - Polling

Lecture 2: Dirac notation and a review of linear algebra Read Sakurai chapter 1, Baym chatper 3

Σχέσεις, Ιδιότητες, Κλειστότητες

Overview. Transition Semantics. Configurations and the transition relation. Executions and computation

Math 6 SL Probability Distributions Practice Test Mark Scheme

Distances in Sierpiński Triangle Graphs

Homework 3 Solutions

The Simply Typed Lambda Calculus

C.S. 430 Assignment 6, Sample Solutions

Démographie spatiale/spatial Demography

Η αλληλεπίδραση ανάμεσα στην καθημερινή γλώσσα και την επιστημονική ορολογία: παράδειγμα από το πεδίο της Κοσμολογίας

Econ 2110: Fall 2008 Suggested Solutions to Problem Set 8 questions or comments to Dan Fetter 1

Επιβλέπουσα Καθηγήτρια: ΣΟΦΙΑ ΑΡΑΒΟΥ ΠΑΠΑΔΑΤΟΥ

Τ.Ε.Ι. ΔΥΤΙΚΗΣ ΜΑΚΕΔΟΝΙΑΣ ΠΑΡΑΡΤΗΜΑ ΚΑΣΤΟΡΙΑΣ ΤΜΗΜΑ ΔΗΜΟΣΙΩΝ ΣΧΕΣΕΩΝ & ΕΠΙΚΟΙΝΩΝΙΑΣ

CHAPTER 48 APPLICATIONS OF MATRICES AND DETERMINANTS

ΦΥΛΛΟ ΕΡΓΑΣΙΑΣ Α. Διαβάστε τις ειδήσεις και εν συνεχεία σημειώστε. Οπτική γωνία είδησης 1:.

The Probabilistic Method - Probabilistic Techniques. Lecture 7: The Janson Inequality

derivation of the Laplacian from rectangular to spherical coordinates

Matrices and Determinants

SCITECH Volume 13, Issue 2 RESEARCH ORGANISATION Published online: March 29, 2018

Η ΠΡΟΣΩΠΙΚΗ ΟΡΙΟΘΕΤΗΣΗ ΤΟΥ ΧΩΡΟΥ Η ΠΕΡΙΠΤΩΣΗ ΤΩΝ CHAT ROOMS

Τελική Εξέταση =1 = 0. a b c. Τµήµα Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών. HMY 626 Επεξεργασία Εικόνας

A Method for Creating Shortcut Links by Considering Popularity of Contents in Structured P2P Networks

Code Breaker. TEACHER s NOTES

Example Sheet 3 Solutions

Other Test Constructions: Likelihood Ratio & Bayes Tests

ST5224: Advanced Statistical Theory II

3.4 SUM AND DIFFERENCE FORMULAS. NOTE: cos(α+β) cos α + cos β cos(α-β) cos α -cos β

CE 530 Molecular Simulation

ΑΓΓΛΙΚΑ Ι. Ενότητα 7α: Impact of the Internet on Economic Education. Ζωή Κανταρίδου Τμήμα Εφαρμοσμένης Πληροφορικής

Jordan Form of a Square Matrix

CMOS Technology for Computer Architects

Lecture 2. Soundness and completeness of propositional logic

department listing department name αχχουντσ ϕανε βαλικτ δδσϕηασδδη σδηφγ ασκϕηλκ τεχηνιχαλ αλαν ϕουν διξ τεχηνιχαλ ϕοην µαριανι

Section 1: Listening and responding. Presenter: Niki Farfara MGTAV VCE Seminar 7 August 2016

DiracDelta. Notations. Primary definition. Specific values. General characteristics. Traditional name. Traditional notation

Assalamu `alaikum wr. wb.

A Note on Intuitionistic Fuzzy. Equivalence Relation

Solutions to Exercise Sheet 5

Οδηγίες χρήσης. Registered. Οδηγίες ένταξης σήματος D-U-N-S Registered στην ιστοσελίδα σας και χρήσης του στην ηλεκτρονική σας επικοινωνία

ΑΡΙΣΤΟΤΕΛΕΙΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΘΕΣΣΑΛΟΝΙΚΗΣ

Οδηγίες χρήσης υλικού D U N S Registered

Modern Greek Extension

ΕΠΙΧΕΙΡΗΣΙΑΚΗ ΑΛΛΗΛΟΓΡΑΦΙΑ ΚΑΙ ΕΠΙΚΟΙΝΩΝΙΑ ΣΤΗΝ ΑΓΓΛΙΚΗ ΓΛΩΣΣΑ

Partial Differential Equations in Biology The boundary element method. March 26, 2013

Calculating the propagation delay of coaxial cable

Advanced Subsidiary Unit 1: Understanding and Written Response

Second Order RLC Filters

Transcript:

ΘΕΩΡΙΑ ΠΛΗΡΟΦΟΡΙΑΣ, ΕΝΤΡΟΠΙΑ, ΠΟΛΥΠΛΟΚΟΤΗΤΑ 4. ΔΙΑΥΛΟΙ, ΚΩΔΙΚΕΣ, ΔΙΚΤΥΑ Ioannis E. Antoniou Mathematics Department Aristotle University 54124,Thessaloniki,Greece iantonio@math.auth.gr http://users.auth.gr/iantonio

Channels Noiseless Channel. Coding Communication Networks

CHANNELS ΠΟΜΠΟΣ ΔΕΚΤΗΣ Ψ t : Ω Σ, t T Ψ t : Ω Σ, t T

Definition The Transmission Probability (Πιθανοτητα Μεταδοσης) From the Source Node (Ψ t, Σ, p), t T to the Receiver Node (Ψ t, Σ, p ), t T = 1,2, P ψ t 1, ψ t 2,, ψ t m ψ t1, ψ t2,, ψ tm ], t, t T, m, m = 1,2,3, The Probability to observe the Message ψ t 1, ψ t 2,, ψ t m at times t 1, t 2,, t m If the Message ψ t1, ψ t2,, ψ tm was sent at times t 1, t 2,, t m Σ = (σ 1, σ 2, σ b ) the Symbols of the Source Σ = (σ 1, σ 2,... σ b ) the Symbols of the Receiver p: Σ F [0,1] the Probability (Model) of the Sent Messages p : Σ F [0,1] the Probability (Model) of the Received Messages

SOURCE TRANSMITTER CHANNEL RECEIVER MESSAGE DESTINATION Nature Observable Experimental Voltmeter Changes of Variables Scientist Events Device Thermometer Tηλεσκοπιο Show TV Station EM Field TV-Receiver Images,Sounds Τηλεθεατης Αuthor Editor Distribution Eyes, Brain Text People Network Orchestra Amplifier Concert Hall Ears,Eyes, Musical Piece People Brain Painter Painting Exhibition Hall Eyes, Brain Image People Genotype DNA Biomolecular Web Phenotype Bio-Information Organism People PC Internet PC Email,Text,Image,Video People

Mind as a Processor Mind can attend to a certain amount of information at a time. How much Information? about 126 bits per second. (7560 bits per minute) Miller G. 1956, The magical number seven, plus or minus two: Some limits on our capacity for processing information, Psychological Review. 63, 81 97 Conversation takes about 40 bits per second (1/3 of the capacity). The Reason Why when we are having a conversation we cannot focus our attention as much on other things. Csikszentmihalyi, M. 1988, The flow experience and its significance for human psychology, in Csikszentmihalyi, M., Optimal experience: psychological studies of flow in consciousness, Cambridge, UK: Cambridge University Press, pp. 15 35,

Facebook is working on Mind-Reading Technology http://www.telegraph.co.uk/technology/2017/04/19/mark-zuckerbergconfirms-facebook-working-mind-reading-technology/ "Facebook is working on optical neuro-imaging systems that would allow people to type words directly from their brain at 100 words per minute: 5 times the speed possible on a smartphone". Regina Dugan, Head of Facebook experimental technologies division More or less the Miller Number

Definition Stationary Memoryless Channel Μarkov Model of Symbol Transmission in the Channel Transmission Probability of Symbols = Πιθανοτητα Μεταδοσης Συμβολων The output at time t depends only on the input at time t P ψ t1, ψ t2,, ψ tm ψ t1, ψ t2,, ψ tm ] = P ψ t1 ψ t1 ]P ψ t2 ψ t2 ] P ψ tm ψ tm ], t = t T, m = m = 1,2,3, Stationarity means that the Transmission Probabilities do not depend on time P[σ λ σ κ ] = M λλ the probability to observe the symbol σ λ at the location-time t, given that the symbol σ κ was sent at the location-time t. The Memoryless Channel is defined by the Channel Transmission Matrix (Operator) Μ = A b b generalized Markov Matrix p(σ 1 σ 1 ) p(σ 1 σ 2 ) p(σ 1 σ b ) p(σ 2 σ 1 ) p(σ 2 σ 2 ) p(σ 2 σ b ) p σ b σ 1 p σ b σ 2 p σ b σ b

INPUT PROBABILITY p p(σ 1 ) p(σ b ) OUTPUT PROBABILITY p = MM p (σ 1 ) M 11 M 1b p(σ 1 ) = p (σ b ) M b 1 M b p(σ b ) Example: Σ={Α,Β,Γ}, Σ = {0,1} p(0 A) p(0 Β) p(0 Γ) M = p(1 A) p(1 Β) p(1 Γ) p(a) p(a) p(0 A) p(0 Β) p(0 Γ) p= p(b) p = Μp = p(1 A) p(1 Β) p(1 Γ) p(b) = p (0) p (1) p(γ) p(γ)

Definition Channel Capacity The upper bound on the amount of information that can be reliably transmitted over the channel. The max information transmission rate that can be achieved with arbitrarily small error probability (Shannon Channel Coding Theorem) C = max S Ψ; Ψ, p the input probabilities

Lemma 0 C min {lll 2 b, lll 2 b } 2) C ldn and C ldn Proof 0 C, because S[Ψ ; Ψ ] 0 C = max S Ψ ; Ψ, p {S[Ψ], p} = lll 2 b C = max S Ψ ; Ψ, p = C = max S Ψ ; Ψ, p S Ψ, p = lll 2 b 2)

Binary Symmetric Channel with Crossover Probability p (BSC, p) 1) channel with binary input Σ = {0,1} and binary output Σ = {0,1} The transmitter sends a bit ( zero or one), and the receiver receives a bit. 2) The bit is usually transmitted correctly, but that it may "flip" with a small probability p (crossover probability). The receiver occasionally gets the wrong bit. P(Ψ = 0 Ψ = 0 ) = 1-p P(Ψ = 0 Ψ = 1) = p P(Ψ = 1 Ψ = 0 ) = p P(Ψ = 1 Ψ = 1 ) = 1-p M = p(0 0) p(0 1) p p = 1 p(1 0) p(1 1) p 1 p

The BSC is the simplest channel with Noise. Many problems in communication theory can be reduced to a BSC. Being able to transmit effectively over the BSC can give rise to solutions for more complicated channels. It is assumed that 0 p 1/2. If p > 1/2, then the receiver can swap the output (interpret 1 when it sees 0, and vice versa) obtain an equivalent channel with crossover probability 1 p 1/2.

Lemma Capacity of (BSC, p) C = 1 S 2 (p) S 2 (p) = p lll 2 p (1 p)lll 2 (1 p) the (Binary) Entropy of the Error RV Αποδ C = max S Ψ; Ψ, p. Η Αμοιβαια Πληροφορια είναι: S[Ψ ; Ψ ] = S[Ψ ] S[Ψ Ψ] = S[Ψ ] {p(ψ=0) S[Ψ Ψ=0] + p(ψ=1) S[Ψ Ψ=1]} S[Ψ Ψ=0] = p[ψ =0 Ψ=0] lll 2 p[ψ =0 Ψ=0] p[ψ =1 Ψ=0] lll 2 p[ψ =1 Ψ=0] = (1 p) lll 2 (1 p) plll 2 p = S 2 (p) S[Ψ Ψ=1] = p[ψ =0 Ψ=1] lll 2 p[ψ =0 Ψ=1] p[ψ =1 Ψ=1] lll 2 p[ψ =1 Ψ=1] = plll 2 p (1 p) lll 2 (1 p) = S 2 (p) S[Ψ ; Ψ ] = S[Ψ ] {p(ψ=0) S 2 (p) + p(ψ=1) S 2 (p)} = S[Ψ ] S 2 (p) 1 S 2 (p) S[Ψ ] lll 2 2 = 1 διοτι Ψ είναι διτιμη ΤΜ

Definition Symmetric Channels Σ={0,1,..,n}, Σ ={0,1,, n } The Transmission Matrix M = p(0 0) p(0 1) p(0 n 1) p(1 0) p(1 1) p(1 n 1) p(n 1 0) p(n 1 1) p(n 1 n 1) Τhe rows of the Channel Transition matrix are permutations of each other and The columns are permutations of each other

Symmetric Channels Examples 1) (BSC, p) is Symmetric Channel 2) The Channel with Σ={0,1,2}, Σ ={0,1,2} 0.3 0.2 0.5 M= 0.2 0.5 0.3 0.5 0.3 0.2

Binary Erasure channel with erasure probability p (BEC, p) 1) Binary input, alphabet Σ = {0, 1}, Τernary output alphabet Σ = {0, 1, e} 2) a transmitter sends a bit (a zero or a one), and the receiver receives either the bit or a message that the bit was not received (erased) with probability of erasure p. The receiver knows which bits have been erased. The receiver occasionally loses a bit with probability p. The BEC is not Symmetric The BEC was introduced by Peter Elias of MIT in 1954 as a toy example. Elias P. 1959, Coding and Information Theory, Rev. Mod. Physics 31, 221-226 BEC is used frequently because it is one of the simplest channels to analyze. Many problems in communication theory can be reduced to BEC.

P(Ψ = 0 Ψ = 0) = 1 p P(Ψ = e Ψ = 0) = p P(Ψ = 1 Ψ = 0) = 0 P(Ψ = 0 Ψ = 1) = 0 P(Ψ = e Ψ = 1) = p P(Ψ = 1 Ψ = 1) = 1 p p(0 0) M = p(e 0) p(1 0) p(0 1) 1 p 0 p(e 1) = p p p(1 1) 0 1 p

Lemma Capacity of ΒΕC C = 1 p Αποδειξη C = max S Ψ; Ψ, p. Η Αμοιβαια Πληροφορια είναι: S[Ψ ; Ψ ] = S[Ψ ] S[Ψ Ψ] S[Ψ Ψ] = p(ψ=0) S[Ψ Ψ=0] + p(ψ=1) S[Ψ Ψ=1] S[Ψ Ψ=0] = p[ψ =0 Ψ=0] lll 2 p[ψ =0 Ψ=0] p[ψ =1 Ψ=0] lll 2 p[ψ =1 Ψ=0] p[ψ =e Ψ=0] lll 2 p[ψ =e Ψ=0] = (1 p) lll 2 (1 p) 0 plll 2 p = S 2 (p)

S[Ψ Ψ=1] = p[ψ =0 Ψ=1] lll 2 p[ψ =0 Ψ=1] p[ψ =1 Ψ=1] lll 2 p[ψ =1 Ψ=1] p[ψ =e Ψ=1] lll 2 p[ψ =e Ψ=1] = 0 (1 p) lll 2 (1 p) plll 2 p = S 2 (p) S[Ψ Ψ] = {p(ψ=0) + p(ψ=1)} S 2 (p) = S 2 (p) S[Ψ ] lll 2 3 but this bound cannot be achieved S[Ψ ]= p[ψ =0] lll 2 p[ψ =0] p[ψ =1] lll 2 p[ψ =1] p[ψ =e] lll 2 p[ψ =e] p[ψ = 0] p(0 0) p[ψ = e] = p(e 0) p[ψ = 1] p(1 0) p(0 1) 1 p 0 p[ψ = 0] p(e 1) p[ψ = 1] = p[ψ = 0] p p p[ψ = 1] = p(1 1) 0 1 p (1 p)p[ψ = 0] (1 p)(1 q) = pp[ψ = 0] + pp[ψ = 1] = (1 p)p[ψ = 1] p (1 p)q,

Put p[ψ = 1] = q S[Ψ ] = (1 p)(1 q)lll 2 [(1 p)(1 q)] plll 2 p (1 p)qlll 2 [(1 p)q] = (1 p) ( (1 q)lll 2 [(1 p)(1 q)] qlll 2 [(1 p)q]) plll 2 p = (1 p) ( (1 q)lll 2 (1 p) (1 q)lll 2 [(1 q)] qlll 2 (1 p) qldq) plll 2 p = (1 p) (S 2 (q) (1 q)lll 2 (1 p) qlll 2 (1 p)) plll 2 p = (1 p) S 2 (q) (1 p)lll 2 (1 p) plll 2 p = (1 p) S 2 (q)+s 2 (p) S[Ψ ; Ψ ] = S[Ψ ] S[Ψ Ψ] = (1 p) S 2 (q)+s 2 (p) S 2 (p) = (1 p) S 2 (q) C = max S Ψ; Ψ, p = max (1 p) S 2 (q), p = (1 p) Διοτι S 2 (q) 1 The Capacity is achieved when q = 1 2

ΣΗΜΑΣΙΑ ΠΛΗΡΟΦΟΡΙΑΣ S[A] η Πληροφορια που εστειλε η Πηγη S[A ] η Πληροφορια που ελαβε ο Δεκτης μεσω του Διαυλου Επικοινωνιας S[Ψ, Ψ ] = η Πληροφορια του ολου Συστηματος Επικοινωνιας S[Ψ Ψ] = η Πληροφορια που εληφθη εαν η Πηγη εστειλε Πληροφορια S[Ψ] {δειχνει την επιδραση του Διαυλου Επικοινωνιας} S[Ψ Ψ ] = η Πληροφορια που εσταλη εαν εληφθη Πληροφορια S[Ψ ] {δειχνει ποσο ευκολα ανακταται το Μηνυμα που εσταλη απο το Μηνυμα που εληφθη λογω της επιδρασης του Διαυλου Επικοινωνιας} S[Ψ;Ψ ] = η Πληροφορια που μεταδοθηκε μεσω του Διαυλου Επικοινωνιας

Definition Channel with Independent Input-Output = No Channel S[Ψ; Ψ ] = S[Ψ] S Ψ Ψ = 0 S Ψ Ψ = S[Ψ] Ψ t, Ψ t Independent Variables We cannot determine the input sequence from the output sequence because 2 different input sequences may be received as the same output sequence A Bernoulli Matrix p 1 p 1 Μ = p b p b Khinchin A. 1957, Mathematical Foundations of Information Theory, Dover, New York.

Definition Causal Channel The probability p[ Ψ τ = σ (ψ t+1, ψ t+2, ψ t+2,, ψ t+m )] to receive the symbol σ at time τ, if the sequence ψ t+1, ψ t+2,, ψ t+m was emitted does not depend on the future terms ψ τ+1, ψ τ+2, of the input sequence p[ Ψ τ = σ (ψ t+1, ψ t+2, ψ t+2,, ψ t+m )] depends only on the terms ψ τ, ψ τ 1, of the input sequence Τhe channel cannot foresee the future Khinchin A. 1957, Mathematical Foundations of Information Theory, Dover, New York.

Definition Channel with Memory r The probability p[ψ τ = σ (ψ t+1, ψ t+2, ψ t+2,, ψ t+m )] to receive the symbol σ at time τ, if the sequence ψ t+1, ψ t+2,, ψ t+m was emitted depends only on the terms ψ τ, ψ τ 1,, ψ τ r of the input sequence

Noiseless Channel. Coding Definition Noiseless Channel = Κωδικοποιηση Coding The probability p[σ ν1 σ ν2...σ νl σ ν ] = p ψ ν σ ν = 1 the same output word (output symbols) σ ν1 σ ν2...σ νl is received with certainty for the input symbol σ ν, ν = 1,2,...,b Τhe Transmission Matrix is (Diagonal) deterministic: p ψ 1 σ 1 0 Μ = 0 p ψ b σ b 1 0 = 0 1 Κωδικας των b Συμβολων Σ={σ 1,σ 2,..., σ b } με b Κωδικα Συμβολα Σ ={σ 1, σ 2,..., σ b } καλειται η απεικονιση: C: Σ F Σ F : σ ν C(σ α ) = σ ν1 σ ν2...σ νl = ψ ν η Κωδικη Λεξη (Codeword) του Συμβολου σ ν, ν = 1,2,...,b μεσω των b Συμβολων Σ ={σ 1, σ 2,..., σ b } l ν = l[c(σ ν )] = το Μηκος της Κωδικης Λεξης C(σ ν ) του Συμβολου σ ν

S Ψ; Ψ = S[Ψ] = S[Ψ ] = 0 S Ψ Ψ = S Ψ Ψ = 0 C = max S Ψ; Ψ, p = max{s[ψ], p} = lll 2 b The simplest Noiseless Channel is the Binary Channel Σ={0, 1} Σ ={σ 1, σ 2 } σ 1 = C (0), σ 2 = C(1) C = lll 2 2 = 1bbb Berstel J., Perrin D., Reutenauer C. 2009, Codes and Automata, Cambridge University Press. Κωδικοποιηση Mηνυματων δια b Συμβολων Σ={σ 1,σ 2,..., σ b } (b ary Coding) σε Μηνυματα δια b Κωδικων Συμβολων Σ ={σ 1, σ 2,..., σ b } καλειται η επεκταση του n Κωδικα στο συνολο Σ F των Μηνυματων : C: Σ F Σ F : σ α σ β σ γ... (σ α σ β σ γ...) = C(σ α ) C(σ β ) C(σ γ )... το Κωδικοποιημενο Μηνυμα σ α σ β σ γ...

ΣΧΟΛΙΟ Διαυλοι Noise-Free Channel και Independent Input-Output Ο Noise-Free Διαυλος δεν χανει Πληροφορια, ουτε μεταφερει Πληροφορια. Ο Διαυλος με Ιndependent input/output χανει ολη την εισερχομενη Πληροφορια, την οποια «πνιγει» στον «Θορυβο» και μεταφερει μονο «Θορυβο» Οι 2 ακραιοι (extreme) Διαυλοι. Οι Πραγματικοι Διαυλοι ευρισκονται μεταξυ των 2 ακραιων Διαυλων.

Symbol Codes translate the source characters σ 1,σ 2,..., σ b to Code words C(σ 1 ), C(σ 2 ),, C(σ b ) of various lengths l 1 = l[c(σ 1 )], l 2 = l[c(σ 2 )],..., l n = l[c(σ n )] Block Codes translate fixed length m source words (m-blocks) to fixed length l Code words (l -blocks) (ψ 1, ψ 2, ψ m ) C(ψ 1, ψ 2, ψ m ) = l = LLLLLh [C(ψ 1, ψ 2, ψ m )]

Παραδειγματα Κωδικοποιησης Σ Σ ={0,1} Κωδικας C 1 α 0 β 1 γ 0 δ 1 C 1 (α)= C 1 (γ) C 1 (β)= C 1 (δ) Διαφορετικα Συμβολα Κωδικοποιουνται στην αυτη ΚΛ Ιδιαζων Κωδικας

Σ Σ ={0,1} Κωδικας C 1 Κωδικας C 2 α 0 0 β 1 1 γ 0 00 δ 1 01 C 1 (α)= C 1 (γ) C 1 (β)= C 1 (δ) Διαφορετικα Συμβολα Κωδικοποιουνται στην αυτη ΚΛ Ιδιαζων Κωδικας C 2 (σ α ) C 2 (σ β ) αλλα 0011=αδβ=γββ Μη Μονοσημαντη Αποκωδικοποιηση Μηνυματων Μη-Ιδιαζων Κωδικας

Σ Σ ={0,1} Κωδικας C 1 Κωδικας C 2 Κωδικας C 3 α 0 0 10 β 1 1 00 γ 0 00 11 δ 1 01 110 C 1 (α)= C 1 (γ) C 1 (β)= C 1 (δ) Διαφορετικα Συμβολα Κωδικοποιουνται στην αυτη ΚΛ C 2 (σ α ) C 2 (σ β ) αλλα 0011=αδβ=γββ Μη Μονοσημαντη Αποκωδικοποιηση Μηνυματων Μονοσημαντη Αποκωδικοποιηση Μηνυματων αλλα H KΛ C 3 (γ)=11 ειναι προθεμα της ΚΛ C 3 (δ)=110 Ιδιαζων Κωδικας Μη-Ιδιαζων Κωδικας Για να αναγνωριστουν οι ΚΛ χρειαζεται η αναγνωση του πρωτου συμβολου της επομενης ΚΛ Μονοσημαντος Κωδικας

Σ Σ ={0,1} Κωδικας C 1 Κωδικας C 2 Κωδικας C 3 Κωδικας C 4 α 0 0 10 0 β 1 1 00 10 γ 0 00 11 110 δ 1 01 110 111 C 1 (α)= C 1 (γ) C 1 (β)= C 1 (δ) Διαφορετικα Συμβολα Κωδικοποιουνται στην αυτη ΚΛ Ιδιαζων Κωδικας C 2 (σ α ) C 2 (σ β ) αλλα 0011=αδβ=γββ Μη Μονοσημαντη Αποκωδικοποιηση Μηνυματων Μη-Ιδιαζων Κωδικας Μονοσημαντη Αποκωδικοποιηση Μηνυματων αλλα H KΛ C 3 (γ)=11 ειναι προθεμα της ΚΛ C 3 (δ)=110 Για να αναγνωριστουν οι ΚΛ χρειαζεται η αναγνωση του πρωτου συμβολου της επομενης ΚΛ Μονοσημαντος Κωδικας Οι ΚΛ αναγνωριζονται αμεσα Αμεσος Κωδικας

C Μη-Ιδιαζων Κωδικας (Non-Singular Code) C (σ α ) C (σ β ), εαν σ α σ β, Δηλ. Δεν συγχεονται τα Συμβολα κατα την Αποκωδικοποιηση C Μονοσημαντος Κωδικας (Uniquely Decodable Code) (σ α σ β σ γ...) (σ a σ b σ c...), εαν σ α σ β σ γ... σ a σ b σ c..., Δηλ. Δεν συγχεονται τα Mηνυματα κατα την Αποκωδικοποιηση C Αμεσος Κωδικας (Ιnstantaneous Code = Prefix Code) καθε Κωδικη Λεξη σ α, σ β,..., αναγνωριζεται / διαβαζεται (αμεσα) χωρις να χρειαστει η αναγνωση του πρωτου συμβολου της επομενης Κωδικης Λεξης; Ουδεμια Κωδικη Λεξη αποτελει προθεμα αλλης Κωδικης Λ

Κωδικας μεταδοση μηνυματων Πραξεις σε ΗΥ Κρυπτογραφια Οργανισμοι Biologically Inspired Computation Κριτηρια Επιλογης Συμπιεση Μηνυματων για μειωση του χρονου και του κοστους μικρα μηκη σε Κωδικες Λεξεις συμβολων που εμφανιζονται με μεγαλη συχνοτητα Διορθωση λαθων Ασφαλης Μεταβιβαση Μηνυματων Κρυπτογραφηση = Κωδικοποιηση the encryption map is easy Αποκρυπτογραφηση = Αποκωδικοποιηση the decryption (inverse) map is difficult Aνοχη, Ανθεκτικοτης σε Λαθη, Καταστροφες, Επιθεσεις

Κωδικες Επικοινωνιας Morse Alphabet Σε κάθε τελεια αντιστοιχεί ήχος διάρκειας 1/6 δευτερολέπτου Σε κάθε παυλα αντιστοιχεί ήχος διάρκειας 1/2 δευτερολέπτου SOS = Google =

Ο Μοrse (1791-1872) σπούδασε ζωγραφική (Chapel of the Virgin at Subiaco), ειχε ως hobby τη φυσική 1837 παρουσιασε τον Τηλεγραφο στο Πανεπιστήμιο της Νέας Υόρκης. 1843, το αμερικανικό Κογκρέσο ενέκρινε τη χρηματοδότηση της πρώτης τηλεγραφικής γραμμής, που συνέδεε την Ουάσινγκτον με τη Βαλτιμόρη. 1851 Δίπλωμα Ευρεσιτεχνίας για την τηλεγραφική συσκευή 1859 Ο τηλεγραφος φτανει στην Ελλάδα. Σήμερα, ο Κώδικας Μοrse δεν χρησιμοποιείται στις τηλεπικοινωνίες. Πολλοι ραδιοερασιτεχνες τον χρησιμοποιουν ακομα.

Letters Distribution in English Language Texts

SYMBOL PROBABILITY HUFFMAN ALPHABETIC MORSE BA8421 64 Κωδικες Λεξεις space 0.1859 000 00 2 000000 A 0.0642 0100 0100 10 11001 B 0.0127 0111111 010100 011 110010 C 0.0218 11111 010101 0101 110011 D 0.0317 01011 01011 011 110100 E 0.1031 101 0110 1 110101 F 0.0208 001100 011100 1101 110110 G 0.0152 011101 011101 001 110111 H 0,0467 1110 01111 1111 111000 I 0.0575 1000 1000 11 111001 J 0.0008 0111001110 1001000 1000 100001 K 0.0049 01110010 1001001 010 100010

L 0.0321 01010 100101 1011 100011 M 0.0198 001101 10011 00 100100 N 0.0574 1001 1010 01 100101 O 0.0632 0110 1011 0 00 100110 P 0.0152 011110 110000 1001 100111 Q 0.0008 0111001101 110001 0010 101000 R 0.0484 1101 11001 101 101001 S 0.0514 1100 1101 111 010010 T 0.0796 0010 1110 0 010011 U 0.0228 11110 111100 110 010100 V 0.0083 0111000 111101 1110 010101 W 0.0175 001110 111110 100 010110 X 0.0013 0111001100 1111110 0110 010111 Y 0.0164 001111 11111110 0100 011000 Z 0.0005 0111001111 11111111 0011 011001

Rendundancy (Πλεονασμος) of a b - ary Code C of b symbols S max (Σ ) S(Σ) S max (Σ ) = log 2b S(Σ) log 2 b

Κατασκευη Αμεσων Κωδικων Επιλογη 1) Αριθμου b των Κωδικων Λεξεων, 2) Μηκων l 1, l 2,, l b των Κωδικων Λεξεων των συμβολων σ 1,σ 2,..., σ b Yπαρχουν b l διαφορετικες Κωδικες Λεξεις δεδομενου Μηκους l Είναι εφικτη Αμεση Κωδικοποιηση με Κωδικες Λεξεις επιθυμητων Μηκων? Υπαρχουν Αμεσοι Κωδικες n Συμβολων Σ={σ 1,σ 2,..., σ n } με b Κωδικα Συμβολα ωστε οι Κωδικες Λεξεις να εχουν επιθυμητα Μηκη l 1, l 2,, l n : 1 l 1 l 2 l n? AΠANTHΣΗ: Θεωρημα Kraft

Θεωρημα Kraft 1. Καθε Αμεσος b -αδικος Κωδικας των b Συμβολων Σ={σ 1,σ 2,..., σ b } με Κωδικες Λεξεις δεδομενων Μηκων l 1, l 2,, l b : 1 l 1 l 2 l b = l max (διαταξη αυθαιρετη) Ικανοποιει την Ανισοτητα Κraft: b b l ν 1 2. Aντιστροφα, για καθε επιλογη b Φυσικων Αριθμων l 1, l 2,, l b : 1 l 1 l 2 l b = l max Που ικανοποιουν την Ανισοτητα Kraft, υπαρχει Aμεσος b -αδικος Κωδικας των b Συμβολων Σ={σ 1,σ 2,..., σ b } με Μηκη Κωδικων Λεξεων l 1, l 2,, l b ν=1 Η Ανισοτης Kraft περιοριζει τα δυνατα μηκη των Κωδικων Λεξεων

Αποδειξη 1. Για καθε l=1,2,3,... υπαρχουν b l διαφορετικες Κωδικες Λεξεις Μηκους Παραδειγμα: Σ ={0,1}, b =2 Yπαρχουν n L α δυνατες διαφορετικες Λεξεις Μηκους L α, α = 1,...n (στο σχημα n =2) απο τις οποιες επιλεγονται εστω Ν α Κωδικες Λεξεις Μηκους l a

Επειδη ο Κωδικας ειναι Αμεσος, Οι αλλες Κωδικες Λεξεις παραγονται απο τους υπολοιπους b l α Ν α κομβους- Λεξεις Μηκους l α Καθε Κομβος- Κωδικη Λεξη Μηκους l α, παραγει το πολυ b l b l α διαφορετικες Λεξεις Μηκους l α, α = 1,2,...b Τα συνολα των Λεξεων Μεγιστου Μηκους l b, που παραγονται απο καθε ενα Κομβο- Κωδικη Λεξη Μηκους l α, ειναι διαφορα αλληλων (διοτι δεν μπορει να εχουν το αυτο προθεμα) Και Το αθροισμα των πληθαριθμων τους δεν υπερβαινει το πληθος των Λεξεων Μεγιστου Μηκους l b : b b l b l α b l b a=1 b a=1 Διαιρωντας δια n L n προκυπτει η Ανισοτητα Kraft: b l a 1

2. Aντιστροφα, δοθεντων των l 1, l 2,, l b : 1 l 1 l 2 l b = l max που ικανοποιουν την Ανισοτητα Kraft, κατασκευαζεται δενδρο b Kλαδων Ο πρωτος Κομβος στο βημα l 1 ονομαζεται Κωδικη Λεξη 1 Ο πρωτος Κομβος στο βημα l 2 ονομαζεται Κωδικη Λεξη 2 Συνεχιζοντας κατασκευαζεται Αμεσος Κωδικας με τα δοθεντα l 1, l 2,, l b. Οεδ

ΣΧΟΛΙΑ Η Ανισοτητα Kraft γενικευεται για απειρα Mηκη. Αποδειξη [Cover T.,Thomas J. 1991] Ασκ 0.2 Η Ανισοτητα Kraft ισχυει επισης για Μονοσημαντους Κωδικες. Θ. MacMillan [Cover T.,Thomas J. 1991] Ασκ 0.5 Απο το Θεωρημα του MacMillan συναγεται το εξης Συμπερασμα-Εκπληξη: Οι Μονοσημαντοι Κωδικες δεν προσφερουν περισσοτερα απο τους Aμεσους Κωδικες (ως προς τα Μηκη των Κωδικων Λεξεων) Oι εκτιμησεις ως προς τα μηκη των Κωδικων Λεξεων των Αμεσων Κωδικων ισχυουν και για τους Μονοσημαντους Κωδικες

Definition The Length of the b -adic Code C of b Symbols is the Average Codeword Length: l(c)= b p α l α α=1 l α is the length of the Codeword C(σ α ) of the symbol σ α, α = 1,2,...,b Από την Ανισοτητα Kraft αποδεικνυεται το Θεωρημα Source Coding

Θεωρημα Source Coding (Shannon) Εστω η Τυχαια Μεταβλητη Χ με τιμες x 1, x 2,, x n και κατανομη p 1, p 2,, p n Κωδικοποιηση των Γεγονοτων [Χ = x 1 ],, [Χ = x n ], με b Συμβολα: Σ = {σ 1,... σ b }, b<n σε κάθε Γεγονος [Χ = x i ], i = 1,2,, n αντιστοιχει μια ακολουθια Συμβολων εκ του Σ με Μηκος l i, i = 1,2,, n. Και Μεσο Μηκος: l = n i=1 p i l i Αν η Κωδικοποιηση είναι Μονοσημαντη (Η αντιστοιχια είναι ένα-προς ένα), Τοτε: 1) Η b-eντροπια είναι το Ελαχιστο Μεσο Μηκος Κωδικοποιησης: S b l, οπου: S b = n i=1 p i lll b p i = i=1 p i n lll 2 b lll 2 p i = S lll 2 b 2) Η κατανομη με Ελαχιστο Μεσο Μηκος Κωδικοποιησης είναι η b-αδικη Κατανομη: S b = l p i = b l i, i = 1,2,, n 3) Ορισμος Κωδικα Shannon για την κατανομη p 1, p 2,, p n : m i = lll b p i, i = 1,2,, n Το Μεσο Μηκος m της Κωδικοποιησης Shannon ειναι στο διαστημα [S b, S b + 1): S b m < S b + 1, n m = p i i=1 m i

Coding and YES/NO Questions Constructing effective sequences of YES/NO Questions to find an Object within a class of Objects is equivalent to Finding efficient Prefix Codes

Αναγνωριση Λεξεων (Word Recognition) Ο Διαυλος Αισθηση Αντιληψη How the brain reads words Aoccdrnig to a rscheearch at Cmabrigde Uinervtisy, it deosn t mttaer in waht oredr the ltteers in a wrod are, the olny iprmoetnt tihng is taht the frist and lsat ltteer be at the rghit pclae. The rset can be a toatl mses and you can sitll raed it wouthit porbelm. Tihs is bcuseae the huamn mnid deos not raed ervey lteter by istlef, but the wrod as a wlohe. According to a research team at Cambridge University, it doesn't matter in what order the letters in a word are, the only important thing is that the first and last letter be in the right place. The rest can be a total mess and you can still read it without a problem. This is because the human mind does not read every letter by itself, but the word as a whole. Σνφμύωα με μια έυρενα στο Πισήναπιμετο του Κμτρπιαιζ, δεν πεαίζι ρλόο με τι σριεά ενίαι τοθοπεμετενα τα γταμάμρα μσέα σε μια λξέη, αεκρί το πώτρο και το ταελείτυο γάμρμα να ενίαι στη στωσή θσέη. Τα υλοπιόπα μροπούν να ενίαι σε τχίυεας θιέεσς και μροπετίε να δαβαιάεστε τις λιεξές χρωίς πλβημόρα. Ατυό γνίταει γαιτί ο απρώνθονις εκέγλφοας δεν δαεβζιάι γάμρμα γάμρμα κθάε λξέη αλλά την λξέη σαν σνύλοο. Ασκηση: Αναλυστε τον Επεξεργαστη-Νου με Θεωρια Πληροφοριας Συγκρινατε με Νευρωνικα Δικτυα

Communication Networks Nodes are Devices and/or Persons Links are Communication channels (Shannon) node-to-node Information transfer advantages over systems in which a point-to-point line enables only two participants to communicate with each other.

Network Value - Effect The network effect, causes a good or service to have a value to a potential customer which depends on the number of other customers who own the good or are users of the service. Metcalfe's law the value of a Communications Network is proportional to the square of the number of linked players (nodes) (N 2 ) Applicable to Internet, World Wide Web, Social Networks. Hendler J., Golbeck J. 2008, Metcalfe's Law, Web 2.0, and the Semantic Webhttp://dl.acm.org/citation.cfm?id=1346698 Networks Special Report, Forbes http://www.forbes.com/2007/04/18/breakthroughs-community-technology-techcz_tp_07networks_0419networks_land.html?boxes=custom

Communication Networks The Accessibility Communication Relation The node λ is Accessible = Reachable = Communicable from the node κ: κ λ There is a directed path from node κ to the node λ: κ = γ 0 γ 1 γ 2 γ m 1 γ m =λ Direct Access via some channel-link: κ λ Indirect Access in l steps: κ = γ 0 γ 1 γ 2 γ m 1 γ m =λ

Theorem 1) Accessibility is Transitive κ κ 1 and κ 1 κ 2 implies κ κ 2 2) Accessibility is Non-Reflexive Communication Relations Markov Chains Musical Works Markov Models of Music Hierarchical Organization Information Flow in Society Decision makers Press Public Pressure Groups

There are several indicators for Accessibility (directed Nets) and Communicability (undirected Nets) Estimation of Information Flow The κλ-th element of the matrix Α m : (Α m ) κκ counts the number of walks of length m that start at node κ and end at node λ. Communicability between two nodes could be estimated by summing the number of walks of length 1, 2, 3,.. Short walks are more important than long ones, (shorter walks are faster and cheaper) to arrive at a single real number Walks of length m are penalized by the factor 1/m!. T Communicability between nodes κ and λ : eee(a) κκ Estrada, E., Hatano, N. 2008 Communicability in complex networks. Phys. Rev. E 77, 036 111 Crofts J., Higham D. 2009, A weighted communicability measure applied to complex Networks, J. R. Soc. Interface 6, 411 414, doi:10.1098/rsif.2008.0484 Estrada Ε., Hatano Ν., Benzi M. 2012, The physics of communicability in complex networks, Physics Reports 514, 89-119

Ασκηση Συγκρινατε διαφορα Δικτυα ως προς την Accessibility Communicability Υπολογιστε την Εντροπια της Accessibility Communicability Συγκρινατε την Αποσταση Επικοινωνιας με την Αποσταση Γραφου Estrada Ε. 2012, The communicability distance in graphs, Linear Algebra and its Applications 436, 4317-4328 Γενικευσατε την Αποσταση Επικοινωνιας (Ασυμμετρη)

Network Information Shannon Theory for Networks El Gamal A. Kim Y. 2010, Lecture Notes on Network Information Theory, Department of Electrical Engineering, Stanford University Dehmer M. 2008, Information-Theoretic Concepts for the Analysis of Complex Networks, Applied Artificial Intelligence 22, 684 706 Dehmer Μ., Mowshowitz A. 2011, A history of Graph Εntropy measures, Information Sciences 181, 57-78

The Entropy of Weights n Ν Ν S wwwwht = ρ ων log 2 ρ ων ρ ω = κ=1 λ=1 w κκ=ω the probability that a randomly chosen Weight has value ω Ν 2 ω 1, ω 2,, ω n [ 1,1] are the n N 2 distinct values of the Weights The Weights distribution may a priori be homogeneous and characterized by a typical scale, or on the contrary carry a novel heterogeneity ν=1 Demetrius L., Manke T. 2005, Robustness and Network Evolution an Entropic Principle, Physica A 346, 682-696 Manke T., Demetrius L., Vingron T. 2005, Lethality and Entropy of Protein Interaction Networks, Genome Informatics 16, 159-163 Caldarelli 2007, p68

The Entropy of Degrees Ν ρ k = ρ k ii = Ν λ=1 ρ k ooo = Ν λ=1 ddd λ=k Ν Ν λ=1 ddd λ ii =k Ν ddd λ ii =k Ν S ddd = ρ k log 2 ρ k k=0 Ν ii ii S ii ddd = ρ k log 2 ρ k k=1 Ν ooo ooo S ooo ddd = ρ k log 2 ρ k κ=1 the probability that the Degree has value k the probability that the in-degree has value k the probability that the out-degree has value k Complex networks often exhibit a heterogeneous degree distribution, e.g. of a power-law form ρ k ~k β, 2 β 3

Entropy Assessment Distributed Systems the Web Graph Ontologies Mining Classification Neural Nets Knowledge Nets Supply Nets Attacks Defence Cryptography Software