Εισαγωγή Ορισμός Frequency moments

Σχετικά έγγραφα
Πιθανότητες και Αρχές Στατιστικής (5η Διάλεξη) Σωτήρης Νικολετσέας, καθηγητής Τμήμα Μηχανικών Η/Υ & Πληροφορικής, Πανεπιστήμιο Πατρών Ακαδημαϊκό Ετος

Περιεχόμενα 5ης Διάλεξης 1 Ανισότητα Markov 2 Διασπορά 3 Συνδιασπορά 4 Ανισότητα Chebyshev 5 Παραδείγματα Σωτήρης Νικολετσέας, αναπληρωτής καθηγητής 5

Τυχαίοι γράφοι Η διάμετρος του G(n, 2 ln n/n) Ioannis Giotis

Μαθηματικά Πληροφορικής Πιθανοτικά Εργαλεία. Υποπροσθετικότητα. Η Πιθανοτική Μέθοδος (The Probabilistic Method)

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

Λύσεις 4ης Ομάδας Ασκήσεων

f(y) dy = b a dy = b a x f(x) dx = b a dx = x 2 = b2 a 2 2(b a) b a dx = = (a2 + ab + b 2 )(b a) 3(b a)

pdf: X = 0, 1 - p = q E(X) = 1 p + 0 (1 p) = p V ar(x) = E[(X µ) 2 ] = (1 p) 2 p + (0 p) 2 (1 p) = p (1 p) [1 p + p] = p (1 p) = p q

P (M = 9) = e 9! =

Y = X 1 + X X N = X i. i=1

cov(x, Y ) = E[(X E[X]) (Y E[Y ])] cov(x, Y ) = E[X Y ] E[X] E[Y ]

x P (x) c P (x) = c P (x), x S : x c

P (A) + P (B), [Α,Β: ξένα µεταξύ τους] P (C A B) [P (A) + P (B)] P (C A) P (A) P (B) 3 4 ( ) 1 7 = 3 7 =

Η διακριτή συνάρτηση μάζας πιθανότητας δίνεται από την

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΠΟΛΥΤΕΧΝΙΚΗ ΣΧΟΛΗ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

2πσ 2 e (x µ)2 /2σ 2 dx = 1. (13.1) e x2 dx. e y2 dy, I = 2. e (y2 +z 2) dy dz.

Θεωρία Πιθανοτήτων, εαρινό εξάμηνο Λύσεις του πέμπτου φυλλαδίου ασκήσεων.. Δηλαδή:

pdf: X = 0, 1 - p = q E(X) = 1 p + 0 (1 p) = p V ar(x) = E[(X µ) 2 ] = (1 p) 2 p + (0 p) 2 (1 p) = p (1 p) [1 p + p] = p (1 p) = p q

Πίνακες Διασποράς. Χρησιμοποιούμε ένα πίνακα διασποράς T και μια συνάρτηση διασποράς h. Ένα στοιχείο με κλειδί k αποθηκεύεται στη θέση

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΟΧΑΣΤΙΚΑ ΜΟΝΤΕΛΑ

Θεωρία Πιθανοτήτων, εαρινό εξάμηνο Λύσεις του όγδοου φυλλαδίου ασκήσεων.

1η Σειρά Γραπτών Ασκήσεων

Ονοματεπώνυμο: Ερώτημα: Σύνολο Μονάδες: Βαθμός:

HMY 799 1: Αναγνώριση Συστημάτων

Περιεχόμενα 2ης Διάλεξης 1 Σύνοψη προηγούμενου μαθήματος 2 Αξιωματικός ορισμός και απαρίθμηση 3 Διατάξεις - Συνδυασμοί 4 Παραδείγματα υπολογισμού πιθα

Fast broadcasting and gossiping in radio networks. Chrobak, Gasieniec, Rytter 2002.

200, δηλαδή : 1 p Y (y) = 0, αλλού

Τυχαιοκρατικοί Αλγόριθμοι

Σχεδίαση & Ανάλυση Αλγορίθμων

Ανάκτηση Πληροφορίας

EukleÐdeiec emfuteôseic: ˆnw frˆgmata

P (A B) = P (AB) P (B) P (A B) = P (A) P (A B) = P (A) P (B)

2. Η πιθανότητα της αριθμήσιμης ένωσης ξένων μεταξύ τους ενδεχομένων είναι το άθροισμα των πιθανοτήτων των ενδεχομένων.

Fast broadcasting and gossiping in radio networks. Chrobak, Gasieniec, Rytter 2002.

Τ Ε Ι Ιονίων Νήσων Τμήμα Εφαρμογών Πληροφορικής στη Διοίκηση και την Οικονομία. Υπεύθυνος: Δρ. Κολιός Σταύρος

ΣΤΑΤΙΣΤΙΚΗ ΠΙΘΑΝΟΤΗΤΕΣ

3. Κατανομές πιθανότητας

Σχεδίαση και Ανάλυση Αλγορίθμων

Θεωρία Πιθανοτήτων & Στατιστική

ΣΤΑΤΙΣΤΙΚΗ ΠΙΘΑΝΟΤΗΤΕΣ

Πιθανότητες και Αλγόριθμοι

1 1 c c c c c c = 1 c = 1 28 P (Y < X) = P ((1, 2)) + P ((4, 1)) + P ((4, 3)) = 2 1/ / /28 = 18/28

Εθνικό Μετσόβιο Πολυτεχνείο

HMY 429: Εισαγωγή στην Επεξεργασία Ψηφιακών. Χρόνου (Ι)

Learning k-modal distributions via testing

17/10/2016. Στατιστική Ι. 3 η Διάλεξη

ΤΜΗΜΑ ΣΤΑΤΙΣΤΙΚΗΣ ΚΑΙ ΑΣΦΑΛΙΣΤΙΚΗΣ ΕΠΙΣΤΗΜΗΣ Π

Θεωρία Πληροφορίας. Διάλεξη 4: Διακριτή πηγή πληροφορίας χωρίς μνήμη. Δρ. Μιχάλης Παρασκευάς Επίκουρος Καθηγητής

Αλγόριθμοι Ταξινόμησης Μέρος 4

Πιθανοτικοί Αλγόριθμοι

Πιθανότητες και Αλγόριθμοι

X i = Y = X 1 + X X N.

X = = 81 9 = 9

ΤΜΗΜΑ ΣΤΑΤΙΣΤΙΚΗΣ ΚΑΙ ΑΣΦΑΛΙΣΤΙΚΗΣ ΕΠΙΣΤΗΜΗΣ Π

Σημερινό μάθημα: Εκτιμήτριες συναρτήσεις και σημειακή εκτίμηση παραμέτρων Στατιστική συμπερασματολογία (ή εκτιμητική ): εξαγωγή συμπερασμάτων για το σ

Κεφάλαιο 9. Έλεγχοι υποθέσεων

ΕΙΣΑΓΩΓΗ ΣΤΗΝ ΣΤΑΤΙΣΤΙΚΗ ΤΩΝ ΕΠΙΧΕΙΡΗΣΕΩΝ. Κεφάλαιο 7. Τυχαίες Μεταβλητές και Διακριτές Κατανομές Πιθανοτήτων

Ταξινόμηση. 1. Ταξινόμηση του Shell. Εισαγωγή στην Ανάλυση Αλγορίθμων Μάγια Σατρατζέμη

Pr(10 X 15) = Pr(15 X 20) = 1/2, (10.2)

ΑΝΑΛΥΣΗ 1 ΕΙΚΟΣΤΟ ΠΡΩΤΟ ΜΑΘΗΜΑ, Μ. Παπαδημητράκης.

Διακριτά Μαθηματικά ΙΙ Χρήστος Νομικός Τμήμα Μηχανικών Η/Υ και Πληροφορικής Πανεπιστήμιο Ιωαννίνων 2018 Χρήστος Νομικός ( Τμήμα Μηχανικών Η/Υ Διακριτά

Εισαγωγή Η Θεωρία Πιθανοτήτων παίζει μεγάλο ρόλο στη μοντελοποίηση και μελέτη συστημάτων των οποίων δεν μπορούμε να προβλέψουμε ή να παρατηρήσουμε την

Μαθηµατική Επαγωγή. Ορέστης Τελέλης. Τµήµα Ψηφιακών Συστηµάτων, Πανεπιστήµιο Πειραιώς

Κεφάλαιο 5 Ανάλυση Αλγορίθμων

Διάλεξη 18: Πρόβλημα Βυζαντινών Στρατηγών. ΕΠΛ 432: Κατανεμημένοι Αλγόριθμοι

Ορισµός. Εστω συναρτήσεις: f : N R και g : N R. η f(n) είναι fi( g(n) ) αν υπάρχουν σταθερές C 1, C 2 και n 0, τέτοιες ώστε:

Χρησιμότητα ανισοτήτων - οριακών θεωρημάτων

2. Η πιθανότητα της αριθμήσιμης ένωσης ξένων μεταξύ τους ενδεχομένων είναι το άθροισμα των πιθανοτήτων των ενδεχομένων.

ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΙΓΑΙΟΥ ΣΧΟΛΗ ΕΠΙΣΤΗΜΩΝ ΤΗΣ ΔΙΟΙΚΗΣΗΣ ΤΜΗΜΑ ΜΗΧΑΝΙΚΩΝ ΟΙΚΟΝΟΜΙΑΣ ΚΑΙ ΔΙΟΙΚΗΣΗΣ ΣΤΑΤΙΣΤΙΚΗ

ILP-Feasibility conp

Μέση τιμή, διασπορά, τυπική απόκλιση. 1) Για την τυχαία διακριτή μεταβλητή Χ ισχύει Ρ(Χ=x i)=

Στοιχεία Θεωρίας Αριθμών & Εφαρμογές στην Κρυπτογραφία

Υπολογιστικά & Διακριτά Μαθηματικά

Τηλεπικοινωνιακά Συστήματα ΙΙ

Πανεπιστήµιο Κρήτης - Τµήµα Επιστήµης Υπολογιστών. ΗΥ-217: Πιθανότητες-Χειµερινό Εξάµηνο ιδάσκων : Π. Τσακαλίδης

Αλγόριθμοι για αυτόματα

Κεφαλαιο 2.2 ΑΝΑΚΕΦΑΛΑΙΩΤΙΚΕΣ ΑΛΓΟΡΙΘΜΟΙ

Κατανομή συνάρτησης τυχαίας μεταβλητής Y=g(X) Πιθανότητες & Στατιστική 2017 Τμήμα Μηχανικών Η/Υ & Πληροφορικής, Παν. Ιωαννίνων Δ13 ( 1 )

Μέγιστη Ροή Ελάχιστη Τομή

ΚΑΤΑΝΟΜΈΣ. 8.1 Εισαγωγή. 8.2 Κατανομές Συχνοτήτων (Frequency Distributions) ΚΕΦΑΛΑΙΟ

ΟΙΚΟΝΟΜΙΚΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΑΘΗΝΩΝ ΤΜΗΜΑ ΠΛΗΡΟΦΟΡΙΚΗΣ ΦΡΟΝΤΙΣΤΗΡΙΟ ΑΛΓΟΡΙΘΜΩΝ ΒΟΗΘΟΣ: ΒΑΓΓΕΛΗΣ ΔΟΥΡΟΣ

p(x, y) = 1 (x + y) = 3x + 6, x = 1, 2 (x + y) = 3 + 2y, y = 1, 2, 3 p(1, 1) = = 2 21 p X (1) p Y (1) = = 5 49

Διαλογικά Συσ τήματα Αποδείξεων Διαλογικά Συστήματα Αποδείξεων Αντώνης Αντωνόπουλος Κρυπτογραφία & Πολυπλοκότητα 17/2/2012

07/11/2016. Στατιστική Ι. 6 η Διάλεξη (Βασικές διακριτές κατανομές)

Έξι βαθμοί διαχωρισμού

n 5 = 7 ε (π.χ. ορίζοντας n0 = 1+ ε συνεπώς (σύμϕωνα με τις παραπάνω ισοδυναμίες) an 5 < ε. Επομένως a n β n 23 + β n+1

Βιομαθηματικά BIO-156. Τυχαίες μεταβλητές Κατανομές Πιθανοτήτων. Ντίνα Λύκα. Εαρινό Εξάμηνο, 2017

ΣΤΟΧΑΣΤΙΚΑ ΣΥΣΤΗΜΑΤΑ & ΕΠΙΚΟΙΝΩΝΙΕΣ 1o Τμήμα (Α - Κ): Αμφιθέατρο 4, Νέα Κτίρια ΣΗΜΜΥ Θεωρία Πιθανοτήτων & Στοχαστικές Ανελίξεις - 2

Στατιστική. Εκτιμητική

ΜΕΓΙΣΤΙΚΟΣ ΤΕΛΕΣΤΗΣ 18 Σεπτεμβρίου 2014

Δομές Δεδομένων. Δημήτρης Μιχαήλ. Ταξινόμηση. Τμήμα Πληροφορικής και Τηλεματικής Χαροκόπειο Πανεπιστήμιο

PSEUDORANDOM GENERATORS- PREDICATES & ZK PROOFS

ΣΤΟΧΑΣΤΙΚΕΣ ΙΑ ΙΚΑΣΙΕΣ

Διάλεξη 5: Κάτω Φράγμα για Αλγόριθμους Εκλογής Προέδρου. ΕΠΛ 432: Κατανεμημένοι Αλγόριθμοι

ΤΥΧΑΙΕΣ ΜΕΤΑΒΛΗΤΕΣ. Έννοια Ορισμοί Τρόπος υπολογισμού Kατανομή πιθανότητας Ασκήσεις

Τυχαία μεταβλητή (τ.μ.)

Κεφάλαιο 9. Έλεγχοι υποθέσεων

Διακριτά Μαθηματικά [Rosen, κεφ. 3] Γιάννης Εμίρης Τμήμα Πληροφορικής & Τηλεπικοινωνιών, ΕΚΠΑ Οκτώβριος 2018

Σημειωματάριο Δευτέρας 4 Δεκ. 2017

X = συνεχης. Είναι εμφανές ότι αναγκαία προϋπόθεση για την ύπαρξη της ροπογεννήτριας

Transcript:

The space complexity of approximating the frequency moments Κωστόπουλος Δημήτριος Μπλα Advanced Data Structures June 2007

Εισαγωγή Ορισμός Frequency moments Έστω ακολουθία Α = {a 1,a 2,...,a m ) με κάθε a i να ανήκει στο Ν = {1,2,...,n}. Έστω m l το πλήθος των εμφανίσεων του αριθμού l στην ακολουθία Α, m l = { j : a j = l } Ορίζουμε F = Σ i=1n m i. - Frequency moments F 0 = Σ i=1n m i0. Το πλήθος των διαφορετικών στοιχείων της ακολουθίας. F 1 = Σ i=1n m i. Το μήκος της ακολουθίας. Ορίζουμε m = F 1. F 2 = Σ i=1n m i2.

Εισαγωγή Τα πιο σημαντικά Frequency moments F = Σ i=1n m i. F 0 = Σ i=1n m i0. Το πλήθος των διαφορετικών στοιχείων της ακολουθίας. F 1 = Σ i=1n m i. Το μήκος της ακολουθίας. Ορίζουμε m = F 1. F 2 = Σ i=1n m i2. F OO * = max {m i, 1<= i <= n} Τα frequency moments βοηθούν στη στατιστική ανάλυση των ακολουθιών.

Εισαγωγή Μπορούμε να υπολογίσουμε τα frequency moments εύκολα και γρήγορα απλά κρατώντας ένα μετρητή m l για κάθε αριθμό l. Όμως αυτό απαιτεί χώρο Ω(nlogm), όπου n θυμίζουμε ο μεγαλύτερος αριθμός που μπορεί να εμφανιστεί στην ακολουθία. Θέλουμε πολύ λιγότερο χώρο.

Εισαγωγή Πάνω φράγμα Τα F προσεγγίζονται με τυχαίο τρόπο χρησιμοποιώντας το πολύ O(n 1-1/ logn) bits, > 0. Για = 1 : O(logn) bits Για = 2 : O(n 1/2 logn) bits

Εισαγωγή Κάτω φράγμα Τα F προσεγγίζονται με τυχαίο τρόπο χρησιμοποιώντας τουλάχιστον Ω(n 1-5/ ) bits, > 0. Για < 5 : Ω(n -something ) bits bits Για = 5 : Ω(1) bits Για > 6 : Ω(n 1 - something ) bits. Άρα για > 6 τα πράγματα δεν είναι και τόσο καλά! Για = OO : Ω(n) bits!, για το F OO*.

Κάτω φράγμα - Θεώρημα Θεώρημα Έστω ακολουθία Α = (a 1,...,a m ) με πεδίο τιμών το {1,...,n}. Για κάθε >= 1 και κάθε λ > 0 και κάθε ε > 0 υπάρχει ένα πιθανοτικός αλγόριθμος που με ένα πέρασμα υπολογίζει το F. Αυτός ο αλγόριθμος αποκλίνει από το F πιο πολύ από λf με πιθανότητα το πολύ ε. Ο χώρος που χρησιμοποιεί ο αλγόριθμος είναι : O( log(1/ε) n 1-1/ (logn+logm) / λ 2 )

Απόδειξη (σχεδόν ίδια με του paper αλλά κάπως πιο ποιοτικά...) Θέλουμε να προσεγγίσουμε όσο πιο πολύ γίνεται το F και με όσο μεγαλύτερη πιθανότητα μπορούμε. Γενικά, σε τέτοια προβλήματα μία τακτική είναι να μαντέψουμε t τυχαίες μεταβλητές τέτοια που E(X j ) να είναι η τιμή που θέλουμε να προσεγγίσουμε, j = 1,...,t. Μετά ορίζουμε s Υ i τυχαίες μεταβλητές σαν τον μέσο όρο των X j, i = 1,...,s Ο μεσαίος των Υ i είναι η προσέγγιση της τιμής μας.

Ξέρουμε, F = Σ i=1n m i. Επίσης από πιθανότητες, για μια τυχαία διακριτή μεταβλητή : Ε(Χ) = Σ x x Pr{X=x}. Οπότε μπορούμε να πάρουμε για Χ = n m i και να πάρουμε το επιθυμητό αποτέλεσμα. Ε(Χ) = Σ x x Pr{X=x} = Σ i=1n n m i (1/n). Αυτό όμως δε δουλεύει γιατί έχουμε το i να εξαρτάται από το i!!!

Για να διώξουμε το n, πρέπει να πάρουμε κάτι παρόμοιο αλλά με διαφορετικό πλήθος μεταβλητών. Αναλύοντας το F έχουμε : F = Σ i=1n m i = m 1 + m 2 +... + m n., n προσθετέοι. Ας δοκιμάσουμε να τους κάνουμε m (υπενθύμιση m = το μήκος της ακολουθίας).

Αλλά, m 1 + m 2 +... + m n = m. To m είναι και αυτό μεταβλητό, :-(. Αλλά μπορούμε να το θεωρήσουμε σταθερό, ότι και καλά το ξέρουμε από πριν. Θα δείξουμε παρακάτω ότι και σταθερό να μην είναι κλάιν μάιν. F = Σ i=1n m i = m 1 + + m 2 + +... + + m n

F = Σ i=1n m i = m 1 + + m 2 + +... + + m n F = 1-1 + 2 2 +... + (m 1-1) - (m 1-1) + m 1 + 1-1 + 2 2 +... + (m 2-1) - (m 2-1) + m 2 + +... + 1-1 + 2 2 +... + (m n - 1) - (m n - 1) + m n +

F = 1-1 + 2 2 +... + (m 1-1) - (m 1-1) + m 1 + 1-1 + 2 2 +... + (m 2-1) - (m 2-1) + m 2 + +... + 1-1 + 2 2 +... + (m n - 1) - (m n - 1) + m n F = (1 0 ) + (2 1 ) + (3-2 )... + (m 1 - (m 1-1) ) + (1 0 ) + (2 1 ) + (3-2 )... + (m 2 - (m 2-1) ) + +... + (1 0 ) + (2 1 ) + (3-2 )... + (m n - (m n - 1) )

Τώρα, αρκεί να ορίσουμε σαν Χ = m (r (r 1) ). Τι μπορεί όμως να συμβολίζει αυτή η νέα μεταβλητή r; Θέλουμε το r να έχει m διαφορετικές τιμές. Τι έχει m διαφορετικές τιμές; Το μήκος της ακολουθίας καθώς την εξετάζουμε. Εάν ορίσουμε σαν r να είναι το r-οστό στοιχείο της ακολουθίας τότε το r θα παίρνει τιμές από το 1 έως το m και Ε(Χ) = Σ x x Pr{X=x} = m. ΛΑΘΟΣ Θέλουμε να μπορούμε να διαχωρίσουμε ποιοτικά το κάθε στοιχείο της ακολουθίας, καθώς δεν ενδιαφερόμαστε πραγματικά για τη θέση του στην ακολουθία αλλά για τον αριθμό επανεμφάνισής του.

Οπότε θέλουμε το r να συμβολίζει ακριβώς το εάν συναντήσουμε έναν αριθμό l, να ξέρουμε ποια r-οστή φορά μπορεί να είναι αυτή που τον συναντάμε. Ορίζουμε, r = { q : q >= p, a q = l = a p } Το r συμβολίζει τον αριθμό των εμφανίσεων του a p = l μετά τις πρώτες p πρώτες θέσεις της ακολουθίας. (Αυτό το μετά τις πρώτες p πρώτες θέσεις της ακολουθίας θα χρησιμοποιήσουμε αργότερα για να δείξουμε ότι δε μας πειράζει εάν δε γνωρίζουμε από πριν το μήκος της ακολουθίας).

Τι έχουμε καταφέρει μέχρι στιγμής; Τίποτα! Το καλό είναι ότι έως τώρα χρησιμοποιούμε χώρο το πολύ logn + logm. Logn για να κρατάμε το a p =l και logm για να κρατάμε τον αριθμό των εμφανίσεων του l.

Ανισότητα Chebyshev Δοθείσης μίας τυχαίας μεταβλητής Χ τότε για a > 0, Pr { X-E(X) >= a } <= σ 2 /α 2,σ = Ε( X-E(X) 2 ),όπου σ 2 είναι η διασπορά της τυχαίας μεταβλητής Χ (Var(X) variance of X).

Έστω Y i o μέσος όρος των μεταβλητών Χ, με i = 1... s. Pr { Y i F > λf } = Pr { Y i E(X) > λf }, F = E(X) = Pr { Y i E(Y i ) > λf }, E(X) = E(Y i ) <= Var(Y i ) / (λ 2 F 2 ), ανισότητα του Chebyshev = Var(X) / (t λ 2 F 2 ), Var(Y i ) = Var(X) / t <= E(X 2 ) / (t λ 2 F 2 ), Var(X) = E(X 2 ) - E(X) 2 <= F 1 F 2-1 / (t λ 2 F 2 ), θέλει απόδειξη στον πίνακα. <= n 1-1/ F 2 / (t λ 2 F 2 ), θέλει απόδειξη στον πίνακα. <= n 1-1/ / (t λ 2 )

Οπότε, Pr { Y i F > λf } <= n 1-1/ / (t λ 2 ) Chernoff Bound : 'Εστω, X 1,...,X m ανεξάρτητες δοκιμές Bernoulli έτσι ώστε : Pr[X i =1] = p, Pr[X i =0] = 1 - p. Έστω Χ = ΣiXi και E(X) = mp. Τότε για κάθε ε > 0 : Pr( X-E(X) >=E(X)ε) <= 2 e -E(X)ε ε / 2 Αποδεικνύεται, ότι εάν πάρουμε, για s = 2 log(1/ε) και t = 8 n 1-1/ / λ 2, τότε από το Chernoff η πιθανότητα περισσότερες από s/2 μεταβλητές Y i να αποκλίνουν περισσότερο από λf από το F είναι το πολύ ε.

Τι κάνουμε εάν δεν ξέρουμε το μήκος της ακολουθίας m από πριν; (σχεδόν πάντα συμβαίνει αυτό...) Τότε ξεκινάμε με m = 1 καθώς διαβάζουμε την ακολουθία και διαλέγουμε σαν l = a p το a 1. Κάνουμε το r = 1, καθώς το a 1 είναι το μοναδικό στοιχείο στην ακολουθία. Μετά με m = 2 βάζουμε για a p το a 2 με πιθανότητα ½ και κάνουμε τους υπολογισμούς. Γενικότερα σε κάθε βήμα m αντικαθιστάμε το a p με το a m με πιθανότητα 1/m. Αν γίνει η αντικατάσταση κάνουμε το r = 1. Εάν δε γίνει, κοιτάμε εάν το a m =a p και αυξάνουμε το r κατά 1, αλλιώς αφήνουμε το r έως έχει.

Στην εισαγωγή όμως είπαμε ότι τα F προσεγγίζονται με τυχαίο τρόπο χρησιμοποιώντας το πολύ O(n 1-1/ logn) bits, > 0. Εάν m >= Ο(n), τότε έχει αποδειχθεί ότι ο χώρος που χρειάζεται είναι : Ο( log(1/ε) n 1-1/ (logn+loglogm+log(1/λ)) / λ 2 )

Κάτω φράγμα - F 2 O( log(1/ε) (logn+logm) / λ 2 ) Έστω ακολουθία Α = (a 1,...,a m ) με πεδίο τιμών το {1,...,n}. Για κάθε λ > 0 και κάθε ε > 0 υπάρχει ένα πιθανοτικός αλγόριθμος που με ένα πέρασμα υπολογίζει το F 2. Αυτός ο αλγόριθμος αποκλίνει από το F 2 το πολύ από λf 2 με πιθανότητα το πολύ ε. Ο χώρος που χρησιμοποιεί ο αλγόριθμος είναι : O( log(1/ε) (logn+logm) / λ 2 )

Κάτω φράγμα - F 0 O( logn) Έστω ακολουθία Α = (a 1,...,a m ) με πεδίο τιμών το {1,...,n}. Για κάθε c>2 υπάρχει ένα πιθανοτικός αλγόριθμος που με ένα πέρασμα υπολογίζει το F 0. Η πιθανότητα ο λόγος μεταξύ Y (Υ=ο υπολογισμός του αλγορίθμου) και F να μην είναι μεταξύ 1/c και c είναι το πολύ 2/c. Ο χώρος που χρησιμοποιεί ο αλγόριθμος είναι : O( logn)

Άνω φράγμα - F ΟΟ * Ω(n) Έστω ακολουθία Α = (a 1,...,a m ) με πεδίο τιμών το {1,...,n} και το μήκος m να είναι το πολύ 2n. Για κάθε ε < ½ και κάθε πιθανοτικό αλγόριθμο που με ένα * * πέρασμα υπολογίζει το F ΟΟ και αποκλίνει από το F ΟΟ πιο πολύ από F ΟΟ* /3 με πιθανότητα το πολύ ε : ο χώρος που χρησιμοποιεί ο αλγόριθμος είναι : Ω(n).

Άνω φράγμα - F κ Ω(n 1-5/ ) Έστω ακολουθία Α = (a 1,...,a m ) με πεδίο τιμών το {1,...,n}. Για κάθε > 5 και γ < ½ και κάθε πιθανοτικό αλγόριθμο με Pr { Ζ -F > 0.1 F } < γ (Z η έξοδος του αλγορίθμου): ο χώρος που χρησιμοποιεί ο αλγόριθμος είναι : Ω(n 1-5/ ).