\(\newcommand{\PP}[1]{\P\big[#1\big]} \newcommand{\Px}[1]{\P_x\big[#1\big]} \newcommand{\EE}[1]{\E\big[#1\big]} \newcommand{\Ex}[1]{\E_x\big[#1\big]} \newcommand{\en}[1]{\textlatin{#1}} \def\N{\mathbb{N}} \def\Z{\mathbb{Z}} \def\X{\mathbb{X}} \def\Y{\mathbb{Y}} \def\P{\mathbb{P}} \def\Q{\mathbb{Q}} \def\E{\mathbb{E}} \def\R{\mathbb{R}} \def\MX{{\cal M}(\X)} \def\F{{\cal F}} \def\xn{\{X_n\}_{n\in\N_0}} \def\half{\frac{1}{2}} \def\IP{{\cal I}(P)} \def\mrtx{\E_x\big[T_x^+\big]} \def\ma{\en{martingale}} \)
KΕΦΑΛΑΙΟ III. Θεωρία Δυναμικού


3.1 Εισαγωγή

Είδαμε στο προηγούμενο κεφάλαιο πώς μπορούμε να διαμερίσουμε τον χώρο καταστάσεων μιας μαρκοβιανής αλυσίδας σε κλάσεις επικοινωνίας και πώς μπορούμε να ταξινομήσουμε τις κλάσεις αυτές σε ανοιχτές και κλειστές. Είδαμε επίσης ότι, αν η αλυσίδα ξεκινήσει ή βρεθεί κάποια στιγμή σε μία από τις κλειστές κλάσεις, τότε θα παραμείνει σε αυτήν για πάντα. Αν η αλυσίδα ξεκινά από μια ανοιχτή κλάση και υπάρχουν περισσότερες από μία κλειστές κλάσεις, ποια είναι η πιθανότητα να απορροφηθεί από καθεμία από τις κλειστές κλάσεις; Και πόσο χρόνο θα πάρει μέχρι να συμβεί αυτό; Αυτά είναι ερωτήματα που θα μπορέσουμε να απαντήσουμε με τις τεχνικές που θα μάθουμε στο παρόν κεφάλαιο. Παρόμοιο υλικό μπορείτε να βρείτε και στις αναφορές [Bremaud99] και [Norris98] και στην ελληνική βιβλιογραφία στη [Χρυσαφίνου12] .

3.2 Πιθανότητες απορρόφησης

Θεωρούμε μια μαρκοβιανή αλυσίδα \(\xn\) με τιμές σ' έναν χώρο καταστάσεων \(\X\) και πιθανότητες μετάβασης \(p(\cdot,\cdot)\). Θεωρούμε ακόμα ένα σύνολο \(A\subset\X\) και ορίζουμε τον χρόνο πρώτης άφιξης στο \(A\) την τυχαία μεταβλητή \(T_A:\Omega\to\N_0\cup\{+\infty\}\) με \[ T_A(\omega)=\inf\{k\ge 0: X_k(\omega)\in A\}. \]

Όταν το σύνολο \(Α\) είναι ένα μονοσύνολο \(\{x\}\), θα συμβολίζουμε εναλλακτικά τον χρόνο άφιξης στο \(Α\) και ως \(T_x\).

Παράδειγμα 3.1 Σ' ένα γκέιμ τένις δύο παίκτες Α, Β είναι ισόπαλοι. Ο αγώνας θα τελειώσει, όταν κάποιος από τους δύο παίκτες κερδίσει δύο πόντους παραπάνω από τον αντίπαλό του. Μπορoύμε να μοντελοποιήσουμε το παραπάνω παιχνίδι ως μια μαρκοβιανή αλυσίδα στον χώρο καταστάσεων \(\X=\{A,\alpha,\iota,\beta,B\}\), όπου η κατάσταση \(\iota\) αντιστοιχεί σε ισοπαλία, οι καταστάσεις \(\alpha,\beta\) αντιστοιχούν σε πλεονέκτημα του A ή του B αντίστοιχα και οι καταστάσεις \(A\) και \(B\) αντιστοιχούν στο τέλος του γκέιμ με νίκη του A ή του B αντίστοιχα. To γκέιμ τελειώνει την πρώτη φορά που η αλυσίδα θα βρεθεί σε μια από τις κατάστάσεις \(A\) ή \(B\), επομένως η εναπομείνασα διάρκεια της παρτίδας είναι ο χρόνος πρώτης άφιξης στο σύνολο \(E=\{A,B\}\). Νικητής στο γκέιμ είναι ο παίκτης Α, αν η αλυσίδα αυτή φτάσει στην κατάσταση \(A\) πριν φτάσει στην κατάσταση \(B\), δηλαδή στο ενδεχόμενο \(\{ T_A < T_B \}= \{ \omega \in \Omega : T_A (\omega) < T_B (\omega) \} \). Θυμηθείτε επίσης ότι οι χρόνοι άφιξης είναι χρόνοι διακοπής και μπορούν να πάρουν και την τιμή \(+\infty\). Αν για παράδειγμα στην έκβαση \(\omega\) ο Α κερδίσει τον πρώτο πόντο και στη συνέχεια ο Β κερδίσει τους επόμενους τρεις πόντους, έχουμε \(T_E (\omega) = T_B(\omega) = 4 \), ενώ \(T_A(\omega) = +\infty.\)

Όπως στο παραπάνω παράδειγμα, μας ενδιαφέρει συχνά το εξής πρόβλημα: αν \(A,B\subset\X\) με \(A\cap B=\emptyset\) και \(X_0=x\notin A\cup B\), ποια είναι η πιθανότητα \(\PP { T_A < T_B \, |\, X_0 = x } = \Px{ T_A < T_B } \); Παρότι το πρόβλημα που έχουμε να λύσουμε απαιτεί τον υπολογισμό ενός αριθμού, είναι πιο εύκολο να λύσουμε ένα φαινομενικά πολυπλοκότερο πρόβλημα, του οποίου το αρχικό μας πρόβλημα αποτελεί μέρος. Συγκεκριμένα, θα αναζητήσουμε την τιμή αυτής της πιθανότητας ταυτόχρονα για όλα τα \(x \in \X \). Θα θεωρήσουμε λοιπόν αυτή την πιθανότητα ως μια συνάρτηση της αρχικής κατάστασης

\begin{equation} \Phi_{A,B} (x) = \Px{ T_A < T_B }. \end{equation}

Για λόγους που θα εξηγήσουμε στη συνέχεια η συνάρτηση αυτή καλείται συχνά συνάρτηση δυναμικού (potential) από το \(A\) στο \(B\). Όπως και στην περίπτωση του χρόνου πρώτης άφιξης, αν το \(A\) είναι μονοσύνολο με \(A=\{u\}\), θα συμβολίζουμε το δυναμικό \(\Phi_{\{u\},B}\) και ως \(\Phi_{u,B}\). Aντίστοιχα θα κάνουμε στην περίπτωση που το \(B\) είναι μονοσύνολο. Ορίζουμε επίσης τον γεννήτορα \(L\) της αλυσίδας ως έναν τελεστή που δρα σε συναρτήσεις \(h:\X\to\R\) επιστρέφοντας μια καινούργια συνάρτηση \(Lh:\X\to\R\) με τύπο \[ Lh(x)=\sum_{y\in\X} p(x,y) \big(h(y)-h(x)\big),\qquad \text{για κάθε }x\in\X. \]

Θεώρημα 3.1 Αν \(A\cap B=\emptyset\), τότε η συνάρτηση δυναμικού \(\Phi_{A,B}\) που ορίσαμε στην (3.1) λύνει το πρόβλημα συνοριακών τιμών (ΠΣΤ)

\begin{equation} \begin{cases} \quad Lh(x)=0, & \text{ αν } x\notin A\cup B\\ \quad h(x)=1, &\text{ αν } x\in A\\ \quad h(x)=0, &\text{ αν } x\in B.\end{cases} \end{equation}

Απόδειξη: Αν \(x\in A\), στο ενδεχόμενο \(\{\omega: X_0(\omega)=x\}\) έχουμε \(T_A(\omega)=\inf\{k\ge 0: X_k(\omega)\in A\}=0\), ενώ \(T_B(\omega)>0\), αφού \(A\cap B=\emptyset\). Eπομένως, \[ x \in A \Rightarrow \Phi_{A,B} (x) = \Px{ T_A < T_B } = 1. \] Με εντελώς αντίστοιχο τρόπο έχουμε ότι \(x \in B \Rightarrow \Phi_{A,B}(x)= \Px{ T_A < T_B } = 0.\)

Έστω τώρα \(x\notin A\cup B\). Θα επιχειρήσουμε να υπολογίσουμε την \(\Px{ T_A < T_B } \) κάνοντας ανάλυση πρώτου βήματος. Αυτό πολύ απλά σημαίνει ότι θα εφαρμόσουμε τον τύπο της ολικής πιθανότητας για τη διαμέριση του \(\Omega\) που επάγει το πρώτο βήμα της αλυσίδας, \[ \Omega = \bigcup_{ y \in \X} \{ X_1 =y \}. \] Συγκεκριμένα, \begin{align*} \Phi_{ A, B} (x) &= \Px{ T_A < T_B } = \sum_{ y \in \X } \PP{ X_1=y \, | \, X_0 = x } \times \PP{ T_A < T_B\, | \, X_0=x, X_1=y}\\ &=\sum_{ y \in \X } p(x,y) \ \PP{ T_A^+ < T_B^+ \, | \, X_0=x, X_1=y }, \end{align*} όπου \(T_A^+(\omega)=\inf\{k\ge 1: X_k(\omega)\in A\}\) και αντίστοιχα ορίζεται ο \(T_B^+\). Προσέξτε ότι η διαφορά του \(T_A\) από τον \(T_A^+\) έγκειται στο ότι για τον μεν \(T_A\) εξετάζουμε αν η αλυσίδα είναι αρχικά στο \(Α\), ενώ για τον \(T_A^+\) όχι. Στην τελευταία ισότητα παραπάνω, αντικαταστήσαμε το ενδεχόμενο \(\{ T_A < T_B \} \) από το \(\{ T_A^+ < T_B^+ \} \), γιατί για \(x \notin A\cup B\) στο ενδεχόμενο \(\{ X_0 = x \}\) έχουμε \(Τ_A(\omega) = T_A^+ (\omega) \) και \(Τ_B(\omega)= T_B^+ (\omega)\). Όμως από τη μαρκοβιανή ιδιότητα έχουμε \begin{align*} \PP{ T_A^+ < T_B^+ \, | & X_0=x, X_1=y} = \PP{ T_A^+ < T_B^+ \,| X_1=y}\\ &=\PP{ T_A < T_B \, | \, X_0 = y } = \Phi_{A,B}(y), \end{align*} αφού η \(\{Y_n\}_{n\in\N_0}\) με \(Y_n=X_{n+1}\) είναι μια μαρκοβιανή αλυσίδα με τις ίδιες πιθανότητες μετάβασης όπως η \(\xn\), ενώ \(T_A^+=\inf\{k\ge 0: Y_n\in A\}+1\) και αντίστοιχα \(T_B^+=\inf\{k\ge 0: Y_n\in B\}+1\). Έχουμε λοιπόν ότι για \(x\notin A\cup B\)

\begin{equation} \Phi_{A,B}(x)=\sum_{y\in\X}p(x,y)\ \Phi_{A,B}(y)\Leftrightarrow L\Phi_{A,B}(x)=0. \end{equation}

\(\square\)

Παρατήρηση: Στην περίπτωση των μαρκοβιανών αλυσίδων με διακριτό χώρο καταστάσεων \(\X\), το ΠΣΤ (3.2) δεν είναι παρά ένα σύστημα από τόσες γραμμικές εξισώσεις, όσες και οι καταστάσεις στο \((A\cup B)^c\). Τόσες είναι και οι τιμές της \(\Phi_{A,B}\) που ψάχνουμε, αφού για \(x\in A\), έχουμε \(\Phi_{A,B}(x)=1\), ενώ για \(x\in B\) έχουμε \(\Phi_{A,B}(x)=0\). Όπως θα δούμε στο επόμενο κεφάλαιο, αν ο \(\X\) είναι πεπερασμένος και το σύνολο \((A\cup B)\) είναι προσβάσιμο από κάθε σημείο του \((A\cup B)^c,\) τότε το ΠΣΤ (3.2) έχει πάντα μοναδική λύση, κάτι που μας επιτρέπει να υπολογίσουμε την \(\Phi_{A,B}\), όπως θα δούμε στα επόμενα παραδείγματα.

Παράδειγμα 3.2 Στο Παράδειγμα 3.1 ας υποθέσουμε ότι η πιθανότητα νίκης του παίκτη Α σε κάθε πόντο είναι \(p\), ενώ η πιθανότητα νίκης του παίκτη Β είναι \(q\), ανεξάρτητα από το αποτέλεσμα των άλλων πόντων. Ο πίνακας πιθανοτήτων μετάβασης της αλυσίδας είναι επομένως o

Aς υποθέσουμε ότι αυτή τη στιγμή το γκέιμ είναι ισόπαλο, δηλαδή \(X_0=\iota\). Θα υπολογίσουμε την πιθανότητα να είναι νικητής του γκέιμ ο παίκτης Α ως συνάρτηση του \(p\), δηλαδή τη \[ \Phi_{A,B}(\iota) = \PP{ T_A < T_B \, | \, X_0 = \iota }. \]

Από το Θεώρημα 3.1 έχουμε ότι η \(\Phi_{A,B}\) λύνει το ΠΣΤ (3.2). Αν \(h:\X\to\R\) είναι μια λύση αυτού του προβλήματος, θα πρέπει \(h(A)=1,\ h(B)=0\), ενώ γράφοντας την εξίσωση \(Lh(x)=0\) διαδοχικά για \(x=\alpha,\iota,\beta\) έχουμε: \begin{eqnarray*} &x=\alpha: &\qquad h(\alpha)=ph(A)+(1-p)h(\iota)=p+(1-p)h(\iota)\\ &x=\iota: & \qquad h(\iota)=ph(\alpha)+(1-p)h(\beta)\\ &x=\beta: & \qquad h(\beta)=ph(\iota)+(1-p)h(B)=ph(\iota). \end{eqnarray*} Λύνοντας τις παραπάνω εξισώσεις βρίσκουμε ότι το σύστημα έχει μοναδική λύση την \[ h(\alpha)=\frac{p(1-p+p^2)}{p^2+(1-p)^2},\quad h(\iota)=\frac{p^2}{p^2+(1-p)^2}, \quad h(\beta)=\frac{p^3}{p^2+(1-p)^2} \] και άρα \(\displaystyle \Phi_{A,B}(\iota)=\frac{p^2}{p^2+(1-p)^2}\).

\(\square\)

Παράδειγμα 3.3

Δύο παίκτες Α,Β στρίβουν ένα τίμιο κέρμα μέχρι να εμφανιστεί η ακολουθία κεφαλή-γράμματα-κεφαλή (ΚΓΚ) ή να έρθουν τρεις διαδοχικές φορές γράμματα (ΓΓΓ). Στην πρώτη περίπτωση νικητής αναδεικνύεται ο Α, ενώ στη δεύτερη περίπτωση ο Β. Ποια είναι η πιθανότητα νίκης κάθε παίκτη;

Όπως στο Παράδειγμα 1.6, θα περιγράψουμε την κατάσταση του παιχνιδιού χρησιμοποιώντας το αποτέλεσμα των δύο τελευταίων στριψιμάτων και δύο ακόμα καταστάσεις \(Α,Β\), που θα αντιστοιχούν σε νίκη του παίκτη Α και σε νίκη του παίκτη Β. Πιο συγκεκριμένα, μπορούμε να περιγράψουμε το παιχνίδι μας ως μια μαρκοβιανή αλυσίδα στον χώρο καταστάσεων \[\X=\{KK,K\Gamma,\Gamma K,\Gamma\Gamma,A,B\}.\] Εάν για παράδειγμα κάποια στιγμή η αλυσίδα βρεθεί στην κατάσταση \(\Gamma K\), αυτό σημαίνει ότι καμία από τις δύο ακολουθίες τερματισμού δεν έχει εμφανιστεί ακόμη, ενώ τα δύο τελευταία στριψίματα ήταν γράμματα (το προτελευταίο) και κεφαλή (το τελευταίο). Σε αυτή την περίπτωση η επόμενη κατάσταση της αλυσίδας μπορεί να είναι είτε η \(ΚΚ\) (με πιθανότητα 1/2), αν φέρουμε κεφαλή στο επόμενο στρίψιμο, είτε η \(Κ\Gamma\) (με πιθανότητα 1/2), αν φέρουμε γράμματα. Αν κάποια στιγμή η αλυσίδα βρεθεί στην κατάσταση \(K\Gamma\), τότε η επόμενη κατάστασή της θα είναι είτε η \(\Gamma\Gamma\), αν φέρουμε γράμματα, είτε η \(Α\), αν φέρουμε κεφαλή, αφού σε αυτή την περίπτωση θα έχει σχηματιστεί η ακολουθία κεφαλή-γράμματα-κεφαλή και το παιχνίδι θα έχει τελειώσει με νικητή τον Α. Με παρόμοιους συλλογισμούς μπορούμε να γράψουμε τον πίνακα πιθανοτήτων μετάβασης αυτής της αλυσίδας.


Η αρχική κατάσταση αυτής της αλυσίδας εξαρτάται από τα αποτελέσματα των δύο πρώτων στριψιμάτων. Επειδή στρίβουμε ένα τίμιο κέρμα, καθεμία από τις καταστάσεις \(KK, K\Gamma,\Gamma K,\Gamma\Gamma\) έχει πιθανότητα 1/4 να είναι η αρχική κατάσταση της αλυσίδας. Μπορούμε λοιπόν από τον τύπο της ολικής πιθανότητας να γράψουμε

\begin{align} \PP{ T_A < T_B } &= \sum_{ x \in \X } \PP{ T_A < T_B \, | \, X_0=x} \PP{ X_0= x } \notag\\ &= \frac{1}{4} \Big(\Phi_{A,B}(KK) + \Phi_{A,B}(K \Gamma) + \Phi_{A,B}(\Gamma K) + \Phi_{A,B}(\Gamma \Gamma) \Big). \end{align}

Αρκεί λοιπόν να βρούμε τη συνάρτηση δυναμικού \(\Phi_{A,B}\), κάτι που μπορούμε να κάνουμε με τη βοήθεια του Θεωρήματος 3.1. Έστω \(h:\X\to\R\) μία λύση του ΠΣΤ (2). Τότε θα έχουμε \(h(A)=1,\ h(B)=0\), ενώ η εξίσωση \(Lh(x)=0\) για \(x=KK,K\Gamma,\Gamma K,\Gamma\Gamma\) δίνει αντίστοιχα: \begin{eqnarray*} &x=ΚΚ: &\qquad h(ΚΚ)=\half h(KK)+\half h(K\Gamma)\Leftrightarrow h(KK)= h(K\Gamma)\\ &x=K\Gamma: & \qquad h(K\Gamma)=\half h(A)+\half h(\Gamma\Gamma)\Leftrightarrow 2h(K\Gamma)=1+h(\Gamma\Gamma)\\ &x=\Gamma K: & \qquad h(\Gamma K)=\half h(KK)+\half h(K\Gamma)\\ &x=\Gamma\Gamma: & \qquad h(\Gamma\Gamma)=\half h(\Gamma K)+\half h(B)\Leftrightarrow h(\Gamma K)=2h(\Gamma\Gamma). \end{eqnarray*} To σύστημα των τεσσάρων αυτών εξισώσεων έχει μοναδική λύση την \[ h(KK)=h(K\Gamma)=h(\Gamma K)=\frac{2}{3} \quad \text{και}\quad h(\Gamma\Gamma)=\frac{1}{3}, \] οπότε από τη σχέση (3.4) λαμβάνουμε ότι \(\displaystyle \PP{ T_A < T_B }= \frac{7}{12} \). Μπορείτε να βρείτε μια διαισθητική εξήγηση, γιατί η πιθανότητα αυτή είναι μεγαλύτερη από 1/2, γιατί δηλαδή είναι πιο πιθανό να εμφανιστεί πρώτα η ακολουθία ΚΓΚ παρά η ακολουθία ΓΓΓ;

\(\square\)

Παράδειγμα 3.4 Παίζετε ένα παιχνίδι στο οποίο η πιθανότητα νίκης σας σε κάθε γύρο είναι \(p\in(0,1)\). Σε κάθε γύρο στοιχηματίζετε ένα κέρμα. Αν κερδίσετε σε έναν γύρο παίρνετε πίσω το κέρμα σας και ένα ακόμα, ενώ αν χάσετε χάνετε το κέρμα σας. Η αρχική σας περιουσία είναι \(x\) κέρματα, ενώ αυτή του αντιπάλου σας είναι \(y\) κέρματα. Το παιχνίδι συνεχίζεται μέχρι είτε εσείς είτε ο αντίπαλός σας να μείνετε χωρίς καθόλου κέρματα, οπότε νικητής αναδεικνύεται εκείνος που μάζεψε όλα τα \(N=x+y\) κέρματα. Ποια είναι η πιθανότητα να νικήσετε;

Η περιουσία σας στο συγκεκριμένο παιχνίδι μπορεί να περιγραφεί από μια μαρκοβιανή αλυσίδα στον χώρο καταστάσεων \(\X=\{0,1,2,\ldots,N\}\). Σε κάθε γύρο είτε θα κερδίσετε (με πιθανότητα \(p\)) και η περιουσία σας θα αυξηθεί κατά 1, είτε θα χάσετε (με πιθανότητα \(1-p\)) και η περιουσία σας θα μειωθεί κατά 1. Επομένως αν \(z\in\{1,2,\ldots,N-1\}\), οι πιθανότητες μετάβασης αυτής της αλυσίδας είναι \[ p(z,z+1)=p,\quad p(z,z-1)=1-p, \quad p(z,w)=0, \text{ για } |z-w|\neq 1. \] Αν ορίσουμε \(T_u=\inf\{k\ge 0: X_k=u\}\) τον χρόνο πρώτης άφιξης στην κατάσταση \(u\), τότε το ενδεχόμενο νίκης σας είναι το \(\{ T_N < T_0 \} \), επομένως ψάχνουμε την πιθανότητα \(\Px{ T_N < T_0 } = \Phi_{ N, 0}(x)\). Από την (3.2) έχουμε ότι για \(z\in\{1,2,\ldots,N-1\}\) \begin{align*} 0=L\Phi_{N,0}(z)&=\sum_{u\in\X} p(z,u)\big(\Phi_{N,0}(u)-\Phi_{N,0}(z)\big)\\ &=p\big(\Phi_{N,0}(z+1)-\Phi_{N,0}(z)\big)+(1-p)(\Phi_{N,0}(z-1)-\Phi_{N,0}(z)\big). \end{align*} Ξαναγράφουμε την παραπάνω σχέση ως

\begin{equation} \Phi_{N,0}(z+1)-\Phi_{N,0}(z)= \frac{1-p}{p}\ \big(\Phi_{N,0}(z)-\Phi_{N,0}(z-1)\big),\quad z\in\{1,2,\ldots,N-1\}. \end{equation}

Στην περίπτωση όπου \(p=\frac{1}{2}\) η (3.5) σημαίνει ότι η \(\{\Phi_{N,0}(n)\}_{n\in\X}\) είναι μια αριθμητική πρόοδος και άρα \[ \Phi_{N,0}(n)=\Phi_{N,0}(0)+ cn=cn, \quad \text{για } n\in\X. \] Η διαφορά της προόδου \(c\) μπορεί να βρεθεί θέτοντας \(n=N\) στην παραπάνω σχέση, οπότε \[ 1=cN\Rightarrow c=\frac{1}{N} \] και άρα

\begin{equation} \Phi_{N,0}(x)=\frac{x}{N}. \end{equation}

Επομένως, όταν το παιχνίδι είναι δίκαιο, η πιθανότητα νίκης σας σε αυτό είναι απλά το κλάσμα της αρχικής σας περιουσίας στη συνολική περιουσία.

Αν τώρα έχουμε \(p\neq \frac{1}{2}\), η (3.5) δίνει ότι η \(\Phi_{N,0}(n+1)-\Phi_{N,0}(n)\) είναι γεωμετρική πρόοδος, άρα \[ \Phi_{N,0}(n+1)-\Phi_{N,0}(n)=\Big(\frac{1-p}{p}\Big)^n\big(\Phi_{N,0}(1)-\Phi_{N,0}(0)\big)=\Big(\frac{1-p}{p}\Big)^n\Phi_{N,0}(1) ,\quad\text{για } n=0,1,\ldots,N-1. \] Προσθέτοντας κατά μέλη τις παραπάνω σχέσεις για \(n=0,1,\ldots,z-1\), το άθροισμα στο αριστερό μέλος τηλεσκοπεί, ενώ στο δεξί μέλος έχουμε το άθροισμα των \(z\) πρώτων όρων μιας γεωμετρικής προόδου με λόγο \((1-p)/p\), οπότε παίρνουμε

\begin{equation} \Phi_{N,0}(z)=\frac{\big(\frac{1-p}{p}\big)^z-1}{\frac{1-p}{p}-1}\Phi_{N,0}(1)=\frac{p}{1-2p}\Big(\big(\frac{1-p}{p}\big)^z-1\Big)\Phi_{N,0}(1),\quad z\in\X. \end{equation}

Η \(\Phi_{N,0}(1)\) μπορεί τώρα να υπολογιστεί από την τελική συνθήκη \(\Phi_{N,0}(N)=1\) επιλέγοντας \(z=N\) στην (3.7). Συγκεκριμένα, \[ 1=\Phi_{N,0}(N)=1=\frac{p}{1-2p}\Big(\big(\frac{1-p}{p}\big)^N-1\Big)\Phi_{N,0}(1). \] Αντικαθιστώντας την τιμή που προκύπτει για την \(\Phi_{N,0}(1)\) πίσω στην (3.7) βρίσκουμε ότι

\begin{equation} \Phi_{N,0}(x)=\frac{\big(\frac{1-p}{p}\big)^x-1}{\big(\frac{1-p}{p}\big)^N-1}\ . \end{equation}

Παρατηρήστε ότι αν \(p<1/2\), αν δηλαδή το παιχνίδι που παίζουμε είναι εις βάρος μας, τότε \(\frac{1-p}{p}>1\) και από τη στοιχειώδη ανισότητα \[ \frac{ \alpha^n -1 }{ \alpha^N -1 } \leq \alpha^{n-N} \quad \text{ για } \alpha \neq 1, n \le N \] έχουμε ότι \[ \Px{ T_N < T_0 } \leq \big(\frac{ 1-p }{ p } \big)^{ x-N }. \]

H πιθανότητα νίκης πέφτει λοιπόν εκθετικά με την αρχική περιουσία του αντιπάλου σας. Αξίζει τον κόπο να συγκρίνουμε τα αποτελέσματα των (3.6) και (3.8) για διάφορες τιμές του \(p\). Παίρνοντας \(N=100\) και \( x=50\) βρίσκουμε ότι αν \(p=4/10\), η πιθανότητα νίκης μας είναι μικρότερη από \(10^{-8}\), αν \(p=1/2\), η πιθανότητα νίκης μας είναι ακριβώς 1/2, ενώ αν \(p=6/10\), η πιθανότητα νίκης μας είναι μεγαλύτερη από \(1-10^{-8}\).

Παρατήρηση: Αν στο Θεώρημα 1 πάρουμε την ειδική περίπτωση \(B=\emptyset\), τότε η συνθήκη \(A\cap B=\emptyset\) ικανοποιείται αυτόματα. Επιπλέον,

\[ T_B(\omega)=\inf\{k\ge 0: X_k(\omega)\in\emptyset\}=\inf(\emptyset)=+\infty \] και άρα \[ \Phi_{ A, B }(x)= \Px{ T_A < T_B } = \Px{ T_A < +\infty }. \] Έχουμε λοιπόν το ακόλουθο πόρισμα που μας δίνει τη δυνατότητα να υπολογίζουμε την πιθανότητα η αλυσίδα μας να φτάσει σε κάποιο σύνολο στόχο \(A\) σε πεπερασμένο χρόνο.

Πόρισμα 3.1 Αν \(A\subset \X\) και ορίσουμε \(\Phi_A(x)=\Px{T_A<+\infty}\), τότε η \(\Phi_A\) ικανοποιεί το ΠΣΤ

\begin{equation} \begin{cases} \quad Lh(x)=0, & \text{ αν } x\notin A\\ \quad h(x)=1, &\text{ αν } x\in A.\end{cases} \end{equation}

Ας θυμηθούμε σ' αυτό το σημείο τη σχέση (2.10). Το να μπορούμε να υπολογίζουμε την πιθανότητα \(\P_y\big[T_x<\infty\big]\) μας επιτρέπει να αποφανθούμε αν μια κατάσταση είναι επαναληπτική ή παροδική. Παρότι σε πεπερασμένους χώρους καταστάσεων το ερώτημα αυτό είναι εύκολο να απαντηθεί, όπως είδαμε στο Παράδειγμα 2.9, τα πράγματα περιπλέκονται. Ας δούμε τώρα πώς μπορούμε να ξαναβρούμε το αποτέλεσμα εκείνου του παραδείγματος, χρησιμοποιώντας τις μεθόδους αυτού του κεφαλαίου.

Παράδειγμα 3.5 Θεωρήστε έναν απλό συμμετρικό τυχαίο περίπατο \(\xn\) στο \(\Z\), δηλαδή οι πιθανότητες μετάβασης ικανοποιούν τις σχέσεις \[ p(x,x+1)=p(x,x-1)=\half\qquad \forall x\in\Z. \] Αν \(X_0=k\in\N\), ποια είναι η πιθανότητα ο περίπατος να φτάσει κάποια στιγμή στο μηδέν;

Με τον συμβολισμό που αναπτύξαμε ψάχνουμε να βρούμε την \(\Phi_0(k)=\PP{T_0<+\infty\,|\,X_0=k}\). Με βάση το Πόρισμα 3.1, η συνάρτηση \(\Phi_0\) θα ικανοποιεί για \(x\neq 0\) την \begin{align*} L\Phi_0(x)=0&\Leftrightarrow \half\big(\Phi_0(x+1)-\Phi_0(x)\big)+\half\big(\Phi_0(x-1)-\Phi_0(x)\big)=0\\ &\Leftrightarrow \Phi_0(x+1)-\Phi_0(x)=\Phi_0(x)-\Phi_0(x-1). \end{align*} Η παραπάνω σχέση σημαίνει ότι η διαφορά οποιωνδήποτε διαδοχικών όρων της ακολουθίας \(\{\alpha_n\}_{n\in\N_0}\) με \(\alpha_n=\Phi_0(n)\) είναι σταθερή και άρα η ακολουθία αυτή είναι αριθμητική πρόοδος. Μαζί με τη συνθήκη στο μηδέν \(\Phi_0(0)=1\) αυτό σημαίνει ότι υπάρχει μια σταθερά \(c\in\R\) τέτοια ώστε \[ \Phi_0(n)=\PP{T_0<+\infty\,|\, X_0=n}=1+cn,\qquad \text{ για κάθε }n\in\N_0. \]

Θα πρέπει όμως \(0\le\Phi_0(n)\le 1\) για κάθε \(n\in\N\). Επομένως, θα πρέπει \(c=0\), που δίνει τελικά

\[ \Phi_0(k)=1. \]

Απ' όποιο \(k\in\N\) κι αν ξεκινήσει ο συμμετρικός τυχαίος περίπατος, θα καταφέρει να φτάσει στο 0 με πιθανότητα 1. Φυσικά, λόγω συμμετρίας, το ίδιο θα ισχύει αν ξεκινήσει από κάποιο αρνητικό ακέραιο. Η (2.10) δίνει τώρα ότι \(f(0)=1\) και το Θεώρημα 2.2 ότι το μηδέν είναι επαναληπτική κατάσταση. Ξαναβρίσκουμε λοιπόν ότι ο απλός συμμετρικός τυχαίος περίπατος είναι επαναληπτικός.

Ένας άλλος τρόπος να δούμε το προηγούμενο αποτέλεσμα είναι ο εξής. Αν παίζουμε ένα τίμιο παιχνίδι σε ένα καζίνο (το οποίο υποθέτουμε ότι έχει άπειρο κεφάλαιο) ποντάροντας μία μάρκα κάθε φορά, όποια κι αν είναι η αρχική μας περιουσία, θα χρεωκοπήσουμε κάποια στιγμή με πιθανότητα 1.

\(\Box\)

Παράδειγμα 3.6 Αν \(X_0=k\in\N\) όπως στο παραπάνω παράδειγμα, αλλά ο περίπατος έχει επιπλέον μια τάση προς τα αριστερά, δηλαδή \[ p(x,x+1)=p<\half,\quad p(x,x-1)=1-p>\half,\qquad \forall x\in\Z, \]

περιμένουμε διαισθητικά ότι και πάλι θα φτάσει στο μηδέν με πιθανότητα 1. Πράγματι, κατ' αναλογία με το Παράδειγμα 3.4, η συνθήκη \(L\Phi_0(x)=0\) για \(x>0\) γράφεται ως

\[ \Phi_0(x+1)-\Phi_0(x)=\frac{1-p}{p}\big(\Phi_0(x)-\Phi_0(x-1)\big) \]

και δίνει ότι για κάθε \(x\ge 0\) ισχύει \begin{equation} \Phi_0(x)=\Phi_0(0)+c\left[\Big(\frac{1-p}{p}\Big)^x-1\right]=1+c\left[\Big(\frac{1-p}{p}\Big)^x-1\right], \end{equation} για κάποια σταθερά \(c\in\R\). Η σταθερά \(c\) δεν μπορεί να είναι αυστηρά θετική, αφού στην περίπτωση αυτή θα είχαμε \(\Phi_0(x)>1\) για \(x\in\N\). Δεν μπορούμε όμως να έχουμε ούτε \(c<0\) αφού

\[ p\in\big(0,\frac{1}{2}\big)\Rightarrow\frac{1-p}{p}>1\Rightarrow \Big(\frac{1-p}{p}\Big)^x\to +\infty \quad\text{καθώς }x\to\infty \]

και άρα η \(\Phi_0(x)\) θα έπαιρνε αρνητικές τιμές για κατάλληλα μεγάλα \(x\). Επομένως \(c=0\) και άρα \(\Phi_0(k)=1\) για κάθε \(k\in\N\). Γνωρίζοντας από το προηγούμενο κεφάλαιο ότι ο μη συμμετρικός τυχαίος περίπατος είναι παροδικός, περιμένουμε φυσικά ότι αυτή η πιθανότητα είναι μικρότερη του 1, αν η αλυσίδα μας ξεκινήσει από κάποιο αρνητικό ακέραιο \(k\). Θα εξετάσουμε αυτή την περίπτωση στο Παράδειγμα 3.7 .

Στα παραδείγματα που είδαμε ως τώρα τα ΠΣΤ (3.2) και (3.9) είχαν μοναδική λύση και προσδιόριζαν επομένως τη συνάρτηση δυναμικού. Στην περίπτωση που τα παραπάνω ΠΣΤ έχουν περισσότερες από μία λύσεις, θα θέλαμε να έχουμε ένα κριτήριο που να μας επιτρέπει να επιλέγουμε εκείνη που μας ενδιαφέρει, δηλαδή τη συνάρτηση δυναμικού. Είναι πολλές φορές εύκολο να απορρίψουμε κάποιες λύσεις γιατί π.χ. παίρνουν αρνητικές τιμές, ενώ η συνάρτηση δυναμικού είναι εξ ορισμού μη αρνητική. Κι αυτό όμως δεν είναι πάντα αρκετό, γιατί τα ΠΣΤ ενδέχεται να έχουν περισσότερες από μία μη αρνητικές λύσεις. Το ακόλουθο θεώρημα είναι χρήσιμο σε τέτοιες περιπτώσεις.

Θεώρημα 3.2 Ας είναι \(A,B\subset\X\), με \(A\cap B=\emptyset\). Αν η \(w:\X\to[0,\infty)\) είναι μια μη αρνητική λύση του ΠΣΤ (3.2), τότε \[ \Phi_{ A, B } (x) = \Px{ T_A < T_B } \le w(x), \quad \text{ για κάθε } x \in \X. \]

Απόδειξη: Ο ισχυρισμός ισχύει κατά τετριμμένο τρόπο, αν \(x\in A\), οπότε \(\Phi_{A,B}(x)=w(x)=1\), ή \(x\in B\), οπότε \(\Phi_{A,B}(x)=w(x)=0\). Αν πάλι \(x\notin A\cup B\), τότε από την (3.2) έχουμε

\begin{equation} 0=Lw(x)\Leftrightarrow w(x)=\sum_{y\in\X}p(x,y)w(y). \end{equation}

Χωρίζοντας τους προσθετέους στο παραπάνω άθροισμα ανάλογα με το αν η \(y\) είναι στα \(A,B\) ή στο \((A\cup B)^c\) και χρησιμοποιώντας τις συνοριακές συνθήκες για την \(w\) στα \(A,B\) παίρνουμε \begin{align*} w(x) &= \sum_{ y \in A} p(x,y) w(y) + \sum_{ y \in B} p(x,y) w(y) + \sum_{ y \notin A \cup B} p(x,y) w(y) \\ &=\sum_{y\in A} p(x,y)+0+\sum_{y\notin A\cup B}p(x,y)w(y)\\ &=\Px{ 1 = T_A < T_B} + \sum_{ y \notin A\cup B} p(x,y) w(y). \end{align*} Εφόσον το τελευταίο άθροισμα εκτείνεται σε όρους \(y\notin A\cup B\) μπορούμε να γράψουμε την \(w(y)\) με τη βοήθεια της (3.11) ώστε να πάρουμε \begin{align*} w(x) &= \Px{ 1 = T_A < T_B }+\sum_{ y \notin A \cup B \atop z \in \X} p(x,y) p(y,z) w(z)\\ &=\Px{ 1= T_A < T_B }+\sum_{y \notin A\cup B \atop z\in A} p(x,y) p(y,z)+ \sum_{y, z \notin A \cup B} p(x,y) p(y,z) w(z)\\ &=\Px{ 1 = T_A < T_B} + \Px{ 2 = T_A < T_B}+\sum_{y, z \notin A \cup B} p(x,y) p(y,z) w(z)\\ &=\Px{ T_A \le 2, \ T_A < T_B }+\sum_{ y, z \notin A \cup B} p(x,y) p(y,z) w(z). \end{align*} Επαναλαμβάνοντας το παραπάνω επιχείρημα \(n\) φορές, λαμβάνουμε \begin{align*} w(x)&=\Px{ T_A \le n,\ T_A < T_B }+ \sum_{ x_1, \ldots, x_n \notin A\cup B} p(x,x_1) p(x_1,x_2) \cdots p(x_{n-1},x_n) w(x_n)\\ &\ge \Px{ T_A \le n , \ T_A < T_B }, \end{align*} αφού η \(w\) παίρνει μη αρνητικές τιμές. Η παραπάνω ανισότητα ισχύει για κάθε \(n \in \N \), ενώ τα ενδεχόμενα \(R_n = \{ T_A \le n \} \cap \{ T_A < T_B \} \) σχηματίζουν μια αύξουσα ακολουθία ενδεχομένων. Παίρνοντας το όριο καθώς \(n\to\infty\) έχουμε \begin{align*} w(x)&\ge \lim_{n\to\infty}\Px{ T_A \le n,\ T_A < T_B}\\ &=\Px{ \bigcup_n\{ T_A \le n\}\cap \{ T_A < T_B \}}\\ &=\Px{ T_A < T_B } = \Phi_{A,B}(x). \end{align*} Επομένως, σε κάθε περίπτωση το δυναμικό \(\Phi_{A,B}(x)\) είναι μικρότερο από οποιαδήποτε μη αρνητική λύση της (3.2).

\(\square\)

Στην ειδική περίπτωση όπου \(B=\emptyset\) παίρνουμε το ακόλουθο πόρισμα.
Πόρισμα 3.2 Αν \(A\subset\X\) και \(w:\X\to[0,\infty)\) είναι μια μη αρνητική λύση του ΠΣΤ (3.9), τότε \[ \Phi_{A}(x)=\Px{T_A<+\infty}\le w(x),\quad\text{για κάθε } x\in\X. \]
Παράδειγμα 3.7 Θεωρήστε έναν τυχαίο περίπατο στους μη αρνητικούς ακεραίους με \(p(x,x+1)=p>\half,\ p(x,x-1)=1-p\) για κάθε \(x\in\N\). Αν τον ξεκινήσουμε από το \(n\in\N\), ποια είναι η πιθανότητα να φτάσει κάποτε στο μηδέν;

Έχουμε ήδη δει στο Παράδειγμα 3.5 ότι, αν \(p\leq\half\) τότε \(\Phi_0(x)=\Px{T_0<+\infty}=1\) για κάθε \(x\in\N\). Εδώ θα δούμε πώς συμπεριφέρεται αυτή η πιθανότητα, αν \(p> 1/2\). Όπως και στο παράδειγμα (3.4) η συνθήκη \(Lw(x)=0\) για \(x>0\) γράφεται ως \[ w(x+1)-w(x)=\frac{1-p}{p}\big(w(x)-w(x-1)\big) \]

και δίνει ότι για κάθε \(x\ge 0\) έχουμε

\begin{equation} w(x)=w(0)+c\left[\Big(\frac{1-p}{p}\Big)^x-1\right]=1+c\left[\Big(\frac{1-p}{p}\Big)^x-1\right], \end{equation}

για κάποια σταθερά \(c\in\R\). Σε αντίθεση με το Παράδειγμα 3.4 όπου προσδιορίσαμε τη σταθερά \(c\) από τη συνοριακή συνθήκη στο δεξί άκρο του διαστήματος που κινείτο η αλυσίδα, εδώ το ΠΣΤ (3.9) έχει άπειρες λύσεις, αφού ικανοποιείται από την \(w\) της εξίσωσης (3.12) για κάθε \(c\in\R\). Γνωρίζουμε όμως ότι η συνάρτηση δυναμικού είναι μία από αυτές τις λύσεις και με τη βοήθεια του Πορίσματος 3.2, να προσδιορίσουμε σε ποια τιμή του \(c\) αντιστοιχεί η λύση \(\Phi_0\) που μας ενδιαφέρει. Παρατηρήστε ότι

\[ p\in\big(\frac{1}{2},1\big)\Rightarrow\frac{1-p}{p}<1\Rightarrow \Big(\frac{1-p}{p}\Big)^x\to 0, \quad\text{καθώς }x\to\infty. \]

Συμπεραίνουμε ότι θα πρέπει \(c\le 1\), ώστε η λύση \(w\) στην (3.12) να είναι θετική. Επιπλέον, εφόσον \(\Big(\frac{1-p}{p}\Big)^x<1\) για κάθε \(x>0\), η μικρότερη μη αρνητική λύση της (3.12) αντιστοιχεί σε \(c=1\) και άρα

\[ \Phi_0(x)= 1+1\left[\Big(\frac{1-p}{p}\Big)^x-1\right]=\Big(\frac{1-p}{p}\Big)^x, \quad \text{για κάθε }x\in\N. \]

Αξίζει να σημειώσουμε ότι για \(c\in[0,1]\) έχουμε \(w(x)\in[0,1]\), για κάθε \(x\in\N\), επομένως δεν θα ήταν δυνατόν να επιλέξουμε την παράμετρο \(c\) που δίνει τη συνάρτηση δυναμικού με επιχειρήματα ανάλογα με αυτά που χρησιμοποιήσαμε για \(p\le\half\).

\(\square\)

3.3 Στατιστικά του χρόνου άφιξης

Ας υποθέσουμε ότι το σύνολο \(A\subset\X\) είναι τέτοιο ώστε \(\Px{T_A<+\infty}=1\). Μπορούμε να πούμε κάτι παραπάνω για την κατανομή του χρόνου άφιξης στο \(A\); Ποια είναι η αναμενόμενη τιμή του; Η κατανομή του; Σε αυτή την παράγραφο θα δούμε ότι μπορούμε να απαντήσουμε σε τέτοια ερωτήματα με μεθόδους ανάλογες με αυτές που αναπτύξαμε στην προηγούμενη παράγραφο.

Θεώρημα 3.3 Ας είναι \(A\subset \X\) και \(T_A=\inf\{k\ge 0:\ X_k\in A\}\) ο χρόνος πρώτης άφιξης στο \(A\). Ορίζουμε \(G_A:\X\to[0,+\infty]\) με τύπο \(G_A(x)=\EE{T_A\,|\,X_0=x}=\Ex{T_A}\). Αν το ΠΣΤ

\begin{equation} \begin{cases} \quad Lg(x)=-1, & \text{ αν } x\notin A\\ \quad g(x)=0, &\text{ αν } x\in A\end{cases} \end{equation}

έχει κάποια μη αρνητική και πεπερασμένη λύση \(g:\X\to[0,\infty)\), τότε η \(G_A\) επίσης λύνει το (3.13) και μάλιστα \[ G_A(x)\le g(x), \quad\text{για κάθε }x\in \X. \]

Απόδειξη: Ας θεωρήσουμε μια \(g:\X\to[0,\infty)\) που λύνει το (3.13).

Αν \(x\in A\), τότε \(T_A(\omega)=0\) για κάθε \(\omega\) στο ενδεχόμενο \(\{X_0=x\}\). Επομένως, \(G_A(x)=0=g(x)\).

Έστω τώρα \(x\notin A\). Tότε μπορούμε να γράψουμε την \(Lg(x)=-1\) ως \begin{equation} g(x)=\sum_{y\in\X} p(x,y)g(y)+1=\sum_{y\notin A}p(x,y)g(y)+1, \end{equation} όπου η τελευταία ισότητα προκύπτει από τη συνοριακή συνθήκη για την \(g\) στο \(A\). Επαναλαμβάνοντας το προηγούμενο επιχείρημα έχουμε \begin{align*} g(x)&=1+\sum_{y\notin A}p(x,y)\Big(\sum_{z\notin A}p(y,z)g(z)+1\Big)\\ &=1+\sum_{y\notin A}p(x,y)+\sum_{y,z\notin A}p(x,y)p(y,z)g(z)\\ &=1+\sum_{y\notin A}p(x,y)+\sum_{y,z\notin A}p(x,y)p(y,z)\Big(\sum_{u\notin A}p(z,u)g(u)+1\Big)\\ &=1+\sum_{y\notin A}p(x,y)+\sum_{y,z\notin A}p(x,y)p(y,z)+\sum_{y,z,u\notin A} p(x,y)p(y,z)p(z,u)g(u)\\ &=\Px{T_A>0}+\Px{T_A>1}+\Px{T_A>2}+\sum_{y,z,u\notin A} p(x,y)p(y,z)p(z,u)g(u). \end{align*} Έπειτα από \(n\in\N\) επαναλήψεις καταλήγουμε στην \begin{align*} g(x)&=\sum_{k=0}^{n-1}\Px{T_A>k}+\sum_{x_1,\ldots,x_n\notin A}p(x,x_1)p(x_1,x_2)\cdots p(x_{n-1},x_n)g(x_n)\\ &\ge \sum_{k=0}^{n-1}\Px{T_A>k}, \end{align*} αφού η \(g\) παίρνει μη αρνητικές τιμές. Παίρνοντας το όριο \(n\to\infty\) έχουμε \[ g(x)\ge\sum_{k=0}^\infty\Px{T_A>k}=\Ex{T_A}=G_A(x). \] Αποδείξαμε ως τώρα ότι αν το (3.13) έχει μία μη αρνητική και πεπερασμένη λύση \(g\), τότε \(G_A(x)\le g(x)<+\infty\) για κάθε \(x\in\X\). Μένει να αποδείξουμε ότι η \(G_A\) λύνει και αυτή το ΠΣΤ (3.13). Με ανάλυση πρώτου βήματος έχουμε διαδοχικά

\begin{align} G_A(x)&=\Ex{T_A}=\sum_{y\in\X}\PP{X_1=y\,|\,X_0=x}\EE{T_A\,|\,X_0=x,\, X_1=y}\notag\\ &=\sum_{y\in\X}p(x,y)\ \EE{T_A^+\,|\,X_0=x,\, X_1=y}, \end{align}

όπου \(T_A^+=\inf\{k>0: X_k\in A\}.\) Από τη μαρκοβιανή ιδιότητα, με δεδομένο ότι \(\{X_1=y\}\), η αλυσίδα \(\{Y_n\}_{n\in\N}\) με \(Y_{n}=X_{n+1}\) για \(n\in\N_0\) είναι μια αλυσίδα με τις ίδιες πιθανότητες μετάβασης όπως η \(\{X_n\}_{n\in\N_0}\) και \(Y_0=y\), ενώ \[ T_A^+=\inf\{k>0: X_k\in A\}=\inf\{k\ge 0: Y_k\in A\}+1. \] Επομένως, η (3.15) γίνεται

\begin{align} G_A(x)&=\sum_{y\in\X} p(x,y) \EE{T_A^+|X_1=y}=\sum_{y\in\X}p(x,y)) \EE{T_A+1|Y_0=y}\notag\\ &=\sum_{y\in\X}p(x,y) \big(G_A(y)+1\big)=1+\sum_{y\in\X}p(x,y) G_A(y). \end{align}

Aναδιατάσσοντας τους όρους της (3.16), μπορούμε να την ξαναγράψουμε ως \(LG_A(x)=-1\).

\(\square\)

Ας δούμε μερικά παραδείγματα εφαρμογής του θεωρήματος 3.3 .
Παράδειγμα 3.8 Σε συνέχεια του Παραδείγματος 3.2 , αν κάποια στιγμή ένα γκέιμ τένις είναι ισόπαλο, πόσοι κατά μέση τιμή πόντοι θα παιχτούν ακόμα μέχρι να τελειώσει;

Αν ορίσουμε \(E=\{A,B\}\) το σύνολο των καταστάσεων στις οποίες τελειώνει το γκέιμ, τότε, με τον συμβολισμό του Παραδείγματος 3.2, θέλουμε να υπολογίσουμε την \(G_E(\iota)=\EE{T_E\,|\,X_0=\iota}\). Θεωρούμε το ΠΣΤ \[ \begin{cases} \quad Lg(x)=-1, & \text{ αν } x\notin Ε\\ \quad g(x)=0, &\text{ αν } x\in Ε.\end{cases} \] Γράφοντας τις εξισώσεις \(Lg(x)=-1\) διαδοχικά για \(x\in\{\alpha,\iota,\beta\}\) έχουμε: \begin{eqnarray*} &\text{για }x=\alpha:& g(\alpha)=pg(A)+(1-p)g(\iota)+1=(1-p)g(\iota)+1\\ &\text{για }x=\iota:& g(\iota)=pg(\alpha)+(1-p)g(\beta)+1\\ &\text{για }x=\beta:& g(\beta)=pg(\iota)+(1-p)g(B)+1=pg(\iota)+1 \end{eqnarray*} To σύστημα αυτό έχει μοναδική λύση \[ g(\iota)=\frac{2}{p^2+(1-p)^2},\quad g(\alpha)=(1-p)g(\iota)+1,\quad g(\beta)=pg(\iota)+1 \] που είναι μη αρνητική. Επομένως η \(G_E\) θα ικανοποιεί και αυτή το παραπάνω ΠΣΤ και λόγω μοναδικότητας θα ταυτίζεται με αυτήν τη λύση. Δηλαδή, \[ G_E(\iota)=\EE{T_E\,|\,X_0=\iota}=\frac{2}{p^2+(1-p)^2}. \]
Παράδειγμα 3.9 Ποιος είναι ο αναμενόμενος αριθμός ζαριών που πρέπει να ρίξουμε με ένα τίμιο ζάρι μέχρι να εμφανιστούν τέσσερα διαδοχικά εξάρια; Μέχρι να εμφανιστεί για πρώτη φορά η ακολουθία 6,5,4,3;

Πριν προχωρήσουμε σε υπολογισμούς, αφιερώστε ένα λεπτό για να αναλογιστείτε σε ποια περιπτώση είναι μεγαλύτερος ο αναμενόμενος αριθμός ζαριών μέχρι την εμφάνιση της ακολουθίας στόχου. Αν δεν σας είναι φανερό, ξανασκεφτείτε την ερώτηση αφού έχετε μελετήσει τη λύση.

Μπορούμε να περιγράψουμε το πρώτο πείραμα με μια μαρκοβιανή αλυσίδα στο σύνολο \(\X=\N_0\). Διαισθητικά, η κατάσταση της αλυσίδας θα δείχνει το τρέχον σερί μας από εξάρια. Πιο συγκεκριμένα, αν \(\{\zeta_n\}_{n\in\N}\) είναι τα αποτελέσματα των ζαριών μας μπορούμε να ορίσουμε \(X_0=0\), ενώ για \(n\in\N\) να θέσουμε \[ X_n=k\Leftrightarrow \zeta_{n-k}\neq 6\quad\text{και}\quad \zeta_j=6, \text{ για κάθε } j\in\{n-k+1,\ldots,n\}. \] Διαπιστώνει κανείς ότι η \(\{X_n\}_n\) είναι μια μαρκοβιανή αλυσίδα με πιθανότητες μετάβασης \[ p(k,k+1)=\frac{1}{6}\quad\text{και}\quad p(k,0)=\frac{5}{6},\quad\text{για κάθε }k\in\N_0. \] Πράγματι, αν έχουμε ήδη σχηματίσει ένα σερί από \(k\) εξάρια και αν στην επόμενη ζαριά μας φέρουμε 6, τότε το σερί μας θα διευρυνθεί σε \(k+1\), ενώ αν φέρουμε οτιδήποτε άλλο, το τρέχον σερί μας θα πέσει στο μηδέν. Με τον συμβολισμό που αναπτύξαμε, αν ορίσουμε \[ Τ_4=\inf\{n\ge 0:\ X_n=4\} \] τότε η απάντηση στο ερώτημά μας είναι η \(\EE{T_4\,|\,X_0=0}\). Θα υπολογίσουμε αυτή την αναμενόμενη τιμή λύνοντας το ΠΣΤ \[ \begin{cases} \quad Lg(x)=-1, & \text{ αν } x\in \{0,1,2,3\} \\ \quad g(x)=0, &\text{ αν } x=4.\end{cases} \] Γράφουμε τις εξισώσεις που προκύπτουν διαδοχικά για \(x=0,1,2,3\). \begin{eqnarray*} &x=0:& g(0)=\frac{1}{6}g(1)+\frac{5}{6}g(0)+1\\ &x=1:& g(1)=\frac{1}{6}g(2)+\frac{5}{6}g(0)+1\\ &x=2:& g(2)=\frac{1}{6}g(3)+\frac{5}{6}g(0)+1\\ &x=3:& g(3)=\frac{1}{6}g(4)+\frac{5}{6}g(0)+1=\frac{5}{6}g(0)+1. \end{eqnarray*} Το παραπάνω σύστημα έχει μοναδική λύση \(g(0)=1.554,\ g(1)=1.548,\ g(2)=1.512,\ g(3)=1.296\), επομένως από το Θεώρημα 3.3 θα έχουμε \[ \EE { T_4 \, | \, X_0 = 0 } = 1.554. \] Σε ό,τι αφορά στο δεύτερο πείραμα, μπορούμε πάλι να το περιγράψουμε με τη βοήθεια μιας μαρκοβιανής αλυσίδας στον χώρο \(\X=\{0,1,2,3,4\}\) που θα μας δείχνει πόσα από τα ψηφία της ακολουθίας-στόχου έχουμε σχηματίσει. Την πρώτη φορά που θα εμφανιστεί η ακολουθία ζαριών 6,5,4,3 η αλυσίδα αυτή θα φτάσει για πρώτη φορά στην κατάσταση 4 και θα παραμείνει στην κατάσταση αυτή εφεξής. Δεν είναι δύσκολο να βρει κανείς τον πίνακα πιθανοτήτων μετάβασης της αλυσίδας

Για παράδειγμα, αν κάποια στιγμή η αλυσίδα είναι στην κατάσταση 2, αυτό σημαίνει ότι η προτελευταία ζαριά ήταν 6, ενώ η τελευταία 5. Αν στην επόμενη ζαριά φέρουμε 4 (πιθανότητα 1/6) η επόμενη κατάσταση της αλυσίδας θα είναι η 3, αφού θα έχουμε σχηματίσει 3 από τα 4 ψηφία της ακολουθίας στόχου. Αν φέρουμε 6 (πιθανότητα 1/6) τότε το σερί μας θα έχει σπάσει, αλλά θα έχουμε ήδη έτοιμο το πρώτο ψηφίο (6) της ακολουθίας στόχου, οπότε επόμενη κατάσταση της αλυσίδας θα είναι η 1. Αν τέλος φέρουμε 1, 2, 3, ή 5 (πιθανότητα 2/3), η επόμενη κατάσταση της αλυσίδας θα είναι το 0. Με ανάλογα επιχειρήματα μπορεί κανείς να γεμίσει και τις υπόλοιπες γραμμές του πίνακα πιθανοτήτων μετάβασης. Όπως και πριν, η \(\EE{T_4\,|\,X_0=0}\) μπορεί να βρεθεί λύνοντας το ΠΣΤ \[ \begin{cases} \quad Lg(x)=-1, & \text{ αν } x\in \{0,1,2,3\} \\ \quad g(x)=0, &\text{ αν } x=4.\end{cases} \] Γράφουμε τις εξισώσεις που προκύπτουν διαδοχικά για \(x=0,1,2,3\). \begin{eqnarray*} &x=0:& g(0)=\frac{1}{6}g(1)+\frac{5}{6}g(0)+1\\ &x=1:& g(1)=\frac{1}{6}g(2)+\frac{1}{6}g(1)+\frac{2}{3}g(0)+1\\ &x=2:& g(2)=\frac{1}{6}g(3)+\frac{1}{6}g(1)+\frac{2}{3}g(0)+1\\ &x=3:& g(3)=\frac{1}{6}g(4)+\frac{1}{6}g(1)+\frac{2}{3}g(0)+1=\frac{1}{6}g(1)+\frac{2}{3}g(0)+1. \end{eqnarray*} Το παραπάνω σύστημα έχει μοναδική λύση \(g(0)=1.296,\ g(1)=1.290,\ g(2)=1.260,\ g(3)=1.080\), επομένως από το Θεώρημα 3.3 θα έχουμε \(\EE{ T_4 \, | \, X_0 = 0 } = 1.296.\)

\(\square\)

Με παρόμοιο τρόπο, κάνοντας δηλαδή ανάλυση πρώτου βήματος, δεν είναι δύσκολο να βρούμε και τη γεννήτρια συνάρτηση του χρόνου πρώτης άφιξης \(\Psi_A:\R_+\to [0,1]\) με \[ \Psi_A(s; x)=\Ex{e^{-sT_A}}, \] που χαρακτηρίζει πλήρως την κατανομή του χρόνου \(T_A\).
Θεώρημα 3.4 Ας είναι \(A\subset\X\) και \(T_A=\inf\{k\ge 0: X_k\in A\}\) ο χρόνος πρώτης άφιξης στο \(A\). Για κάθε \(s>0\) η συνάρτηση \(\psi(x)=\Ex{e^{-sT_A}}\) ικανοποιεί το ΠΣΤ

\begin{equation} \begin{cases} \quad Lu(x)=(e^s-1)u(x), & \text{ αν } x\notin A \\ \quad u(x)=1, &\text{ αν } x\in A.\end{cases} \end{equation}

Επιπλέον, αν \(u:\X\to[0,\infty)\) μια μη αρνητική λύση του (3.17), τότε \(u(x)\ge \Psi_A(s;x),\) για κάθε \(x\in\X\).
Απόδειξη: Αν \(x\in A\) τότε \(T_A(\omega)=0\) στο ενδεχόμενο \(\{\omega: X_0(\omega)=x\}\) και άρα \(\psi(x)=\Ex{e^{-s0}}=1.\)

Αν \(x\notin A\), τότε με ανάλυση πρώτου βήματος έχουμε \begin{align*} \psi(x)&=\Ex{e^{-sT_A}}=\sum_{y\in\X}\PP{X_1=y\,|\,X_0=x}\ \EE{e^{-sT_A}\,|\,X_0=x,X_1=y}\\ &=\sum_{y\in\X} p(x,y)\ \EE{e^{-sT_A^+}\,|\,X_0=x,X_1=y}\\ &=\sum_{y\in\X} p(x,y)\ \EE{e^{-sT_A^+}\,|\,X_1=y}=\sum_{y\in\X}p(x,y)\ \EE{e^{-sT_A^+}\,|\,Y_0=y}\\ &=\sum_{y\in\X} p(x,y)e^{-s}\psi(y), \end{align*} αφού από τη μαρκοβιανή ιδιότητα η \(\{Y_n\}_{n\in\N_0}\) με \(Y_n=X_{n+1}\) έχει τις ίδιες πιθανότητες μετάβασης όπως η \(\{X_n\}_n\) και \(T_A^+=\inf\{k> 0: X_k\in A\}=\inf\{k\ge 0: Y_k\in A\}+1.\) Επομένως, \[ (e^s-1)\psi(x)=\sum_{y\in\X}p(x,y)\psi(y)-\psi(x)=L\psi(x). \] H απόδειξη του δεύτερου ισχυρισμού είναι αντίστοιχη με αυτήν του Θεωρήματος 3.1 και αφήνεται για εξάσκηση.

3.4 Ασκήσεις

Άσκηση 3.1 Θεωρήστε τη μαρκοβιανή αλυσίδα της Άσκησης 2.6. Υπολογίστε την πιθανότητα η αλυσίδα να καταλήξει σε καθεμία από τις κλειστές κλάσεις της, όταν ξεκινάει από τις καταστάσεις 3, 4, 5. Ποια είναι αυτή η πιθανότητα, αν αρχικά η αλυσίδα επιλέγει τυχαία μία από τις τρεις αυτές καταστάσεις και ξεκινά από εκεί; Στην τελευταία περίπτωση, ποια είναι η πιθανότητα να φτάσει η αλυσίδα στην κατάσταση 1 πριν φτάσει στην κατάσταση 8; Υπόδειξη για το τελευταίο ερώτημα: δεν χρειάζεται να λύσετε ένα ΠΣΤ από την αρχή. Χρησιμοποιήστε τις ιδιότητες των επαναληπτικών κλάσεων.
Άσκηση 3.2 Έχετε € 1 και θέλετε να συμπληρώσετε γρήγορα ένα ποσό € 10. Για το σκοπό αυτό παίζετε ένα παιχνίδι με τους εξής κανόνες. Σε κάθε γύρο η πιθανότητα νίκης σας είναι \(0 < p < 1 \), ανεξάρτητα από τα αποτελέσματα των προηγούμενων γύρων. Πριν από κάθε γύρο, επιλέγετε το ποσό που στοιχηματίζετε. Αν κερδίσετε σας επιστρέφεται το διπλάσιο του στοιχήματός σας, αν όχι, χάνετε το ποσό που ποντάρατε σ' αυτόν τον γύρο. Έχετε αποφασίσει να ποντάρετε όσα χρήματα έχετε, αν αυτά είναι λιγότερα από € 5, διαφορετικά όσα χρειάζεστε για να φτάσετε τα € 10.
α) Ποια είναι η πιθανότητα να φτάσετε ποτέ τα € 10 με αυτήν τη στρατηγική;
β) Ποια είναι η πιθανότητα να φτάσετε ποτέ τα € 10, αν σε κάθε γύρο ποντάρετε € 1;
γ) Με τη βοήθεια του υπολογιστή παραστήστε σε ένα κοινό γράφημα τα παραπάνω αποτελέσματα ως συνάρτηση του \(p\in(0,1)\). Τι παρατηρείτε;
δ) Ποιος είναι ο αναμενόμενος χρόνος μέχρι να χάσετε τα χρήματά σας ή να φτάσετε τα € 10 σε καθεμία από τις παραπάνω περιπτώσεις;
Άσκηση 3.3 Δίνεται ο πίνακας πιθανοτήτων μετάβασης \(\mathbf{P}\) μιας μαρκοβιανής αλυσίδας στον \(\X=\{s_1,\ldots,s_5\},\ p\in(0,1)\) .

α) Αν \(T_i=\inf\{k\ge 0:\ X_k=s_i\}\) είναι ο χρόνος πρώτης άφιξης στην κατάσταση \(s_i\), υπολογίστε την πιθανότητα \[ \P \big [ T_1 < T_5 \ | \ X_0 = s_3 \big ].\] β) Αν έχετε ένα κέρμα που φέρνει κορώνα με πιθανότητα \(p\neq 1/2\), μπορείτε με τη βοήθεια της παραπάνω αλυσίδας να φτιάξετε έναν αλγόριθμο που μιμείται το στρίψιμο ενός τίμιου κέρματος; Συγκεκριμένα θέλουμε ο αλγόριθμος να τερματίζει με πιθανότητα 1 σε πεπερασμένο χρόνο και με πιθανότητα 1/2 σε καθεμία από τις δύο δυνατές τελικές καταστάσεις.
Άσκηση 3.4 Ένα διωνυμικό δέντρο με ρίζα είναι ένας άπειρος γράφος, χωρίς κλειστά μονοπάτια, με μία διακεκριμένη κορυφή \(R\) (τη ρίζα) από την οποία διέρχεται μία ακμή, ενώ από κάθε άλλη κορυφή του διέρχονται τρεις ακμές όπως στο διπλανό σχήμα. Ένας τυχαίος περίπατος σ' αυτόν το γράφο είναι μια μαρκοβιανή αλυσίδα στο σύνολο \(V\) των κορυφών του γράφου, που επιλέγει σε κάθε βήμα τυχαία μία από τις κορυφές με τις οποίες συνδέεται με ακμή και μετακινείται εκεί. Αν ξεκινήσουμε από την κορυφή που συνδέεται με τη ρίζα, ποια είναι η πιθανότητα να φτάσουμε κάποια στιγμή στη ρίζα; Είναι αυτός ο περίπατος παροδικός ή επαναληπτικός;

Άσκηση 3.5 Ποιος είναι ο αναμενόμενος αριθμός των φορών που πρέπει να στρίψουμε ένα τίμιο νόμισμα, μέχρι να εμφανιστεί μια σειρά από \(N\) ίδια αποτελέσματα; Ποια είναι η απάντηση, αν η πιθανότητα να φέρουμε γράμματα σε κάθε στρίψιμο είναι \(p\neq \frac{1}{2}\);
Άσκηση 3.6 Κάθε φορά που επισκέπτεστε ένα εστιατόριο επιλέγετε ένα από τα \(N\) πιάτα του μενού τυχαία. Ποιος είναι o αναμενόμενος αριθμός των επισκέψεων που θα χρειαστείτε μέχρι να δοκιμάσετε όλα τα πιάτα;
Άσκηση 3.7 Ποιος είναι ο αναμενόμενος αριθμός ζαριών που πρέπει να ρίξουμε μέχρι το άθροισμα των ενδείξεων να είναι πολλαπλάσιο του 7;
Άσκηση 3.8 Δείξτε ότι ο αναμενόμενος αριθμός ζαριών μέχρι να φέρουμε \(n\) διαδοχικά 6άρια με ένα τίμιο ζάρι είναι \(t_n = 1, 2 \times (6^n - 1)\).
Άσκηση 3.9 Απαντήστε τα παρακάτω ερωτήματα για τη μαρκοβιανή αλυσίδα της Άσκησης 1.6.
α) Αν αρχικά ο ρήγας βρίσκεται στο κέντρο, ποια είναι η πιθανότητα να βρίσκεται στο κέντρο μετά από 4 βήματα;
β) Αν αρχικά ο ρήγας είναι αριστερά, ποιος είναι ο αναμενόμενος αριθμός κινήσεων μέχρι να βρεθεί για πρώτη φορά δεξιά;
Άσκηση 3.10 Θεωρούμε μια μαρκοβιανή αλυσίδα \(\{X_n\}\) στον \(\X=\N\) με πιθανότητες μετάβασης \[ p_{k,k-1}=\frac{k-1}{2k}=\frac{1}{2}-\frac{1}{2k},\ p_{k,k+1}=\frac{k+1}{2k}=\frac{1}{2}+\frac{1}{2k},\ \text{για}\ k\in\N. \] H \(X_n\) έχει μια τάση να πηγαίνει δεξιά αλλά η τάση αυτή εξασθενεί όσο απομακρινόμαστε από το 1, οπότε συμπεριφέρεται σχεδόν όπως ένας απλός, συμμετρικός τυχαίος περίπατος. Για τον απλό, συμμετρικό τυχαίο περίπατο γνωρίζουμε ότι απ' όπου κι αν ξεκινήσει θα φτάσει στο 1 με πιθανότητα 1. Αν \(T_1=\inf\{n\ge 0: X_n=1\}\) υπολογίστε την πιθανότητα \(\P_k\big[T_1<+\infty\big]\).
Άσκηση 3.11 Μια αράχνη κινείται τυχαία στον ιστό της, που αποτελείται από \(N\) ομόκεντρα εξάγωνα και τις ακτίνες τους. Πόσο χρόνο κατά μέσο όρο θα της πάρει για να φτάσει στο κέντρο του ιστού;
Άσκηση 3.12 Μια μαρκοβιανή αλυσίδα κινείται ανάμεσα σε έξι καταστάσεις. Οι δυνατές μεταβάσεις εικονίζονται σαν ακμές στο διπλανό σχήμα. Οι πιθανότητες μετάβασης είναι συμμετρικές, δηλ. \(p(x,y)=p(y,x)\) για κάθε \(x,y\in\{A,B,C,D,E,F\}\) και δίνονται και αυτές στο σχήμα. Π.χ. \(p(\{C,D\})=p(\{D,C\}) = \varepsilon \), με \(0 < \varepsilon < 1.\)
α) Ορίζουμε \(T_\varepsilon = \inf \big\{ m \ge 0: X_m\in\{D,E,F\} \big\} \) τον χρόνο εισόδου στο \(\{ D, E, F \} \). Υπολογίστε για \(x\in\{A,B,C\}\) την \(\E \big [\ T_\epsilon\ |\ X_0=x\big].\)
β) Υπολογίστε την \(\psi(x) =\E\big[e^{-s\varepsilon T_\varepsilon}\ | X_0=x\big ] \) για \(x=A,B,C\) και βρείτε ποιο είναι το όριό της, καθώς \(\varepsilon\to 0\). Συμπεράνετε ότι η τυχαία μεταβλητή \(\varepsilon T_\varepsilon\) συγκλίνει κατά κατανομή σε μια εκθετική τυχαία μεταβλητή, με ρυθμό \(\lambda=3\).

Άσκηση 3.13 Στην άσκηση αυτή θα υπολογίσουμε τις πιθανότητες μετάβασης μιας αλυσίδας, δεσμευμένης να φτάσει σε ένα σύνολο \(A\subset\X\) πριν φτάσει στο \(B\). Συγκεκριμένα, ορίζουμε για \(x\in \X\setminus (A\cup B)\) \[ \tilde{p}(x,y) = \PP { X_{n+1} = y \, | \,X_n = x, n < T_A < T_B}. \] Δείξτε ότι \[ \tilde{p}(x,y) = p(x,y)\frac{ \Phi_{A,B}(y)}{\Phi_{A,B}(x)}. \] Σαν εφαρμογή λύστε το ακόλουθο πρόβλημα. Η Αλίκη και ο Βασίλης είχαν από δέκα κέρματα και έπαιξαν κορώνα/γράμματα, ποντάροντας από ένα κέρμα σε κάθε γύρο, μέχρι ένας από τους δύο να συγκεντρώσει και τα είκοσι κέρματα. Με δεδομένο ότι κέρδισε η Αλίκη, ποια είναι η πιθανότητα να μεσολάβησε κάποια στιγμή που η Αλίκη είχε μείνει με ένα κέρμα;

3.5 Αριθμητικά πειράματα

Για τις παρακάτω ασκήσεις μπορείτε να χρησιμοποιήσετε τη βασική ρουτίνα προσομοίωσης πεπερασμένων μαρκοβιανών αλυσίδων simple_markov_chain_lib.py , που είδαμε στο Kεφάλαιο 1. Χρησιμοποιήστε τη ρουτίνα αυτή ως βιβλιοθήκη, όπως κάναμε στον κώδικα ex1.py, ώστε να γράψετε κώδικες σε python που θα λύνουν αριθμητικά τα ακόλουθα προβλήματα.

Άσκηση 3.14 Υπολογίστε προσεγγιστικά την πιθανότητα της Άσκησης 3.1 , προσομoιώνοντας \(N=10.000\) μονοπάτια της αλυσίδας και μετρώντας πόσα από αυτά κατέληξαν σε καθεμία από τις κλειστές κλάσεις.
Άσκηση 3.15 Υπολογίστε προσεγγιστικά την πιθανότητα της Άσκησης 3.7 με δύο τρόπους: α) άμεσα και β) θεωρώντας τη μαρκοβιανή αλυσίδα του υπολοίπου της ακέραιας διαίρεσης του αθροίσματος των ζαριών σας με το 7.
Άσκηση 3.16 Υπολογίστε προσεγγιστικά με Monte Carlo την πιθανότητα νίκης του παίκτη που σερβίρει σε ένα γκέιμ τένις, αν η πιθανότητα που έχει να κερδίσει κάθε πόντο είναι \(p=0,6\).
Άσκηση 3.17 Ας υποθέσουμε ότι \(p=1/2\) στο σενάριο της Άσκησης 3.2. Έστω τώρα ότι θέλουμε να υπολογίσουμε με μεθόδους Monte Carlo τον αναμενόμενο αριθμό των γύρων που παίχτηκαν, δεδομένου ότι καταφέρατε να φτάσετε τα € 10. Υπάρχουν δύο τρόποι να το πετύχετε αυτό. α) Να προσομοιώσετε ένα μεγάλο αριθμό παρτίδων, π.χ. \(N=10.000,\) να μετρήσετε το πλήθος \(m\) από αυτές κατά τις οποίες φτάσατε πραγματικά τα € 10, καθώς και των αριθμό των γύρων \(T_1,\ldots,T_m\) που παίχτηκαν σε αυτές τις παρτίδες. Η εκτιμήτρια της πιθανότητας που ψάχνετε είναι η \[ \frac{T_1+T_2+\cdots+T_m}{m}. \] β) Να χρησιμοποιήσετε την ιδέα της Άσκησης 3.13, προσομοιώνοντας \(Ν=10.000\) φορές την αλυσίδα δεσμευμένη να φτάσει στο 10.

Γράψτε μια ρουτίνα που εκτιμά τον αναμενόμενο χρόνο 50 φορές με καθέναν από τους δύο τρόπους. Σε ποια περίπτωση τα αποτελέσματα που παίρνετε διαφέρουν μεταξύ τους λιγότερο; Μπορείτε να εξηγήσετε γιατί; Κάντε τώρα το ίδιο για \(p=1/4\). Τι παρατηρείτε;


3.6 Βιβλιογραφία

ΚΕΦΑΛΑΙΟ ΙI | ΠΕΡΙΕΧΟΜΕΝΑ | ΚΕΦΑΛΑΙΟ IV