\(\newcommand{\PP}[1]{\P\big[#1\big]} \newcommand{\Px}[1]{\P_x\big[#1\big]} \newcommand{\EE}[1]{\E\big[#1\big]} \newcommand{\Ex}[1]{\E_x\big[#1\big]} \newcommand{\en}[1]{\textlatin{#1}} \def\N{\mathbb{N}} \def\Z{\mathbb{Z}} \def\X{\mathbb{X}} \def\Y{\mathbb{Y}} \def\P{\mathbb{P}} \def\Q{\mathbb{Q}} \def\E{\mathbb{E}} \def\R{\mathbb{R}} \def\MX{{\cal M}(\X)} \def\F{{\cal F}} \def\xn{\{X_n\}_{n\in\N_0}} \def\half{\frac{1}{2}} \def\IP{{\cal I}(P)} \def\mrtx{\E_x\big[T_x^+\big]} \def\ma{martingale} \)
KΕΦΑΛΑΙΟ IV. Martingales


4.1 Εισαγωγή

Στο κεφάλαιο αυτό θα εισαγάγουμε την έννοια της δεσμευμένης μέσης τιμής για διακριτές τυχαίες μεταβλητές και θα δούμε πότε χαρακτηρίζουμε μια στοχαστική διαδικασία διακριτού χρόνου ως \(\ma\). Μια βασική ιδιότητα που έχει μια \(\ma\) είναι ότι η αναμενόμενη τιμή της μένει σταθερή στον χρόνο ακόμα και όταν αυτή υπολογίζεται για έναν φραγμένο χρόνο διακοπής. Όπως θα δούμε, αυτή η ιδιότητα είναι ένα πολύ ισχυρό υπολογιστικό εργαλείο, ιδιαίτερα όταν η στοχαστική διαδικασία συμβαίνει να είναι ταυτόχρονα μαρκοβιανή. Παρόμοιο υλικό μπορείτε να βρείτε στις εξαιρετικές αναφορές [Doyle85] , [Varadhan01] και [Williams91] .

4.2 Δεσμευμένη μέση τιμή

Στην παράγραφο αυτή θα ορίσουμε τη δεσμευμένη μέση τιμή ως προς μια διακριτή τυχαία μεταβλητή. Ας υποθέσουμε λοιπόν ότι οι \(X,Y\) είναι τυχαίες μεταβλητές, ορισμένες στον ίδιο χώρο πιθανότητας, που παίρνουν τιμές στα αριθμήσιμα σύνολα \(\X,\Y\) αντίστοιχα. Ας συμβολίζουμε με \(p_{XY}\) την από κοινού σ.μ.π. των \(X\) και \(Y\), δηλαδή

\[ p_{XY}(x,y)=\PP{X=x,Y=y},\qquad x\in\X,\ y\in\Y. \]

Οι περιθώριες σ.μ.π. των \(X,Y\) μπορούν εύκολα να υπολογιστούν από την από κοινού σ.μ.π. ως εξής.

\[ p_X(x)=\PP{X=x}=\sum_{y\in\Y}\PP{X=x,Y=y},\qquad x\in\X \]

και

\[ p_Y(y)=\PP{Y=y}=\sum_{x\in\X}\PP{X=x,Y=y},\qquad y\in\X. \]

Υποθέτουμε χωρίς βλάβη ότι \(p_Y(y)>0\) για κάθε \(y\in\Y\), αφού, αν \(p_Y(y)=0\), μπορούμε να αφαιρέσουμε ένα τέτοιο \(y\) από το \(\Y\). Η δεσμευμένη πιθανότητα του ενδεχομένου \(\{X=x\}\) δεδομένου του ενδεχομένου \(\{Y=y\}\) είναι

\[ \PP{X=x\, |\, Y=y}=\frac{\PP{X=x,Y=y}}{\PP{Y=y}}. \]

Η δεσμευμένη πιθανότητα του ενδεχομένου \(\{X=x\}\) ως προς την τυχαία μεταβλητή \(Y\) είναι μια τυχαία μεταβλητή, που είναι συνάρτηση της \(Y\) και η τιμή της, όταν \(Y=y\), είναι \(\PP{X=x\big|\, Y=y}\). Έχει σημασία να έχουμε κατά νου ότι, η δεσμευμένη πιθανότητα ως προς μια τυχαία μεταβλητή είναι εν γένει μια τυχαία μεταβλητή και όχι ένας αριθμός. Η τιμή της αλλάζει ανάμεσα στα σημεία του δειγματικού χώρου \(\Omega\). Αν όμως θεωρήσουμε τη διαμέριση του \(\Omega\)

\[ \Omega=\bigcup_{y\in\Y}\{\omega\in\Omega: Y(\omega)=y\}=\bigcup_{y\in\Y}\{Y=y\}, \]

τότε, σε καθένα από τα ενδεχόμενα \(\{Y=y\}\), η τιμή της \(\PP{X=x\, |\, Y}\) παραμένει σταθερή και ίση προς \(\PP{X=x\big|\, Y=y}\). Έχουμε λοιπόν ότι

\[ \PP{X=x\, |\, Y} = p(x|Y),\quad \text{ όπου }\ p(x|y)=\PP{X=x\big|\, Y=y}=\frac{\PP{X=x,Y=y}}{\PP{Y=y}}, \ y\in\Y. \]

Παρατηρήστε ότι, για κάθε \(y\in\Y\), η \(p(\cdot\,|y)\) είναι μια σ.μ.π. στον \(\X\). Επομένως, μπορούμε να φανταζόμαστε την \(\PP{X=\cdot\, |\, Y}\) ως μια τυχαία σ.μ.π.

Ορισμός: Έστω \(X\) μια πραγματική, διακριτή τυχαία μεταβλητή με \(\EE{\,|X|\,}<\infty\). Oρίζουμε τη δεσμευμένη μέση τιμή (conditional expectation) της \(X\) ως προς τη διακριτή τυχαία μεταβλητή \(Y\), ως την αναμενόμενη τιμή της \(X\), υπολογισμένη με βάση την τυχαία σ.μ.π. \(\PP{X=\cdot\, |\, Y}\), δηλαδή

\begin{equation} \EE{X\big|\, Y}=\sum_{x\in\X}x\ \PP{X=x\, |\, Y}. \end{equation}

Η συνθήκη \(\EE{\,|X|\,}<\infty\) εξασφαλίζει ότι το δεξί μέλος είναι πεπερασμένο. Παρατηρήστε ότι η \(\EE{X\big|\, Y}\), ως γραμμικός συνδυασμός των \(\PP{X=x\, |\, Y}\), είναι κι αυτή μια πραγματική τυχαία μεταβλητή, η οποία είναι συνάρτηση της \(Y\). Αυτή η συνάρτηση, \(g(Y)=\EE{X\big|\, Y}\), έχει τη σταθερή τιμή \(\ g(y)=\sum_{x\in\X}x\ \PP{X=x\, |\, Y=y} \) σε καθένα από τα ενδεχόμενα \(\{Y=y\}\).

Παράδειγμα 4.1 Ρίχνετε ένα ζάρι και στη συνέχεια στρίβετε τόσα κέρματα όσα η ένδειξη του ζαριού, \(Y\in\{1,2,3,4,5,6\}\). Αν \(X\in\{0,1,2,3,4,5,6\}\) είναι το πλήθος των κεφαλών που θα φέρετε, τότε η δεσμευμένη κατανομή της \(X\), δεδομένου ότι \(Y=y\), είναι διωνυμική Bin \((y,\half)\), δηλαδή \[ \PP{X=x\,\big|\, Y=y}={y\choose x}\frac{1}{2^y}. \]

H δεσμευμένη μέση τιμή της \(X\) ως προς την \(Y\) είναι μια τυχαία μεταβλητή, που στο ενδεχόμενο \(\{Y=y\}\) έχει την τιμή

\[ \sum_{x=0}^y x{y\choose x}\frac{1}{2^y}=\frac{y}{2}. \]

Επομένως, \(\EE{X\,\big|\, Y}=\frac{Y}{2}\).

Θεώρημα 4.1

H \(g(Y)=\EE{X\,\big|\, Y}\) της σχέσης (4.1) είναι η μοναδική συνάρτηση της \(Y\) για την οποία

\begin{equation} \EE{Xh(Y)}=\EE{g(Y)h(Y)},\quad \text{για κάθε συνάρτηση } h:\Y\to [0,1].

\end{equation}

Απόδειξη: Θα δείξουμε πρώτα ότι η \(g(Y)=\EE{X\, \big|\,Y}\) της (4.1) έχει την ιδιότητα (4.2). Πράγματι, από τον ορισμό της δεσμευμένης πιθανότητας και το Θεώρημα Fubini-Tonelli έχουμε \begin{align*} \EE{Xh(Y)}&=\sum_{x\in\X}\sum_{y\in\Y}xh(y)\,\PP{X=x,Y=y}\\ &=\sum_{x\in\X}\sum_{y\in\Y}xh(y)\,\PP{X=x\, \big|\, Y=y}\ \PP{Y=y}\\ &=\sum_{y\in\Y}h(y)\left(\sum_{x\in\X}x\,\PP{X=x\,\big|\, Y=y}\right)\PP{Y=y}\\ &=\sum_{y\in\Y}h(y)g(y)\,\PP{Y=y} = \EE{g(Y)h(Y)}. \end{align*} Θα δείξουμε τώρα ότι η \(g\) είναι η μοναδική συνάρτηση της \(Y\) που έχει την ιδιότητα (4.2). Έστω \(\phi(Y)\) μια συνάρτηση της \(Y\) για την οποία

\[ \EE{Xh(Y)}=\EE{\phi(Y)h(Y)} \]

για οποιαδήποτε συνάρτηση \(h:\Y\to [0,1]\). Επιλέγοντας

\[ h_{y}(Y)=\begin{cases}1, &\text{ αν } Y=y\\ 0, &\text{ αν} Y\neq y \end{cases} \]

παίρνουμε

\[ \sum_{x\in\X}x\PP{X=x,Y=y}=\phi(y)\PP{Y=y}. \]

Επομένως, για κάθε \(y\in\Y\), έχουμε

\[ \phi(y)=\sum_{x\in\X}x\frac{\PP{X=x,Y=y}}{\PP{Y=y}}=g(y).\qquad\qquad\Box \]

Το παραπάνω θεώρημα μας δίνει έναν εναλλακτικό ορισμό της δεσμευμένης μέσης τιμής ο οποίος έχει δύο πλεονεκτήματα. Αφενός, δεν κάνει αναφορά στο είδος των τυχαίων μεταβλητών \(X,Y\), ενώ ο αρχικός ορισμός υποθέτει ότι οι \(X,Y\) έχουν διακριτή κατανομή. Αφετέρου, απλοποιεί συχνά τις αποδείξεις ισχυρισμών που αφορούν στη δεσμευμένη μέση τιμή, όπως θα δούμε και στο ακόλουθο θεώρημα.

Θεώρημα 4.2 Θεωρούμε \(Y,Ζ\) διακριτές τυχαίες μεταβλητές. Η δεσμευμένη μέση τιμή έχει τις παρακάτω ιδιότητες.
  1. \(\EE{c_1X_1+c_2X_2\,\big|\,Y}=c_1\EE{X_1\,\big|\,Y}+c_2\EE{X_2\,\big|\,Y} \), για κάθε \(c_1,c_2\in\R\).
  2. \(\E\Big[{\, \EE{X|Y}\,}\Big] =\EE{X}\).
  3. Αν οι \(X,Y\) είναι ανεξάρτητες, τότε η \(\EE{X|Y}\) είναι σταθερή και έχει την τιμή \(\EE{X}\).
  4. Αν η \(f:\Y\to\R\) είναι φραγμένη συνάρτηση, τότε \(\EE{Xf(Y)\,\big|\,Y}=f(Y)\EE{X\,\big|\,Y}\).
  5. \(\big|\,\EE{X\,\big|\,Y}\,\big|\le \EE{|X|\,\big|\,Y}.\)
  6. \(\E\Big[{\, \EE{X\,\big|\,Y,Z}\, \Big|\, Y}\Big]=\EE{X\,\big|\,Y}\).
  7. Αν \({X_1\le X_2}\), τότε \({\EE{X_1\,\big|\, Y}\le \EE{X_2\,\big|\, Y}}\).

Απόδειξη: Σε όλη την απόδειξη η \(h\) είναι μια συνάρτηση \(h:\Y\to[0,1]\). Για την (1), αν \(g_1(Y)=\EE{X_1\,\big|\,Y}\) και \(g_2(Y)=\EE{X_2\,\big|\,Y}\), από τη γραμμικότητα της μέσης τιμής έχουμε ότι \begin{align*} \EE{(c_1X_1+c_2X_2)h(Y)}&=c_1\EE{X_1h(Y)}+c_2\EE{X_2h(Y)}\\ &=c_1\EE{g_1(Y)h(Y)}+c_2\EE{g_2(Y)h(Y)}=\EE{(c_1g_1(Y)+c_2g_2(Y))h(Y)}. \end{align*} Επομένως, από το Θεώρημα 4.2 ,

\[ \EE{c_1X_1+c_2X_2\,\big|\,Y}=c_1g_1(Y)+c_2g_2(Y)=c_1\EE{X_1\,\big|\,Y}+c_2\EE{X_2\,\big|\,Y}. \]

Για την (2), αρκεί να επιλέξουμε \(h(Y)=1\) στο Θεώρημα 4.2 .
Για την (3), έχουμε

\[\EE{Xh(Y)}=\EE{X}\ \EE{h(Y)}=\E\Big[\, \EE{X}\, h(Y)\Big].\]

Η πρώτη ισότητα ισχύει λόγω της ανεξαρτησίας των \(X,Y\) και η δεύτερη γιατί η \(\EE{X}\) είναι μια σταθερά. Aπό το Θεώρημα 4.2, έχουμε λοιπόν ότι \(\EE{X|Y}=\EE{X}\). Υπενθυμίζουμε ότι, όταν η \(Y\) είναι σταθερή, τότε είναι ανεξάρτητη από κάθε άλλη τυχαία μεταβλητή, επομένως \(\EE{X\big|Y}=\EE{X}\), για οποιαδήποτε τυχαία μεταβλητή \(X\). Για τον ίδιο λόγο, έχουμε ότι \(\EE{c\big|\,Y}=c\), για οποιαδήποτε τυχαία μεταβλητή \(Y\) και \(c\in\R\).
Για την (4), λόγω της γραμμικότητας (ιδιότητα 1), αρκεί να υποθέσουμε ότι η \(f\) είναι μη αρνητική και φραγμένη από το 1. Πράγματι, αν \(f^+=\max\{f,0\},\ f^{-}=\max\{-f,0\}\) και \(Μ=\sup |f|\), έχουμε ότι

\[ f=M\left(\frac{f^+}{M}-\frac{f^-}{M}\right), \]

όπου οι \(f^\pm/M\) είναι μη αρνητικές και φραγμένες από το 1. Σε αυτήν την περίπτωση, εφόσον η \(f\times h\) είναι κι αυτή μια συνάρτηση από το \(\Y\) στο \([0,1]\), το Θεώρημα 4.2 δίνει ότι για κάθε \(h:\Y\to [0,1]\) έχουμε

\[ \EE{Xf(Y)\ h(Y)}=\EE{X f\times h(Y)}=\EE{g(Y)f\times h(Y)}=\EE{g\times f(Y) h(Y)}, \]

όπου \(g(Y)=\EE{X\,\big|\,Y}\). Επομένως, \(\EE{Xf(Y)\,\big|\,Y}=f(Y)\EE{X\,\big|\, Y}\).
Για την (5), παρατηρήστε ότι, αν ορίσουμε το θετικό και το αρνητικό μέρος της \(X\) ως \(X^+=\max\{X,0\}\ge 0\) και \(X^-=\max\{-X,0\}\ge 0\) αντίστοιχα, τότε \(X=X^+-X^-\) και \(|X|=X^+ +X^-\). Επομένως, από την τριγωνική ανισότητα, έχουμε \begin{align*} \Big|\,\EE{X\,\big|\,Y}\,\Big|&=\Big|\,\EE{X^+\,\big|\,Y}-\EE{X^-\,\big|\,Y}\,\Big|\le \EE{X^+\,\big|\,Y}+\EE{X^-\,\big|\,Y}=\EE{|X|\,\big|\,Y}.
\end{align*} Για την (6), αν ορίσουμε \(G(Y,Z)=\EE{X\,\big|\,Y,Z}\), έχουμε αρχικά από τις ιδιότητες (5) και (1), ότι

\[ \EE{|G(Y,Z)|}\le \EE{\EE{|X|\,\big|\,Y,Z}}=\EE{|X|}<\infty. \]

Η δεσμευμένη μέση τιμή \(\EE{G(Y,Z)\,\big|\,Y}\) είναι λοιπόν καλά ορισμένη. Από το Θεώρημα 4.2, αρχικά για την \(G(Y,Z)\) και στη συνέχεια για την \(X\), έχουμε ότι

\[ \EE{G(Y,Z)h(Y)}=\EE{Xh(Y)}=\EE{g(Y)h(Y)}. \]

Επομένως, \(\EE{G(Y,Z)\,\big|\,Y}=g(Y)=\EE{X\,\big|\,Y}\).
Τέλος για την (7), από τη γραμμικότητα της δεσμευμένης μέσης τιμής (ιδιότητα 1), αρκεί να δείξουμε ότι

\[ {X\ge 0}\Rightarrow \EE{X\,\big|\,Y}\ge 0. \]

Αν τώρα \(g(Y)=\EE{X\,\big|\,Y}\) και \(h(Y)=1\!\!1\{g(Y)<0\}\ge 0,\) τότε, από το Θεώρημα 4.2 ,

\[ 0\le \EE{Xh(Y)}=\EE{g(Y)h(Y)}=\EE{g(Y)1\!\!1\{g(Y)<0\}}\le 0. \]

Προκειμένου όμως να έχουμε ισότητα στην τελευταία ανισότητα, θα πρέπει \(\PP{g(Y)<0}=0\).

\(\Box\)

Παράδειγμα 4.2

Πενήντα φοιτητές από το ΕΜΠ, εβδομήντα φοιτητές από το ΕΚΠΑ και 30 φοιτητές από το ΟΠΑ παίρνουν μέρος σ' ένα διαγώνισμα. Αν επιλέξουμε τυχαία έναν από τους φοιτητές, μπορούμε να θεωρήσουμε ως δειγματικό χώρο του πειράματος τύχης το σύνολο των φοιτητών και τότε το πανεπιστήμιο προέλευσής τους \(Y\) είναι μια τυχαία μεταβλητή ορισμένη σε αυτόν τον χώρο, ενώ ο βαθμός τους στο διαγώνισμα \(X\) είναι μια άλλη τυχαία μεταβλητή. Η \(\EE{X|Y}\) είναι μια τυχαία μεταβλητή, που δίνει σε όλους τους φοιτητές του Πανεπιστημίου \(Y\) τον μέσο όρο \(M(Y)\) των φοιτητών του \(Y\). Τότε η ιδιότητα 2 του Θεωρήματος 4.2 σημαίνει ότι o μέσος όρος \(M\) των βαθμών όλων των φοιτητών δίνεται από τη

\[ M=\frac{50}{150}M(ΕΜ\Pi)+\frac{70}{150}M(EK\Pi A)+\frac{30}{150}M(O\Pi A), \]

δηλαδή ο μέσος όρος των βαθμών όλων των φοιτητών μπορεί να υπολογιστεί και ως ένας ζυγισμένος μέσος των μέσων βαθμών κατά πανεπιστήμιο, με βάρη τις πιθανότητες ο τυχαία επιλεγμένος φοιτητής να προέρχεται από κάθε πανεπιστήμιο.

4.3 Martingales

Σε αυτή την παράγραφο θα δούμε πότε χαρακτηρίζουμε μια στοχαστική διαδικασία διακριτού χρόνου ως \(\ma\) και κάποιες βασικές ιδιότητες αυτών των διαδικασιών.

Θυμηθείτε από το Κεφάλαιο 2 ότι, αν έχουμε μια ακολουθία από διακριτές τυχαίες μεταβλητές, όπως π.χ. στην περίπτωση μιας στοχαστικής διαδικασίας διακριτού χρόνου \(\xn\) και το ενδεχόμενο \(A\) εξαρτάται μόνο από τις τιμές των \(X_0,\ldots,X_n\), γράφουμε \(A\in\F_n\). Για κάθε \(n\in\N_0\), η \(Y_n=(X_0,\ldots,X_n)\) είναι μια τυχαία μεταβλητή, με τιμές στον διακριτό χώρο \(\X^{n+1}\). Θα συμβολίζουμε τη δεσμευμένη μέση τιμή μιας τυχαίας μεταβλητής \(Z\) ως προς την \(Y_n\) με \(\EE{Z\big|\F_n}.\) Επομένως, η

\[ \EE{Z\big|\F_n}=\EE{Z\big|X_0,\ldots,X_n} \]

είναι μια τυχαία μεταβλητή που εξαρτάται μόνο από τις \(X_0,\ldots,X_n\).

Ορισμός: Αν μια τυχαία μεταβλητή \(X\) είναι συνάρτηση των \(X_0,\ldots,X_n\), θα λέμε ότι η \(X\) είναι \(\F_n\)- μετρήσιμη .

Ορισμός: Αν, για μια στοχαστική διαδικασία \(\{M_n\}_{n\in\N_0}\), η τυχαία μεταβλητή \(M_n\) είναι \(\F_n\)- μετρήσιμη για κάθε \(n\in\N_0\), θα χαρακτηρίζουμε την \(\{M_n\}_{n\in\N_0}\) προσαρμοσμένη (adapted) στην \(\{\F_n\}_{n\in\N_0}.\)

Ορισμός: Θα χαρακτηρίζουμε μια στοχαστική διαδικασία \(\{M_n\}_{n\in\N_0}\) με τιμές στο \(\R\) ως \(\F_n\)-\(\ma\), αν για κάθε \(n\in\N_0\) έχουμε

  1. \(\EE{|M_n|}<\infty\),
  2. \(\EE{M_{n+1}\,\big|\,\F_n}=M_n.\)

Η πρώτη συνθήκη του ορισμού, υπάρχει απλώς για να είναι καλά ορισμένη η δεσμευμένη μέση τιμή που εμφανίζεται στη δεύτερη. Η ουσία του ορισμού βρίσκεται στη δεύτερη συνθήκη. Αυτό που χαρακτηρίζει μια \(\ma\) είναι ότι, με δεδομένο οτιδήποτε έχει συμβεί μέχρι τη χρονική στιγμή \(n\), η αναμενόμενη τιμή της μετά το επόμενο βήμα είναι ίδια με τη σημερινή, όπως ακριβώς συμβαίνει, σε κάθε γύρο ενός δίκαιου παιχνιδιού, με την περιουσία κάποιου που στοιχηματίζει σ' αυτό. Παρατηρήστε επίσης ότι, από την ιδιότητα 2 του ορισμού, μια διαδικασία που είναι \(\F_n\)-\(\ma\), είναι πάντα προσαρμοσμένη στην \(\{\F_n\}_{n\in\N_0}.\)

Παράδειγμα 4.3

Ένας απλός, συμμετρικός τυχαίος περίπατος \(\{S_n\}_{n\in\N_0}\) στο \(\Z\) είναι \(\ma\). Πράγματι, αν \(S_0=x\in\Z\), έχουμε ότι για κάθε \(n\in\N\)

\[ S_n=S_{n-1}+X_n=x+\sum_{k=1}^{n}X_k, \]

όπου η \(\{X_n\}_{n\in\N}\) είναι μια ακολουθία ανεξάρτητων, ισόνομων τυχαίων μεταβλητών, που παίρνουν τις τιμές +1 ή -1, με πιθανότητα \(\half\) καθεμιά. Έχουμε λοιπόν ότι \(|S_n|\le |x|+n<\infty\), ενώ

\[ \EE{S_{n+1}\,\big|\,\F_n}=\EE{S_n+X_{n+1}\,\big|\,\F_n}=\EE{S_n\,\big|\,\F_n}+\EE{X_{n+1}\,\big|\,\F_n}=S_n+\EE{X_{n+1}}=S_n. \]

Η δεύτερη ισότητα προκύπτει από την ιδιότητα 1 του Θεωρήματος 4.2, ενώ η τρίτη ισότητα από τις ιδιότητες 3 και 4 του ίδιου θεωρήματος.

Παράδειγμα 4.4 Αν \(\{S_n\}_{n\in\N_0}\) είναι ο απλός, συμμετρικός τυχαίος περίπατος του προηγούμενου παραδείγματος, τότε η διαδικασία \(\{M_n\}_{n\in\N_0}\), με \(M_n=S_n^2-n\) είναι \(\ma\). Πράγματι, εφόσον \(|S_n|\le |x|+n\), έχουμε ότι \(\EE{M_n}\le (|x|+n)^2<\infty.\) Aπό τις ιδιότητες 1, 3 και 4 του Θεωρήματος 4.2, έχουμε τώρα ότι \begin{align*} \EE{S_{n+1}^2\,\big|\,\F_n}&=\EE{S_n^2+2S_nX_{n+1}+X_{n+1}^2\,\big|\,\F_n}=S_n^2+2S_n\EE{X_{n+1}\,\big|\,\F_n}+\EE{1\big|\,\F_n}\\ &=S_n^2+2S_n\EE{X_{n+1}}+1=S_n^2+1. \end{align*} Αφαιρώντας \(n+1\) από τα δύο μέλη, παίρνουμε ότι \(\EE{M_{n+1}\,\big|\,\F_n}=M_n.\)
Παράδειγμα 4.5

Έστω \(z\in(0,1)\). Για τον απλό, συμμετρικό, τυχαίο, περίπατο των προηγούμενων παραδειγμάτων θα εξετάσουμε αν, για κάποια σταθερά \(\alpha=\alpha(z)>0\), η διαδικασία \(\{M_n\}_{n\in\N_0}\) με

\[ M_n=\alpha^{S_n}z^n \]

είναι \(\ma\). Η πρώτη συνθήκη του ορισμού ελέγχεται εύκολα όπως στα προηγούμενα παραδείγματα. Τώρα, από τις ιδιότητες 3 και 4 του Θεωρήματος 4.2 \begin{align*} \EE{M_{n+1}\,\big|\,\F_n}&=\EE{\alpha^{S_{n}}\alpha^{X_{n+1}}z^{n+1}\,\big|\,\F_n}=z^{n+1}\alpha^{S_n}\EE{\alpha^{X_{n+1}}\,\big|\,\F_n}\\ &=zM_n\EE{\alpha^{X_{n+1}}}=\half zM_n\big(\alpha+\frac{1}{\alpha}\big). \end{align*} Επομένως, η \(\{M_n\}_{n\in\N_0}\) είναι \(\ma\), αν και μόνο αν

\[ \alpha+\frac{1}{\alpha}=\frac{2}{z}\Leftrightarrow \alpha=\frac{1\pm\sqrt{1-z^2}}{z}. \]
Παράδειγμα 4.6 Αν η \(Z\) είναι μια τυχαία μεταβλητή με \(\EE{|Z|}<\infty\), τότε η \(M_n=\EE{Z\,\big|\,\F_n}\) είναι \(\ma\). Πράγματι, από τις ιδιότητες 5 και 2 του Θεωρήματος 4.2, έχουμε \[ \EE{|M_n|}=\E\Big[{\big|\,\EE{Z\,\big|\,\F_n}\,\big|}\Big]\le\E\Big[\EE{|Z|\,\big|\,\F_n}\Big]=\EE{|Z|}<\infty. \]

Επιπλέον, από την ιδιότητα 6 του Θεωρήματος 4.2, για κάθε \(n\in\N_0\) έχουμε

\[ \EE{M_{n+1}\,\big|\,\F_n}=\E\Big[ \EE{Z\,\big|\,\F_{n+1}}\,\big|\, \F_n\Big]=\EE{Z\,\big|\,\F_{n}}=M_n. \]
Παράδειγμα 4.7 (μετασχηματισμός \(\ma\))

Έστω \(\{M_n\}_{n\in\N_0}\) μια \(\F_n\)-\(\ma\). Θεωρούμε μια στοχαστική διαδικασία \(\{\phi_n\}_{n\in\N_0}\) που είναι προσαρμοσμένη στην \(\{\F_n\}_{n\in\N_0}\), τέτοια ώστε, για κάθε \(n\in\N_0\) η τυχαία μεταβλητή \(\phi_n\) είναι φραγμένη από μια σταθερά \(C_n\). Ορίζουμε \((\phi\cdot M)_0=0\) και για \(n\in\N\)

\[ (\phi\cdot M)_{n}=\sum_{k=0}^{n-1}\phi_k(M_{k+1}-M_k). \]

H \(\{(\phi\cdot M)_{n}\}_{n\in\N_0}\) είναι μια \(\ma\). Η ιδιότητα 1 δεν είναι δύσκολο να ελεγχθεί, ενώ

\[ \EE{(\phi\cdot M)_{n+1}\,\big|\,\F_n}=\EE{(\phi\cdot M)_{n}+\phi_n(M_{n+1}-M_n)\,\big|\,\F_n}=(\phi\cdot M)_{n}+\phi_n\EE{M_{n+1}-M_n\,\big|\,\F_n}=(\phi\cdot M)_{n}, \]

όπου στη δεύτερη ισότητα χρησιμοποιήσαμε ότι η \(\phi_n\) είναι \(\F_n\)-μετρήσιμη ώστε, από την ιδιότητα 4 του Θεωρήματος 4.2, να τη βγάλουμε εκτός της δεσμευμένης μέσης τιμής.

Έστω ότι παίζουμε ένα τίμιο παιχνίδι όπου πριν από κάθε γύρο ποντάρουμε κάποια νομίσματα. Σε κάθε γύρο κερδίζουμε ή χάνουμε με πιθανότητα 1/2. Αν κερδίσουμε σε κάποιον γύρο, μας επιστρέφεται το στοιχημά μας στο διπλάσιο, διαφορετικά χάνουμε όσα νομίσματα στοιχηματίσαμε. Αν πριν από κάθε γύρο ποντάρουμε ένα νόμισμα, η περιουσία μας θα είναι ένας τυχαίος περίπατος στους ακεραίους

\[ Μ_n=x+\sum_{k=1}^n X_k. \]

Στην παραπάνω σχέση \(x\) είναι το αρχικό πλήθος των νομισμάτων μας, ενώ οι τυχαίες μεταβλητές \(X_k\) παριστάνουν το κέρδος μας κατά τον γύρο \(k\) και έχουν μέση τιμή 0. Αν τώρα πριν από τον γύρο \(k+1\) ποντάρουμε \(\phi_k\) νομίσματα, τότε η μεταβολή της περιουσίας μας θα είναι \(\phi_k X_{k+1}=\phi_k(M_{k+1}-M_k)\) και η περιουσία μας μετά τον \(n\)-οστό γύρο θα είναι \(x+(\phi\cdot M)_n\). Μπορούμε να επιτρέψουμε στο ποντάρισμά μας να εξαρτάται απ' ό,τι έχει συμβεί μέχρι τη στιγμή που ποντάρουμε, αλλά όχι απ' ό,τι θα συμβεί στο μέλλον. Επομένως, για κάθε \(k\in\N_0\), η \(\phi_k\) είναι μια τυχαία μεταβλητή που εξαρτάται μόνο από τις \(X_1,X_2,\ldots,X_k\), είναι δηλαδή \(\F_k\)-μετρήσιμη. Το προηγούμενο παράδειγμα μας διδάσκει ότι, ακόμα κι αν ποντάρουμε χρησιμοποιώντας τη σοφία που έχουμε κάθε φορά σωρεύσει, η περιουσία μας θα είναι και πάλι μια martingale. To ακόλουθο θεώρημα μας διδάσκει ότι δεν μπορούμε να αυξήσουμε την αναμενόμενη περιουσία μας ποντάροντας έξυπνα.

Θεώρημα 4.3 Αν η διαδικασία \(\{M_n\}_{n\in\N_0}\) είναι \(\ma\), τότε \(\EE{M_{n+k}\,\big|\,\F_k}=M_k\), για κάθε \(k\in\N_0\) και \(n\in\N\). Ειδικότερα, \(\EE{M_n}=\EE{M_0}\), για κάθε \(n\in\N.\)

Απόδειξη: Έστω \(k\in\N_0\). Θα αποδείξουμε τον ισχυρισμό με επαγωγή επί του \(n\). Για \(n=1\) ο ισχυρισμός συμπίπτει με την ιδιότητα 2 του ορισμού μιας \(\ma\). Έστω τώρα ότι \(\EE{M_{n+k}\,\big|\,\F_k}=M_k\) για κάποιο \(n\in\N.\) Από την ιδιότητα 6 του Θεωρήματος 4.2, έχουμε

\[ \EE{M_{n+k+1}\,\big|\,\F_k}=\E\Big[\,\EE{M_{n+k+1}\,\big|\,\F_{n+k}}\,\Big|\, \F_k\Big]=\EE{M_{n+k}\,\big|\,\F_k}=M_k, \]

όπου η τελευταία ισότητα προκύπτει από την επαγωγική υπόθεση. Ειδικότερα, για \(k=0\) έχουμε \(\EE{M_{n}\,\big|\,\F_0}=M_0\). Το ζητούμενο προκύπτει τώρα από την ιδιότητα 2 του Θεωρήματος 4.2, παίρνοντας την αναμενόμενη τιμή των δύο μελών.

\(\Box\)

Σύμφωνα με το προηγούμενο θεώρημα, η αναμενόμενη τιμή μιας \(\ma\) είναι η ίδια σε όποια χρονική στιγμή \(n\in\N_0\) κι αν την υπολογίσουμε. Ένα κεντρικό αποτέλεσμα στη μελέτη των \(\ma\), είναι ότι η παραπάνω ιδιότητα παραμένει σε ισχύ ακόμα κι αν αυτή η χρονική στιγμή είναι ένας φραγμένος χρόνος διακοπής.

Θεώρημα 4.4 \(\big[\)επιλεκτικής διακοπής (optional stopping) \(\big] \) Αν η διαδικασία \(\{M_n\}_{n\in\N_0}\) είναι \(\F_n\)-\(\ma\) και ο τυχαίος χρόνος \(T\) είναι φραγμένος χρόνος διακοπής της \(\{X_n\}_{n\in\N_0}\), τότε \[ \EE{M_T}=\EE{M_0}. \]

Απόδειξη: Έστω \(N\) ένα άνω φράγμα του χρόνου \(T\). Έχουμε τότε ότι \(1=\sum_{k=0}^N1\!\!1\{T=k\}\) και

\begin{equation} \EE{M_T}=\sum_{k=0}^N\EE{M_T1\!\!1\{T=k\}}=\sum_{k=0}^N\EE{M_k1\!\!1\{T=k\}}. \end{equation}

Από το Θεώρημα 4.3 έχουμε ότι \(\EE{M_N\,\big|\,\F_k}=M_k\), για \(k=0,1,\ldots,N-1.\) Εφόσον ο \(T\) είναι χρόνος διακοπής, η \(1\!\!1\{T=k\}\) εξαρτάται μόνο από τις \(X_0,\ldots,X_k\) και παίρνει τιμές στο διάστημα [0,1]. Επομένως, από το Θεώρημα 4.2 έχουμε ότι

\[ \EE{M_N1\!\!1\{T=k\}}=\EE{M_k1\!\!1\{T=k\}}. \]

Αντικαθιστώντας τώρα στην (4.3) έχουμε ότι

\[ \EE{M_T}=\sum_{k=0}^N\EE{M_N1\!\!1\{T=k\}}=\EE{M_N}=\EE{M_0}, \] όπου η τελευταία ισότητα προκύπτει πάλι από το Θεώρημα 4.3.

\(\Box\)

Παρατήρηση 1: Το προηγούμενο θεώρημα μας διδάσκει ότι δεν μπορούμε να αυξήσουμε την αναμενόμενη περιουσία μας σ' ένα τίμιο παιχνίδι ακολουθώντας μια στρατηγική εξόδου που μπορεί να εξαρτάται απ' ό,τι έχει συμβεί στο παρελθόν, αλλά οφείλει να έχει ολοκληρωθεί μέχρι κάποια συγκεκριμένη χρονική στιγμή \(N\).

Παρατήρηση 2: Η υπόθεση ότι ο χρόνος διακοπής \(T\) είναι φραγμένος είναι ουσιαστική. Δεν μπορεί εν γένει να αντικατασταθεί από την ασθενέστερη συνθήκη \(\PP{T<\infty}=1,\) όπως φαίνεται στο παράδειγμα που ακολουθεί.

Παράδειγμα 4.8 Θεωρούμε έναν απλό, συμμετρικό τυχαίο περίπατο \(\{S_n\}_{n\in\N_0}\) στο \(\Z\), που ξεκινά από το μηδέν. Έστω \(T_1=\inf\{k\ge 0: X_k=1\}\) ο χρόνος πρώτης άφιξης του περιπάτου στο 1. Όπως είδαμε στο Παράδειγμα 2.6 , ο \(T_1\) είναι χρόνος διακοπής, ενώ, από το Παράδειγμα 2.9, ο \(\{S_n\}_{n\in\N_0}\) είναι επαναληπτικός. Το Λήμμα 2.4 δίνει λοιπόν ότι \(\P_0\big[T_1<\infty\big]=1\). Eίναι φανερό όμως ότι στο ενδεχόμενο \(\{T_1<\infty\}\) έχουμε \(S_{T_1}=1\), επομένως \(\EE{S_{T_1}}=1\), ενώ \(\EE{S_0}=0\).

Παρατήρηση 3: Στην πράξη είναι σπάνιο να μπορεί να εξασφαλίσει κανείς ότι ένας ενδιαφέρων χρόνος διακοπής \(T\) είναι φραγμένος. Σύμφωνα όμως με το Παράδειγμα 2.5 , ο σταθερός χρόνος \(N\in\N\) είναι χρόνος διακοπής, ενώ, αξιοποιώντας το Πόρισμα 2.1 , ο χρόνος \(T\wedge N=\min\{T,N\}\) είναι χρόνος διακοπής και είναι προφανώς φραγμένος από το \(N\). Εφαρμόζουμε λοιπόν συνήθως το Θεώρημα επιλεκτικής διακοπής για τον \(T\wedge N\) και προσπαθούμε να περάσουμε το αποτέλεσμα που παίρνουμε στον αρχικό χρόνο διακοπής \(T\), στέλνοντας το \(N\) στο άπειρο. Θα δούμε πώς ακριβώς δουλεύει αυτή η διαδικασία στα παραδείγματα που ακολουθούν.

Παράδειγμα 4.9 Ένας απλός, συμμετρικός τυχαίος περίπατος \(\{ S_n \}_{ n \in \N_0 } \) ξεκινάει από το \(x \in \Z \). Αν \(a, b \in \Z\), με \(a < x < b \) και \(T_a, T_b\) είναι οι χρόνοι πρώτης άφιξης στα \(a, b\) αντίστοιχα, θέλουμε να υπολογίσουμε την πιθανότητα \(\Px{ T_b < T_a } \).

Είδαμε στο Παράδειγμα 4.3 ότι η \(\{ S_n \}_{ n \in \N_0 } \) είναι martingale, οπότε άμεσα προκύπτει ότι και η \(\{ M_n \}_{ n \in \N_0 } \) με \(M_n=S_n-a\) είναι \(\ma\). Όπως είδαμε στο παράδειγμα 2.6 οι \(T_a, T_b \), αλλά και ο χρόνος \[ T = Τ_{a,b} = T_a \wedge T_b = \inf \big \{ k \ge 0: S_k \in \{ a ,b \} \big \} \]

είναι χρόνοι διακοπής. Θα εφαρμόσουμε το Θεώρημα επιλεκτικής διακοπής για τη \(\ma \) \(\{ M_n \}_{ n \in \N_0} \) και τον φραγμένο χρόνο διακοπής \(T\wedge N\). Έχουμε λοιπόν \begin{align*} x-a & = \Ex{ M_0 } = \Ex{ M_{ T \wedge N } }= \Ex{ M_T 1\!\!1 \{ T < N \} } + \Ex{ M_N 1\!\!1 \{T \ge N \} }. \end{align*} Παρατηρήστε τώρα ότι \(M_T = 0 \) στο ενδεχόμενο \(\{ T_a < T_b \wedge N \}\), ενώ \(M_T = b - a \) στο ενδεχόμενο \(\{ T_b < T_a \wedge N\}\). Έχουμε λοιπόν ότι

\begin{equation} x - a = (b - a)\ \Px{ T_b < T_a \wedge N} + \Ex{ M_N 1\!\!1 \{ T \ge N\}}. \end{equation}

Παρατηρήστε τώρα ότι η ακολουθία ενδεχομένων \(B_N = \{ T_b < T_a \wedge N\}\) είναι αύξουσα και \(\cup_N B_N=\{ T_b < T_a \}\). Επομένως, αν στείλουμε το \(N\) στο άπειρο, ο πρώτος προσθετέος στο δεξί μέλος τείνει στο \((b-a)\Px{ T_b < T_a }.\) Σε ό,τι αφορά στον δεύτερο προσθετέο παρατηρήστε ότι στο ενδεχόμενο \(C_N = \{ T \ge N \}\) ο περίπατος μέχρι τη χρονική στιγμή \(N\) δεν έχει βγει από το σύνολο \(\{ a, a+1, \ldots, b-1, b\}\). Επομένως,

\[ \Big| \Ex{ M_N 1\!\!1\{ T \ge N\} } \Big| \le \max\{|a|,|b|\}\ \Px{ T \ge N}\to \max\{|a|,|b|\}\ \Px{ T = \infty}, \]

αφού η ακολουθία ενδεχομένων \(C_N\) είναι φθίνουσα, με \(\cap_NC_N=\{T=\infty\}.\) Όπως έχουμε δει όμως ο απλός, συμμετρικός τυχαίος περίπατος είναι επαναληπτικός, επομένως \(\Px{T= \infty}=0\). Παίρνοντας λοιπόν \(N\to\infty\) στην (4.4) παίρνουμε ότι

\[ \Px{ T_b < T_a } = \frac{ x-a }{ b-a }. \]
Παράδειγμα 4.10 Στο προηγούμενο παράδειγμα θέλουμε να υπολογίσουμε τον αναμενόμενο χρόνο εξόδου του περιπάτου από το σύνολο \(\{a,a+1,\ldots,b-1,b\}\). Θα χρησιμοποιήσουμε τη \(\ma\) του Παραδείγματος 4.4 και τον φραγμένο χρόνο διακοπής \(T_{a,b}\wedge N\), όπου \(T_{a,b}=\inf\big\{k\ge 0: S_k\in\{a,b\}\big\}\) είναι ο χρόνος πρώτης άφιξης στο σύνολο \(\{a,b\}\). Έχουμε λοιπόν για κάθε \(N\in\N\) ότι

\begin{align} x^2&=\Ex{M_0}=\Ex{M_{T_{a,b}\wedge N}}=\Ex{S_{T_{a,b}\wedge N}^2}-\Ex{T_{a,b}\wedge N}. \end{align}

Όπως και στο προηγούμενο παράδειγμα, \[ \lim_{ N \to \infty } \Ex{ S_{ T_{a,b} \wedge N }^2}= a^2 \Px{ T_a < T_b } + b^2 \Px{ T_b < T_a } = x(a + b) - ab. \]

Για να υπολογίσουμε το όριο του \(\Ex { T_{ a, b } \wedge N}\), μπορούμε είτε να επικαλεστούμε το Θεώρημα μονότονης σύγκλισης της Θεωρίας Μέτρου (δείτε το Πόρισμα 1.6 στο [Varadhan01]), είτε να χρησιμοποιήσουμε το ακόλουθο χρήσιμο αποτέλεσμα από τις Πιθανότητες. Αν \(X\) είναι μια τυχαία μεταβλητή που παίρνει με πιθανότητα 1 τιμές στους μη αρνητικούς ακεραίους, όπως π.χ. η \(T_{a,b}\) και η \(T_{a,b}\wedge N\) στο παράδειγμά μας, τότε

\[ \EE{X}=\sum_{k=0}^\infty \PP{X>k}. \] Έχουμε λοιπόν ότι \begin{align*} \Ex{T_{a,b}\wedge N}&=\sum_{k=0}^\infty \Px{T_{a,b}\wedge N>k}=\sum_{k=0}^{N-1} \Px{T_{a,b}>k}. \end{align*} Επομένως, \[ \lim_{N\to\infty}\Ex{T_{a,b}\wedge N}=\lim_{N\to\infty}\sum_{k=0}^{N-1} \Px{T_{a,b}>k}=\sum_{k=0}^\infty \Px{T_{a,b}>k}=\Ex{T_{a,b}}. \] Παίρνοντας το όριο \(N\to\infty\) στην (4.5) παίρνουμε \[ \Ex{T_{a,b}}=(x-a)(b-x). \]

Στην ειδική περίπτωση όπου \(-a=b=R\) και \(x=0\), αν συμβολίσουμε με \(T_R=\inf\{k\ge 0: |S_k|\ge R\}\) τον χρόνο άφιξης του περιπάτου στο \(\{-R,R\}\), έχουμε

\[ \E_0\big[{T_R}\big]=R^2. \]

Βλέπουμε λοιπόν ότι ο αναμενόμενος χρόνος μέχρι ο απλός, συμμετρικός τυχαίος περίπατος να διανύσει απόσταση \(R\), είναι \(R^2\). Αυτό είναι ένα χαρακτηριστικό των διαχυτικών διαδικασιών, που δεν έχουν την τάση να μετακινούνται προς κάποια κατεύθυνση και η μετακίνησή τους συμβαίνει μόνο ως αποτέλεσμα τυχαίων διακυμάνσεων.

Παράδειγμα 4.11 Μπορούμε, χρησιμοποιώντας το Θεώρημα επιλεκτικής διακοπής, να υπολογίσουμε ακόμα και την κατανομή του χρόνου \(T_R\) στο προηγούμενο παράδειγμα. Θυμηθείτε από το Παράδειγμα 4.5 ότι, για \(z\in(0,1)\), η διαδικασία \(\alpha^{S_n}z^n \) είναι \(\ma\), αν \[ \alpha=\frac{1\pm\sqrt{1-z^2}}{z}. \]

Παρατηρήστε ότι οι παραπάνω τιμές του \(\alpha\) είναι η μία αντίστροφη της άλλης. Εύκολα επίσης ελέγχεται ότι το άθροισμα δύο \(\ma\) είναι ομοίως μια \(\ma\). Επομένως, η διαδικασία \(\{M_n\}_{n\in\N_0}\) με

\[ M_n=\big(\alpha^{S_n}+\alpha^{-S_n}\big)z^n, \] είναι \(\ma\). Εφαρμόζοντας το Θεώρημα επιλεκτικής διακοπής γι' αυτή τη \(\ma\) και τον φραγμένο χρόνο διακοπής \(T_R\wedge N\), έχουμε

\begin{equation} \alpha^x+\alpha^{-x}=\Ex{M_0}=\Ex{M_{T_R\wedge N}}=\Ex{M_{T_R}1\!\!1\{T_R\le N\}}+\Ex{M_N1\!\!1\{T_R>N\}}. \end{equation}

Παρατηρήστε τώρα ότι, στο ενδεχόμενο \(T_R>N\), ο περίπατος βρίσκεται μέσα στο σύνολο \(I_R=\{-R,\ldots,R\}\) τη χρονική στιγμή \(N\). Χρησιμοποιώντας ότι \(\alpha^k+\alpha^{-k}\le \alpha^R+\alpha^{-R}\) για κάθε \(k\in I_R\) και ότι \(z\in(0,1)\) έχουμε ότι

\[ \Ex{M_N1\!\!1\{T_R>N\}}\le (\alpha^R+\alpha^{-R})\Px{T_R>N}\to 0, \text{ καθώς } N\to\infty. \]

Επιπλέον, από τον ορισμό του χρόνου διακοπής \(T_R\), έχουμε ότι \(M_{T_R}=(\alpha^R+\alpha^{-R})z^{T_R}.\) Επομένως, \begin{align*} \Ex{M_{T_R}1\!\!1\{T_R\le N\}}&=(\alpha^R+\alpha^{-R})\Ex{z^{T_R}1\!\!1\{T_R\le N\}}=(\alpha^R+\alpha^{-R})\sum_{k=0}^N z^k\Px{T_R=k}\\ &\longrightarrow (\alpha^R+\alpha^{-R})\sum_{k=0}^\infty z^k\Px{T_R=k}=(\alpha^R+\alpha^{-R})\Ex{z^{T_R}}. \end{align*} Παίρνοντας το όριο καθώς \(N\to\infty\) στη σχέση (4.6) έχουμε λοιπόν ότι

\[ \Ex{z^{T_R}}=\frac{\alpha^x(z)+\alpha^{-x}(z)}{\alpha^R(z)+\alpha^{-R}(z)}, \quad z\in(0,1), \]

όπου \(\alpha(z)=\frac{1-\sqrt{1-z^2}}{z}.\)

4.4 Martingales και μαρκοβιανές αλυσίδες

Στην παράγραφο αυτή θα δούμε πώς μπορούμε να υπολογίσουμε, με τη βοήθεια του Θεωρήματος επιλεκτικής διακοπής, πολλές ενδιαφέρουσες ποσότητες που εμφανίζονται όταν μελετάμε μαρκοβιανές αλυσίδες.

Ας ξεκινήσουμε με έναν απλό υπολογισμό. Έστω \(\xn\) μια μαρκοβιανή αλυσίδα στον αριθμήσιμο χώρο καταστάσεων \(\X\). Θεωρούμε μια συνάρτηση \(f:\X\to\R\), τέτοια ώστε \(\EE{|f(X_n)|}<\infty\) για κάθε \(n\in\N_0\). Από τη μαρκοβιανή ιδιότητα έχουμε ότι \(\EE{f(X_{n+1})\,\big|\,\F_n}=\EE{f(X_{n+1})\,\big|\,X_n}\). Αυτή η δεσμευμένη μέση τιμή είναι, όπως είδαμε, μια τυχαία μεταβλητή, η οποία είναι συνάρτηση της \(X_n\) και η τιμή της στο ενδεχόμενο \(\{X_n=x\}\) είναι

\[ \EE{f(X_{n+1})\,\big|\,X_n=x}=\sum_{y\in\X} p(x,y) f(y). \] Επομένως,

\begin{equation} \EE{f(X_{n+1})\,\big|\,\F_n}=\sum_{y\in\X} p(X_n,y)f(y). \end{equation}

Θεώρημα 4.5 Αν \(\EE{|f(X_n)|}<\infty\) για κάθε \(n\in\N_0\), τότε η στοχαστική διαδικασία \(\{M^f_n\}_{n\in\N_0}\) με \(M^f_0=f(X_0)\) και \[ M^f_n=f(X_n)-\sum_{k=0}^{n-1} Lf(X_k),\quad \forall n\in\N, \] είναι \(\F_n\)-\(\ma\).

Απόδειξη: Παρατηρήστε αρχικά ότι \[ Lf(X_k)=\sum_{y\in\X}p(X_k,y)\big(f(y)-f(X_k)\big)= \sum_{y\in\X}p(X_k)f(y)-f(X_k)\sum_{y\in\X}p(X_k,y)=\EE{f(X_{k+1})\,\big|\,\F_n}-f(X_k). \] Έχουμε επομένως \[ Μ^f_{n+1}-M^f_{n}=f(X_{n+1})-f(X_n)-Lf(X_n)=f(X_{n+1})-\EE{f(X_{n+1})\,\big|\,\F_n} \] και \begin{align*} M^f_n&=M^f_0+\sum_{k=1}^{n} \big(M^f_{k}-M^f_{k-1}\big)=f(X_0)+\sum_{k=1}^{n} f(X_k)-\EE{f(X_{k})\,\big|\,\F_{k-1}}. \end{align*} Από την τριγωνική ανισότητα παίρνουμε ότι \(\EE{|M^f_n|}<\infty\), ενώ \[ \EE{M^f_{n+1}\,\big|\,\F_n}=M^f_n+\EE{M^f_{n+1}-M^f_n\,\big|\,\F_n}=M^f_n.\qquad\qquad\Box \] Χρησιμοποιώντας το Θεώρημα επιλεκτικής διακοπής, κάθε \(\ma\) που μπορούμε να γράψουμε μας δίνει μια πληροφορία για τη συμπεριφορά της στοχαστικής διαδικασίας που μελετάμε. Το Θεώρημα 4.5 μας προσφέρει έναν συστηματικό τρόπο για να κατασκευάζουμε \(\ma\) που σχετίζονται με μια μαρκοβιανή ανέλιξη που θέλουμε να αναλύσουμε. Επιλέγοντας κατάλληλα τη συνάρτηση \(f\), μπορούμε να κάνουμε χρήσιμους υπολογισμούς.

Αυτή η ιδέα ρίχνει καινούργιο φως στα αποτελέσματα του Κεφαλαίου 3 . Για παράδειγμα, αν επιλέξουμε ως \(f\) τη λύση του ΠΣΤ 3.2 \begin{equation} \begin{cases} \quad Lf(x)=0, & \text{ αν } x\notin A\cup B\\ \quad f(x)=1, &\text{ αν } x\in A\\ \quad f(x)=0, &\text{ αν } x\in B\end{cases} \end{equation} και εφαρμόσουμε το Θεώρημα επιλεκτικής διακοπής για τον χρόνο διακοπής \(T_N=T_{A\cup B}\wedge N\), παίρνουμε ότι \begin{align*} f(x)&=\Ex{M^f_{T_N}}=\Ex{f(X_{T_N})-\sum_{k=0}^{T_N-1}Lf(X_k)}=\Ex{f(X_{T_N})},\quad\text{για κάθε } N\in\N, \end{align*} όπου στην τελευταία ισότητα χρησιμοποιήσαμε ότι πριν τον χρόνο \(T_N\), η αλυσίδα οπωσδήποτε βρίσκεται εκτός των \(A\) και \(B\), οπότε \(Lf(X_k)=0\) στο παραπάνω άθροισμα. Προσέξτε ότι η εξίσωση που η \(f\) ικανοποιεί εκτός των \(A\) και \(B\), επιλέχθηκε ακριβώς ώστε να απλοποιήσει την παραπάνω έκφραση. Προσέξτε ακόμη ότι οι συνοριακές συνθήκες για την \(f\) έχουν έτσι επιλεγεί, ώστε περνώντας στο όριο (όταν αυτό είναι δυνατόν) το δεξί μέλος να μας δίνει την πιθανότητα \(\Px{ T_A < T_B } \).

Ανάλογα μπορεί να σκεφτεί κανείς και για τη λύση \(f\) του ΠΣΤ 3.13 \begin{equation} \begin{cases} \quad Lf(x)=-1, & \text{ αν } x\notin A\\ \quad f(x)=0, &\text{ αν } x\in A.\end{cases} \end{equation} Εδώ έχουμε επιλέξει την εξίσωση που ικανοποιεί η \(f\) εκτός του \(A\), ώστε το άθροισμα \[ -\sum_{k=0}^{T_N-1}Lf(X_k)=T_N \] να εμφανίζει την ποσότητα της οποίας την αναμενόμενη τιμή θέλουμε να βρούμε. Επιπλέον, οι μηδενικές συνοριακές συνθήκες εξασφαλίζουν ότι δεν θα έχουμε άλλους ανεπιθύμητους όρους.

Παράδειγμα 4.12 Στον απλό, συμμετρικό τυχαίο περίπατο θέλουμε να υπολογίσουμε τον αναμενόμενο αριθμό των επισκέψεων στο μηδέν πριν από τον χρόνο εξόδου \(T_R=\inf\{k\ge 0: |S_k|=R\},\) δηλαδή την \[ \Ex{V(T_R)}=\Ex{\sum_{k=0}^{T_R-1}\delta_{0}(X_k)}. \]
Θα θέλαμε να χρησιμοποιήσουμε το Θεώρημα επιλεκτικής διακοπής για τη \(\ma\)\(\{M^f_n\}_{n\in\N_0}\), όπου η \(f\) είναι μια συνάρτηση που ικανοποιεί το ΠΣΤ \[ \begin{cases} \quad Lf(x) = - \delta_0 (x), & \text{ αν } |x| < R \\ \quad f(x) = 0, & \text{ αν } |x| > R. \end{cases} \] Πράγματι, με αυτή την επιλογή έχουμε ότι \[ -\sum_{k=0}^{T_N-1}Lf(X_k)=\sum_{k=0}^{T_R-1}\delta_{0}(X_k). \] Επιπλέον, λόγω των συνοριακών συνθηκών, θα έχουμε μηδενική συνεισφορά από όρους της μορφής \(f(X_{T_R})\). Δεν είναι ιδιαίτερα δύσκολο να βρούμε μια συνάρτηση με αυτές τις ιδιότητες. Η συνθήκη \[ Lf(x)=0\Leftrightarrow \frac{f(x+1)+f(x-1)}{2}-f(x)=0\Leftrightarrow f(x+1)-f(x)=f(x)-f(x-1), \ x=1,2,\ldots,R-1, \] επιβάλλει η \(f\) να είναι γραμμική για \(x\ge 0\). Για να ικανοποιήσουμε ταυτόχρονα την συνοριακή συνθήκη στο \(R\), θα πρέπει επομένως να έχουμε \(f(x)=A(R-x)\) για \(x=0,1,\ldots,R\). Ομοίως, θα πρέπει \(f(x)=B(R+x)\), για \(x=0,-1,\ldots,-R\). Θέτοντας \(x=0\) στους δύο κλάδους παίρνουμε ότι \(f(0)=AR=BR\), επομένως έχουμε \(A=B\) και \[ f(x)=A(R-|x|),\qquad x\in\{-R,-R+1,\ldots,R-1,R\}. \] Θα υπολογίσουμε τώρα τη σταθερά \(A\), ώστε \(Lf(0)= -1\). Έχουμε όμως \[ Lf(0)=\frac{f(1)+f(-1)}{2}-f(0)=-A, \] επομένως \(f(x)=R-|x|.\) Εφαρμόζουμε τώρα το Θεώρημα επιλεκτικής διακοπής για τη \(\{M^f_n\}_n\) και τον χρόνο διακοπής \(T_R\wedge N\). \begin{align*} R-|x|&=\Ex{M^f_{T_R\wedge N}}=\Ex{f(X_{T_R\wedge N})}+\Ex{V(T_R\wedge N)}\\ &=\Ex{\,\big(R-|X_N|\big)1\!\!1\{T_R>N\}\,}+\Ex{\sum_{k=0}^{T_R\wedge N-1}\delta_{0}(X_k)}. \end{align*}

Ο πρώτος όρος του δεξιού μέλους φράσσεται από την \(R\Px{T_R>N}\to R\Px{T_R=\infty}=0\), αφού η ακολουθία ενδεχομένων \(C_N=\{T_R>N\}\) είναι φθίνουσα και \(\cap_N C_N=\{T_R=\infty\}\). Για τον δεύτερο όρο, μπορούμε είτε να χρησιμοποιήσουμε το Θεώρημα μονότονης σύγκλισης (Πόρισμα 1.6 στο [Varadhan01]), είτε να ελέγξουμε, με τη βοήθεια του Θεωρήματος Fubini-Tonelli, ότι \[ \Ex{\sum_{k=0}^{T_R\wedge N-1}\delta_{0}(X_k)}=\sum_{k=0}^{N-1}\Ex{\delta_0(X_k)1\!\!1\{T_R>k\}}. \] Έχουμε τότε ότι \[ \lim_{N\to\infty}\Ex{\sum_{k=0}^{T_R\wedge N-1}\delta_{0}(X_k)}=\sum_{k=0}^{\infty}\Ex{\delta_0(X_k)1\!\!1\{T_R>k\}}=\Ex{\sum_{k=0}^{T_R-1}\delta_{0}(X_k)}. \] Επομένως, \[ \Ex{\sum_{k=0}^{T_R-1}\delta_{0}(X_k)}=R-|x|. \]

Παράδειγμα 4.13 Μπορούμε να χρησιμοποιήσουμε τις παραπάνω ιδέες για να δείξουμε ότι ο απλός, συμμετρικός τυχαίος περίπατος στο \(\Z^d\) είναι παροδικός για \(d>2\). Θυμηθείτε ότι όταν \(d=1\) ή 2, ο απλός, συμμετρικός τυχαίος περίπατος είναι επαναληπτικός. Για \(x=(x_1,\ldots,x_d)\in\Z^d\) ορίζουμε \[ |x|^2=\sum_{i=1}^dx_i^2 \] και \[ V(x)=|x|^{-\alpha},\ x\neq 0,\qquad V(0)=1. \] Αν \(0 < \alpha < d-2\), μπορεί κανείς να ελέγξει ότι υπάρχει μια σταθερά \(L = L (\alpha, d) > 0\), τέτοια ώστε \(LV(x)\le 0\), όταν \(|x|>L\). Αν ξεκινήσουμε τον περίπατο από κάποιο \(x\in\Z^d\), με \(|x|>L\) και ορίσουμε \(T_L=\inf\{k\ge 0: |X_k|\le L\}\) να είναι ο χρόνος πρώτης άφιξης του περιπάτου στη σφαίρα με κέντρο το 0 και ακτίνα \(L\), το Θεώρημα επιλεκτικής διακοπής δίνει ότι \[ |x|^{-\alpha}=V(x)=\Ex{V(X_{T_L\wedge N})}-\Ex{\sum_{k=0}^{T_L\wedge N-1}LV(X_k)}\ge\Ex{V(X_{T_L\wedge N})} \] Επιπλέον, \[ \Ex{V(X_{T_L\wedge N})}=\Ex{V(X_{T_L})1\!\!1\{T_L\le N\}}+\Ex{V(X_N)1\!\!1\{T_L>N\}}\ge L^{-\alpha}\Px{T_L\le N}. \] Συνδυάζοντας τις δύο παραπάνω σχέσεις, παίρνουμε ότι \[ \Px{T_L\le N}\le \left(\frac{L}{x}\right)^\alpha. \] Εφόσον τώρα η ακολουθία ενδεχομένων \(C_N=\{T_L\le N\}\) είναι αύξουσα και \(\cup_N C_N=\{T_L<\infty\}\), παίρνοντας το όριο καθώς \(N\to\infty\) έχουμε ότι \[ \Px{T_L<\infty}\le \left(\frac{L}{x}\right)^\alpha<1, \] επομένως ο περίπατος είναι παροδικός.
Θεώρημα 4.6 Έστω \(A\subset \X\) και \(g:A\to\R\) μια φραγμένη συνάρτηση. Αν \(\Px{T_A<\infty}=1\) για κάθε \(x\in A^c\), τότε το ΠΣΤ

\begin{equation} \begin{cases} \quad Lf(x)=0, &\text{ αν } x\notin A\\ \quad f(x)=g(x), &\text{ αν } x\in A\end{cases} \end{equation}

έχει το πολύ μια φραγμένη λύση, που δίνεται από την \[ f(x)=\Ex{g(X_{T_A})}. \]
Απόδειξη: Το ότι η \(\Ex{g(X_{T_A})}\) λύνει το ΠΣΤ (4.10) αποδεικνύεται με ανάλυση πρώτου βήματος, με τρόπο εντελώς ανάλογο με το Θεώρημα 3.1 του Κεφαλαίου 3 . Δείξτε το για εξάσκηση. Για τη μοναδικότητα, ας υποθέσουμε ότι η \(f\) είναι φραγμένη και ικανοποιεί το ΠΣΤ 4.10. Από το Θεώρημα επιλεκτικής διακοπής έχουμε ότι \begin{align*} f(x)&=\Ex{f(X_{T_A\wedge N})}-\Ex{\sum_{k=0}^{T_A\wedge N-1}Lf(X_k)}=\Ex{f(X_{T_A\wedge N})}\\ &=\Ex{g(X_{T_A})1\!\!1\{T_A\le N\}}+\Ex{f(X_{N})1\!\!1\{T_A> N\}}. \end{align*} Από την υπόθεση έχουμε ότι \(\Px{T_A=\infty}=0\). Αν λοιπόν η σταθερά \(Μ\) είναι ένα κοινό φράγμα των \(|f|\) και \(|g|\), τότε \[ \Big|\, \Ex{g(X_{T_A})1\!\!1\{T_A> N\}}+\Ex{f(X_{N})1\!\!1\{T_A> N\}}\, \Big|\le 2M\Px{T_A>N}\to 0. \]

Επομένως, παίρνοντας \(N\to\infty\) έχουμε ότι \(f(x)=\Ex{g(X_{T_A})}\).

\(\Box\)

4.10, τότε έχουμε έναν τρόπο για να υπολογίσουμε την \(\Ex{g(X_{T_A})}.\) Αντίστροφα, αν θέλουμε να λύσουμε το ΠΣΤ 4.10, που συχνά είναι μια εξίσωση διαφορών σε πολλές διαστάσεις, μπορούμε να βρούμε τη λύση προσεγγιστικά, προσομοιώνοντας τροχιές μιας μαρκοβιανής αλυσίδας με γεννήτορα \(L\) και εκτιμώντας τη μέση τιμή \(\Ex{g(X_{T_A})}\) με μεθόδους Monte Carlo.

4.5 Ασκήσεις

Άσκηση 4.1 Μπορούμε να φανταστούμε μια συνεχή συνάρτηση \(X:[0,1)\to\R\) ως μια τυχαία μεταβλητή ορισμένη στον δειγματικό χώρο \(\Omega=[0,1)\). Εφοδιάζουμε τον \(\Omega\) με το σύνηθες μέτρο που δίνει στα διαστήματα \([a,b)\) πιθανότητα \(b-a\). Ορίζουμε τώρα στον \(\Omega\) την τυχαία μεταβλητή \(Y\), με τιμές στο \(\{0,1,\ldots,9\}\) και τύπο \(Y(x)=k\) αν \(\frac{k}{10}\le x<\frac{k+1}{10},\ k=0,1,\ldots,9.\) Υπολογίστε με τη βοήθεια του Θεωρήματος 4.2 την \(\EE{X\,\big|\,Y}.\)
Άσκηση 4.2 Ρίχνουμε δύο ζάρια. Ανάλογα με το άθροισμα των ζαριών \(Y\), επιλέγουμε τυχαία έναν αριθμό \(X\) από το σύνολο \(\{1,2,\ldots,Y\}.\) Υπολογίστε την \(\EE{X\big| Y}\) και επιβεβαιώστε την ιδιότητα 2 του Θεωρήματος 4.2 .
Άσκηση 4.3 (ανισότητα Jensen) Αν η \(f:\R\to\R\) είναι μια κυρτή συνάρτηση, η γραφική της παράσταση είναι πάνω από την εφαπτομένη της σε οποιοδήποτε σημείο \((x_0,f(x_0))\) του γραφήματος της \(f\). Επομένως, για κάθε \(x_0,x\in\R\), \[ f(x)\ge f(x_0)+f'_{\pm}(x_0)(x-x_0). \] Με τη βοήθεια της παραπάνω ανισότητας δείξτε ότι, αν \(\EE{|X|}<\infty\) και \(Y\) είναι μια διακριτή τυχαία μεταβλητή, τότε \[ \EE{f(X)\,\big|\,Y}\ge f\Big(\EE{X\,\big|\,Y}\Big). \] Μια ειδική περίπτωση αυτής της ανισότητας είναι η ιδιότητα 5 του Θεωρήματος 4.2 , αφού η \(x\mapsto|x|\) είναι κυρτή.
Άσκηση 4.4 Ας θεωρήσουμε τον δειγματικό χώρο \(\Omega=[0,1)\) και την τυχαία μεταβλητή \(Z:\Omega\to\R\) με τύπο \(Z(x)=x^2,\ x\in\Omega.\) Ας θεωρήσουμε επίσης την ακολουθία τυχαίων μεταβλητών \(\xn\), όπου \[ X_n(x)=\frac{k}{2^n}, \ x\in[\frac{k}{2^n},\frac{k+1}{2^n}),\ k=0,1,\ldots, 2^{n}-1. \] Φτιάξτε τις γραφικές παραστάσεις των \(X_0,X_1,X_2,X_3\). Στη συνέχεια, με τη βοήθεια της Άσκησης 4.1, βρείτε τις \(M_n=\EE{Z\,\big|\, X_0,\ldots,X_n}\) για \(n=1,2,3\) και ζωγραφίστε τις γραφικές παραστάσεις τους.
Άσκηση 4.5 Ορίζουμε τη στοχαστική διαδικασία \(\{S_n\}_{n\in\N_0}\), με \(S_0=x>0\) και \(S_{n}=S_{n-1}X_{n},\ n\in\N\), όπου η \(\{X_n\}_{n\in\N}\) είναι μια ακολουθία από ανεξάρτητες τυχαίες μεταβλητές, με \[ \PP{X_n=u}=q\in(0,1),\qquad \PP{X_n=d}=1-q, \quad\text{για κάθε } n\in\N, \] όπου \(u,d>0.\) Βρείτε την ικανή και αναγκαία συνθήκη που πρέπει να πληρούν οι παράμετροι \(u,d,q\), ώστε η \(\{S_n\}_{n\in\N_0}\) να είναι \(\ma\). Είναι η στοχαστική διαδικασία \(\{\log S_n\}_{n\in\N_0}\) \(\ma\)?
Άσκηση 4.6 Δίνεται ένας περίπατος \(\{S_n\}_{n\in\N_0}\) στους ακεραίους, με \(S_0=x\in\Z\) και \[ S_n=x+\sum_{k=1}^nX_k,\ n\in\N, \] όπου οι \(\{X_k\}_{k\in\N}\) είναι ανεξάρτητες, ισόνομες τυχαίες μεταβλητές με \(\EE{X_k}=\mu\neq 0\). Δείξτε ότι η διαδικασία \(\{M_n\}_{n\in\N_0}\), με \(M_n=S_n-\mu n\) είναι \(\ma\).
Άσκηση 4.7 Ρίχνετε ένα ζάρι ώσπου το άθροισμα των ζαριών σας να φτάσει ή να ξεπεράσει τον αριθμό \(\nu\in\N\). Αν \(N\in\N\) είναι ο αριθμός των ζαριών που θα χρειαστεί να ρίξετε ώσπου να συμβεί αυτό, δείξτε ότι \[ \EE{N}>\frac{2\nu}{7}. \]
Άσκηση 4.8 Για τον απλό, συμμετρικό τυχαίο περίπατο στους ακεραίους \(\{S_n\}_{n\in\N_0}\), υπολογίστε τη σταθερά \(\alpha\) ώστε η διαδικασία \(\{M_n\}_{n\in\N_0}\) με \[ M_n=S_n^3-\alpha n S_n \] να είναι \(\ma\).
Άσκηση 4.9 'Εστω \(z\in(0,1)\). Για έναν απλό τυχαίο περίπατο στους ακεραίους, με \(p(x,x+1)=p\in(0,1)\) και \(p(x,x-1)=1-p\) για κάθε \(x\in\Z\), δείξτε ότι η στοχαστική διαδικασία \(\{M_n\}_{n\in\N_0}\), με \[ M_n=\alpha^{S_n}z^n,\quad n\in\N_0, \] είναι \(\ma\), αν και μόνο αν \[ \alpha=\frac{1\pm\sqrt{1-4p(1-p)z^2}}{2pz}. \] Στη συνέχεια, χρησιμοποιήστε το Θεώρημα επιλεκτικής διακοπής, για να δείξετε ότι, αν \(S_0=x\in\N\), η γεννήτρια συνάρτηση του χρόνου πρώτης άφιξης στο 0, \(T_0=\inf\{k\ge 0: S_k=0\}\) είναι η \[ \psi(z)=\Ex{z^{T_0}}=\left(\frac{1-\sqrt{1-4p(1-p)z^2}}{2pz}\right)^x, \ z\in(0,1). \] Η γεννήτρια συνάρτηση έχει όλη την πληροφορία για την κατανομή του χρόνου \(T_0\). Π.χ. έχουμε \[ \Px{T_0<\infty}=\lim_{z\uparrow 1}\psi(z)=\left(\frac{1-|1-2p|}{2p}\right)^x=\begin{cases} 1 &, p\le \half\\ \left(\frac{1-p}{p}\right)^x &, p>\half.\end{cases} \] Υπολογίστε με τη βοήθεια της \(\psi(z)\) και των παραγώγων της, τη μέση τιμή και τη διασπορά του \(Τ_0\).
Άσκηση 4.10 Μπορούμε να εμπλουτίσουμε τη γκάμα των \(\ma\) που σχετίζονται με μια μαρκοβιανή αλυσίδα \(\xn\) θεωρώντας συναρτήσεις που εξαρτώνται και από τον χρόνο. Δείξτε κατ' αναλογία με το Θεώρημα 4.5 ότι, αν \(\EE{|f(n,X_n)|}<\infty\) για κάθε \(n\in\N_0\), τότε η στοχαστική διαδικασία \(\{M^f_n\}_{n\in\N_0}\), με \(M^f_0=f(0,X_0)\) και \[ M^f_n=f(n,X_n)-\sum_{k=0}^{n-1} \left(f(n+1,X_k)-f(n,X_k)+Lf(X_k)\right),\quad \forall n\in\N, \] είναι \(\F_n\)-\(\ma\).
Άσκηση 4.11 Για να βρούμε την γεννήτρια συνάρτηση ενός χρόνου άφιξης \(T_A=\inf\{k\ge 0: X_k\in A\}\) \[ \psi(z)=\EE{z^{T_A}},\quad z\in(0,1), \] μπορούμε να θεωρήσουμε μια συνάρτηση \(f:\N_0\times X\to \R\) με τύπο \(f(n,x)=z^n h(x)\). Ποιο ΠΣΤ πρέπει να ικανοποιεί η συνάρτηση \(h:\X\to\R\), ώστε εφαρμόζοντας το Θεώρημα επιλεκτικής διακοπής για τη \(\ma\) της προηγούμενης άσκησης να βρίσκουμε την \(\psi(z)\)? Μπορείτε τώρα να βρείτε μόνοι σας γιατί επιλέξαμε τη συγκεκριμένη \(\ma\) στο Παράδειγμα 4.11 ?
Άσκηση 4.12 Θεωρήστε τον απλό, συμμετρικό τυχαίο περίπατο στους ακεραίους και τη συνάρτηση \(f:\Z\to\Z,\ f(k)=k^4\). Δείξτε ότι \(Lf(k)=6k^2+1\) και συμπεράνετε ότι η διαδικασία \(\{M_n\}_{n\in\N_0}\), με \(M_0=0\) και \[ Μ_n=X_n^4-X_n^2-6\sum_{k=0}^{n-1}X_k^2, \quad \forall n\in\N, \] είναι martingale. Αν \(X_0=0\) και \(T_R=\inf\{k\ge 0:\ |X_k|=R\}\) είναι ο χρόνος πρώτης εξόδου από το \(\{-R+1,\ldots,R-1\}\), υπολογίστε την \[ \E\Big[\sum_{k=1}^{T_N}X_k^2\Big]. \]
Άσκηση 4.13 Παίζουμε ένα ευνοϊκό παιχνίδι στο οποίο σε κάθε γύρο με πιθανότητα \(p \in(\half,1)\) διπλασιάζουμε το στοίχημά μας και με πιθανότητα \(1−p\) χάνουμε το ποσόν που στοιχηματήσαμε. Ξεκινάμε με αρχική περιουσία \(S_0>0\) και αμέσως πριν τον \(n\)-οστό γύρο μπορούμε να στοιχηματήσουμε οποιοδήποτε ποσόν \(C_n\) μεταξύ του 0 και της περιουσίας μας μέχρι εκείνη τη στιγμή \(S_{n-1}.\) Επομένως, αμέσως μετά το \(n\)-οστό γύρο η περιουσία μας θα είναι \[ S_n = S_{n-1} + C_nX_{n}, \] όπου οι \(\{X_k\}_{k\in\N}\) είναι ανεξάρτητες, ισόνομες τυχαίες μεταβλητές, που παίρνουν την τιμή +1 με πιθανότητα \(p\) και την τιμή -1 με πιθανότητα \(1 − p.\) Η \(C_n\) πρέπει να ικανοποιεί την ανισότητα \(0\le C_n\le S_{n-1}\) και μπορεί να εξαρτάται από τα αποτελέσματα των προηγούμενων γύρων, θα πρέπει όμως οπωσδήποτε να είναι \(\F_{n-1}\)-μετρήσιμη. Ο σκοπός μας είναι να βρούμε μια στρατηγική που μεγιστοποιεί τον αναμενόμενο ρυθμό μεγέθυνσης \[ r_n = \frac{1}{n}\EE{\log(S_n /S_0)}. \] Δείξτε ότι, ανεξαρτήτως της στρατηγικής βάσει της οποίας επιλέγουμε τα στοιχήματά μας, η στοχαστική διαδικασία \(\{M_n\}_{n\in\N_0}\) με τύπο \[ M_n = \log(S_n) − nH(p),\qquad\text{όπου } H(p)=p\log p+(1−p)\log(1−p)+\log2\] ικανοποιεί την ανισότητα \[ \EE{M_{n+1}\,\big|\,\F_n}\le M_n \] και συμπεράνετε ότι \(r_n\le H(p)\) για κάθε \(n\in\N\). Βρείτε τώρα μια στρατηγική (έναν τρόπο να επιλέγετε τα στοιχήματά σας \(\{C_n\}_{n\in|N}\)), τέτοια ώστε η \(\{M_n\}_{n\in\N_0}\) να είναι martingale και δείξτε ότι με αυτή τη στρατηγική έχουμε \[ \lim_{N\to\infty} \frac{1}{n}\log\left(\frac{S_n}{S_0}\right)=H(p), \] με πιθανότητα 1.

4.6 Αριθμητικά πειράματα

Άσκηση 4.14 Θεωρούμε το δισδιάστατο πλέγμα \(h\Z^2=\{hz: z\in\Z^2\}\). Αν \(f:h\Z^2\to\R\), η διακριτή Λαπλασιανή της \(f\) δίνεται από τον τύπο \[ \Delta_hf(x,y)=\frac{f(x+h,y)+f(x-h,y)+f(x,y+h)+f(x,y-h)-4f(x,y)}{h^2}. \] Θέλουμε να υπολογίσουμε τη λύση του προβλήματος συνοριακών τιμών \[ \begin{cases} \Delta_hf(x,y)=0, &\text{ αν } |x|,|y|< 1\\ f(x,y)=|\sin(\pi x)-\sin(\pi y)|, &\text{ αν } |x|=1,\text{ ή } |y|=1, \end{cases} \] για \(h=0.01\), σύμφωνα με το αποτέλεσμα του Θεωρήματος 4.6. H ρουτίνα srw2d.py προσομοιώνει \(N=10.000\) βήματα ενός απλού, συμμετρικού τυχαίου περιπάτου στο \(\Z^2\) και υπολογίζει την αναμενόμενη τιμή \(\EE{|X_N|}\) με τη μέθοδο Monte Carlo. Προσομοιώνοντας μονοπάτια ενός απλού, συμμετρικού τυχαίου περιπάτου στο \(\Z^2\), εκτιμήστε την τιμή της λύσης του παραπάνω ΠΣΤ στο σημείο (1/2,1/4). Θα χρειαστεί να αλλάξετε τον κώδικα ώστε η προσομοίωση να σταματάει όχι τη συγκεκριμένη χρονική στιγμή \(N\), αλλά στον χρόνο άφιξης του περιπάτου στο σύνορο.
Άσκηση 4.15 Σκοπός αυτής της άσκησης είναι να οπτικοποιήσουμε την κίνηση μιας μαρκοβιανής αλυσίδας. Κατεβάστε τον οδηγό animationguide.pdf και ακολουθήστε τα βήματα που περιγράφονται εκεί. Δείξτε τα διαδοχικά στιγμιότυπα ενός γκέιμ τένις, τρέχοντας τον κώδικα tennis.py που λύνει την Άσκηση 3.16 .

4.7 Βιβλιογραφία

ΚΕΦΑΛΑΙΟ ΙV | ΠΕΡΙΕΧΟΜΕΝΑ | ΚΕΦΑΛΑΙΟ V