\(\newcommand{\PP}[1]{\P\big[#1\big]} \newcommand{\Px}[1]{\P_x\big[#1\big]} \newcommand{\EE}[1]{\E\big[#1\big]} \newcommand{\Ex}[1]{\E_x\big[#1\big]} \newcommand{\en}[1]{\textlatin{#1}} \def\N{\mathbb{N}} \def\Z{\mathbb{Z}} \def\X{\mathbb{X}} \def\Y{\mathbb{Y}} \def\P{\mathbb{P}} \def\Q{\mathbb{Q}} \def\E{\mathbb{E}} \def\R{\mathbb{R}} \def\MX{{\cal M}(\X)} \def\F{{\cal F}} \def\xn{\{X_n\}_{n\in\N_0}} \def\half{\frac{1}{2}} \def\IP{{\cal I}(P)} \def\mrtx{\E_x\big[T_x^+\big]} \def\ma{\en{martingale}} \)
Σ' αυτό το κεφάλαιο θα ορίσουμε τις διαδικασίες Poisson και θα μελετήσουμε τις βασικές τους ιδιότητες. Οι διαδικασίες αυτές είναι ίσως οι απλούστερες μη τετριμμένες διαδικασίες συνεχούς χρόνου. Οι τροχιές τους αυξάνουν στους ακεραίους και οι χρόνοι που μεσολαβούν ανάμεσα σε διαδοχικές αυξήσεις είναι ανεξάρτητες εκθετικές τυχαίες μεταβλητές. Οι διαδικασίες αυτές είναι ένα καλό μοντέλο για διακριτές αφίξεις τυχαίων συμβάντων σε συνεχή χρόνο, όπως π.χ. οι κλήσεις που δέχεται το τηλεφωνικό κέντρο του ΕΚΑΒ, οι διασπάσεις των πυρήνων ενός ραδιενεργού υλικού, οι αφίξεις φωτονίων σε μια φωτοδίοδο, τα αιτήματα που δέχεται ένας εξυπηρετητής και πολλά άλλα. Υπάρχουν πολλά καλά βιβλία στα οποία μπορεί να βρει κανείς μια εισαγωγή στις διαδικασίες Poisson, μερικά απ' αυτά είναι το [Bertsekas02] και το [Norris98]
Συνήθως σ' αυτό το βιβλίο περιγράφουμε εξαρχής μια στοχαστική
διαδικασία μέσω των κατανομών πεπερασμένης διάστασης. Σ' αυτό το
κεφάλαιο θα κάνουμε μια εξαίρεση. Θα δώσουμε πρώτα έναν κατασκευαστικό,
διαισθητικό ορισμό για τις διαδικασίες Poisson και στη συνέχεια θα
υπολογίσουμε τις κατανομές πεπερασμένης διάστασης.
Φανταστείτε ότι επαναλαμβάνετε ανεξάρτητες δοκιμές Bernoulli
με πιθανότητα επιτυχίας \(p\) και σημειώνετε τις επιτυχείς δοκιμές.
Ανάμεσά τους μεσολαβεί ένας τυχαίος αριθμός προσπαθειών, που ακολουθεί
γεωμετρική κατανομή με παράμετρο \(p\). Αν σε μια μονάδα φυσικού
χρόνου προλαβαίνετε να κάνετε \(\nu\) δοκιμές, τότε ο ρυθμός με τον
οποίο έρχονται επιτυχίες είναι \(\nu p\). Aς κάνουμε ξανά το πείραμα,
αυτή τη φορά όμως ας κάνουμε τις δοκιμές με διπλάσια ταχύτητα αλλά με
τη μισή πιθανότητα επιτυχίας. Αυτή τη φορά οι προσπάθειες που
μεσολαβούν ανάμεσα σε διαδοχικές επιτυχίες είναι στατιστικά
περισσότερες, αφού ακολουθούν γεωμετρική κατανομή με παράμετρο \(p/2\).
Επειδή όμως στη μονάδα του χρόνου κάνουμε διπλάσιες προσπάθειες, ο
ρυθμός με τον οποίο σημειώνονται επιτυχίες στον πραγματικό χρόνο θα
παραμείνει \(\nu p\). Μπορούμε να συνεχίσουμε να πολλαπλασιάζουμε την
ταχύτητα με την οποία εκτελούμε τις δοκιμές και να μειώνουμε αντίστοιχα
την πιθανότητα επιτυχίας μας. Αν κάνουμε \(N\nu\) δοκιμές ανά μονάδα
χρόνου με πιθανότητα επιτυχίας σε κάθε δοκιμή \(p/N\), τότε καθώς το
\(N\) μεγαλώνει, θα μεσολαβούν όλο και περισσότερες προσπάθειες ανάμεσα
σε διαδοχικές επιτυχίες. Eπειδή όμως και το πλήθος των προσπάθειων που
προλαβαίνουμε να κάνουμε ανά μονάδα χρόνου μεγαλώνει ανάλογα, ο ρυθμός
με τον οποίον σημειώνονται επιτυχίες σε πραγματικό χρόνο δεν θα
αλλάξει. Στο όριο καθώς το \(N\to\infty\), ο πραγματικός χρόνος
ανάμεσα με διαδοχικές επιτυχίες ακολουθεί εκθετική κατανομή και η
διαδικασία που μετρά τις επιτυχίες μας στον πραγματικό χρόνο είναι μια
διαδικασία Poisson με ρυθμό \(\nu p\).
Ας θεωρήσουμε έναν χώρο πιθανότητας \(\Omega\), στον οποίο
είναι ορισμένη μια ακολουθία \(\{E_j\}_{j\in\N}\) από ανεξάρτητες,
εκθετικές, τυχαίες μεταβλητές, με παράμετρο \(\lambda\). Επομένως,
Μια καθοριστική ιδιότητα που έχουν οι εκθετικές τυχαίες μεταβλητές είναι η ιδιότητα της απώλειας μνήμης (memoryless property). Για κάθε \(s,t\ge 0:\ \PP{E_j>t+s\,\big|\ E_j>t}=\PP{E_j>s}\). Ορίζουμε ακόμα
\[ S_0=0\quad \text{και } S_n=S_{n-1}+E_n, \text{για κάθε } n\in\N. \]Οι μεταβλητές \(\{E_j\}_{j\in\N}\) μοντελοποιούν τον χρόνο ανάμεσα σε διαδοχικές αφίξεις, οπότε οι μεταβλητές \(\{S_j\}_{j\in\N}\) είναι οι χρόνοι στους οποίους αυτές οι αφίξεις συμβαίνουν. Η διαδικασία Poisson \(\{N_t\}_{t\ge 0}\) με ρυθμό \(\lambda\) μετρά πόσες τέτοιες αφίξεις έχουν συμβεί μέχρι την εκάστοτε χρονική στιγμή, δηλαδή
\begin{equation} N_t(\omega)=\sup\{k\in\N_0: S_k(\omega)\le t\},\quad t\ge 0,\omega\in\Omega. \end{equation}
Απόδειξη: Από τον ορισμό της διαδικασίας Poisson είναι προφανές ότι οι τροχιές της είναι αύξουσες, αφού, αν \(0\le t_1\le t_2\), τότε
\[ \{k\in\N_0: S_k(\omega)\le t_1\}\subset\{k\in\N_0: S_k(\omega)\le t_2\}. \]Για την (2) αρκεί να δείξουμε ότι
\begin{equation} \PP{N_t<+\infty,\ \text{για κάθε } t\ge 0}=1. \end{equation}
Από τη μονοτονία της διαδικασίας αρκεί να δείξουμε ότι \[ 1=\PP{N_n<+\infty,\ \text{για κάθε } n\in\N}=\PP{\bigcap_{n\in\N}\{N_n<+\infty\}}=\lim_{n\to\infty}\PP{N_n<+\infty} \]
Αν \(\omega\in\{S_k\to\infty\}\), υπάρχει ένα \(k_0(\omega,n)\)
τέτοιο ώστε \(S_k(\omega)>n\) για όλα τα \(k>k_0(\omega,n)\).
Επομένως, \(N_n(\omega)\le k_0(\omega,n)\) και ειδικότερα
\(N_n(\omega)<+\infty\). Aπό τον νόμο των μεγάλων αριθμών έχουμε όμως
ότι \(\PP{S_k\to\infty}=1\), επομένως \(\PP{N_n<+\infty}=1\), απ' όπου
προκύπτει όπως είδαμε η (8.2).
Για την (3) προσέξτε ότι, αν για κάποια \(\omega\in\Omega,\
t\ge 0\) είχαμε ότι \(N_{t+}(\omega)\ge N_t(\omega)+1\), τότε θα έπρεπε
να υπάρχει κάποιο \(k\in\N_0\) τέτοιο ώστε
Όμως \(N_t=k\Rightarrow S_{k+1}>t\), ενώ \(Ν_{t+\frac{1}{n}}\ge k+1\) για κάθε \(n\in\N\ \Rightarrow S_{k+1}\le t+\frac{1}{n}\) για κάθε \(n\in\N\). Θα έπρεπε επομένως
\[ S_{k+1}\in\bigcap_{n\in\N}\big(t,t+\frac{1}{n}\big]=\emptyset. \]Θα δείξουμε τέλος την (4), η οποία συνεπάγεται ότι μια διαδικασία Poisson ξαναγεννιέται μετά από κάθε άλμα της και το μέλλον της είναι ανεξάρτητο του παρελθόντος της. Η ιδέα είναι ότι μετά το \(m\)-οστό άλμα της, η διαδικασία μετρά τις αφίξεις που υπαγορεύονται από τις \(E_{m+1},E_{m+2},\ldots.\) Συγκεκριμένα έχουμε ότι \begin{align*} N_{S_m+t}&=\max\{k\in\N: S_k\le S_m+t\}=\max\{k\in\N: \sum_{j=m+1}^k E_j\le t\}\\ &=\max\{k\in\N: \sum_{j=1}^{k-m}E_{j+m}\le t\}=m+\max\{r\in\N: \sum_{j=1}^rE_{j+m}\le t\}. \end{align*} Επομένως,
\[ \tilde{N}_t=\max\{r\in\N: \sum_{j=1}^rE_{j+m}\le t\}. \]Όμως οι \(E_{m+1},E_{m+2},\ldots\) είναι ανεξάρτητες, ισόνομες, εκθετικές, τυχαίες μεταβλητές με παράμετρο \(\lambda\) και είναι ανεξάρτητες από τις \(E_1,\ldots,E_m\), οπότε το ζητούμενο προκύπτει από τον ορισμό της διαδικασίας Poisson.
\(\Box\)
Θα υπολογίσουμε τώρα τις κατανομές πεπερασμένης διάστασης της \(\{N_t\}_{t\ge 0}\). Θα ξεκινήσουμε από τις μονοδιάστατες κατανομές.Απόδειξη: Για \(k=0\) έχουμε \(\PP{N_t=0}=\PP{E_1>t}=e^{-\lambda t}.\) Για \(k\in\N\) έχουμε
\begin{equation} \PP{N_t=k}=\PP{S_k\le t,\ S_{k+1}>t}=\PP{S_k\le t}-\PP{S_k\le t,\ S_{k+1}\le t}=\PP{S_k\le t}-\PP{S_{k+1}\le t}. \end{equation}
Εφόσον όμως οι \(\{E_j\}_{j\in\N}\) είναι ανεξάρτητες, με \(E_j\sim exp(\lambda)=G(\lambda,1)\), έχουμε ότι \[ S_k=\sum_{j=1}^kE_j\sim G(\lambda,k) \] και η συνάρτηση πυκνότητας πιθανότητά της είναι η \[ f_k(x)=\begin{cases}\frac{\lambda^k}{(k-1)!}x^{k-1}e^{-\lambda x}, &\text{ αν }x\ge 0\\ 0, &\text{ αν } x<0.\end{cases} \] Επομένως, η (8.3) γίνεται \[ \PP{N_t=k}=\int_{0}^t\frac{\lambda^k}{(k-1)!}x^{k-1}e^{-\lambda x}\, dx - \int_{0}^t \frac{\lambda^{k+1}}{k!}x^{k}e^{-\lambda x}\, dx=\left[\frac{\lambda^k}{k!}x^ke^{-\lambda x}\right]_0^t=e^{-\lambda t}\frac{(\lambda t)^k}{k!}. \] Συμπεραίνουμε λοιπόν ότι \(N_t\sim Po(\lambda t).\)\(\Box\)
Απόδειξη: Αρκεί να δείξουμε ότι δεδομένου ότι \(N_s=m\), η \(\{\tilde{N}_t\}_{t\ge 0}\) είναι διαδικασία Poisson με ρυθμό \(\lambda\) και ανεξάρτητη από τις \(E_1,\ldots,E_m\), αφού σε αυτό το ενδεχόμενο
\[ N_r=\sum_{k=1}^m1\!\!1\{E_k\le r\}, \quad\text{για κάθε } r\le s. \] Οι χρόνοι ανάμεσα στα άλματα της \(\{\tilde{N}_t\}_{t\ge 0}\) είναι \[ \tilde{E}_1=E_{m+1}-(s-S_m),\quad\tilde{E}_2=E_{m+2},\ldots,\tilde{E}_k=E_{m+k},\ldots \]Το ενδεχόμενο ως προς το οποίο δεσμεύουμε \(\{N_s=m\}=\{S_m\le s,\ S_{m+1}>s\}\) εξαρτάται μόνο από τις \(E_1,\ldots,E_{m+1}\). Επομένως, με δεδομένο το \(\{N_s=m\}\), οι \(\tilde{E}_2,\tilde{E}_3,\ldots\) συνεχίζουν να είναι ανεξάρτητες, ισόνομες, εκθετικές τυχαίες μεταβλητές, με παράμετρο \(\lambda\) και είναι ανεξάρτητες από την \(\tilde{E}_1\) που εξαρτάται μόνο από τις \(E_1,\ldots,E_{m+1}\). Μένει να δείξουμε ότι η δεσμευμένη κατανομή της \(\tilde{E}_1\), δεδομένου του \(\{N_s=m\}\), είναι εκθετική με παράμετρο \(\lambda\), δηλαδή
\[ \PP{\tilde{E}_1>t\,\big|\, N_s=m}=e^{-\lambda t},\quad\text{για κάθε } t\ge 0. \]Έχουμε τώρα για κάθε \(t\ge 0\) \begin{align*} \PP{\tilde{E}_1>t\,\big|\, N_s=m}&=\PP{E_{m+1}+S_m>t+s\,\big|\, S_m\le s, S_m+E_{m+1}>s}\\ &=\frac{\int_0^sf_m(x)\PP{E_{m+1}>t+s-x\big|\,E_{m+1}>s-x}\PP{E_{m+1}>s-x}\,dx}{\int_0^sf_m(x)\PP{E_{m+1}>s-x}\,dx}\\ &=e^{-\lambda t}, \end{align*} από την ιδιότητα απώλειας μνήμης της εκθετικής κατανομής.
\(\Box\)
Παρατήρηση: Το προηγούμενο
θεώρημα εξασφαλίζει ότι η διαδικασία Poisson έχει ανεξάρτητες και
χρονικά ομοιογενείς προσαυξήσεις. Συγκεκριμένα, για κάθε \(s\ge 0\) η
προσαύξηση \(N_t-N_s\) είναι ανεξάρτητη από τις προηγούμενες τιμές της
διαδικασίας και ακολουθεί την ίδια κατανομή όπως η \(N_{t-s}\),
δηλαδή \(Po\big(\lambda(t-s)\big).\) Θα δούμε τώρα πώς αυτή η
πληροφορία καθορίζει τις κατανομές πεπερασμένης διάστασης της
\(\{N_t\}_{t\ge 0}\).
Έστω \(t_0=0\le t_1\le t_2\le\cdots\le t_n\). Για
οποιουσδήποτε ακέραιους \(k_0=0\le k_1\le k_2\le \cdots\le k_n\)
έχουμε \begin{align*}
\PP{N_{t_1}&=k_1,N_{t_2}=k_2,\ldots,N_{t_n}=k_n}\\
&=\PP{N_{t_1}=k_1}\PP{N_{t_2}=k_2\,|N_{t_1}=k_1}\cdots\PP{N_{t_n}=k_n\,|\,
N_{t_1}=k_1,\ldots,N_{t_{n-1}}=k_{n-1}}\\
&=\PP{N_{t_1}=k_1}\PP{N_{t_2}-N_{t_1}=k_2-k_1}\cdots\PP{N_{t_n}-N_{t_{n-1}}=k_n-k_{n-1}}\\
&=\PP{N_{t_1}=k_1}\PP{N_{t_2-t_1}=k_2-k_1}\cdots\PP{N_{t_n-t_{n-1}}=k_n-k_{n-1}}\\
&=e^{-\lambda t_n}\frac{(\lambda t_n)^{k_n}}{k_n!}{k_n\choose
k_1,k_2-k_1,\ldots,k_n-k_{n-1}}\prod_{i=0}^{n-1}\left(\frac{t_{i+1}-t_i}{t_n}\right)^{k_{i+1}-k_i}.
\end{align*} Μπορεί κανείς να παρατηρήσει, διαιρώντας τα δύο μέλη με
την \(\PP{N_{t_n}=k_n}=e^{-\lambda t_n}\frac{(\lambda
t_n)^{k_n}}{k_n!}\), ότι, δεδομένου του πλήθους των αφίξεων \(k_n\) στο
διάστημα \((0,t_n]\), οι αφίξεις που σημειώθηκαν στα διαστήματα
ακολουθούν πολυωνυμική κατανομή με πιθανότητα επιτυχίας για κάθε διάστημα \(p_k=\frac{t_k-t_{k-1}}{t_n}\), ίση δηλαδή με το κλάσμα του μήκους του διαστήματος \(I_k\) στο συνολικό μήκος \(t_n\). Με διαφορετικά λόγια, δεδομένου ότι μέχρι τη χρονική στιγμή \(t_n\) είχαμε \(k_n\) αφίξεις, η κατανομή αυτών των αφίξεων στα διαστήματα \(I_1,I_2,\ldots,I_n\) είναι ίδια όπως αν τοποθετούσαμε τις \(k_n\) αφίξεις ανεξάρτητα και ομοιόμορφα στο διάστημα \((0,t_n]\). Αυτό ακριβώς είναι το περιεχόμενο του επόμενου θεωρήματος.
\begin{equation} g(s_1,s_2,\ldots,s_n)=n!\,t^{-n}1\!\!1\{0\le s_1\le s_2\le\cdots\le s_n\le t\}. \end{equation}
Απόδειξη: Η από κοινού συνάρτηση πυκνότητας πιθανότητας των \(E=(E_1,E_2,\ldots, E_n, E_n+1)\) είναι η
\[ f(t_1,t_2,\ldots,t_n,t_{n+1})=\lambda^{n+1}e^{-\lambda t_1+\cdots+\lambda t_{n+1}}1\!\!1\{t_1,\cdots,t_{n+1}\ge 0\}. \]Ο γραμμικός μετασχηματισμός \(\Phi\), για τον οποίο έχουμε \(S=\Phi(E)\), όπου \(S=(S_1,S_2,\ldots,S_n,S_{n+1})\), έχει ορίζουσα 1. Επομένως, η συνάρτηση πυκνότητας πιθανότητας των\((S_1,S_2,\ldots,S_n,S_{n+1})\) είναι
\[ f(s_1,s_2-s_1,\ldots, s_{n+1}-s_n)=\lambda^{n+1}e^{-\lambda s_{n+1}}1\!\!1\{0\le s_1\le s_2\le\cdots\le s_{n+1}\}. \]Έχουμε τώρα ότι για \(A\subset \R^n\) \begin{align*} \PP{(S_1,\ldots,S_n)\in A, N_t=n}&=\PP{(S_1,\ldots,S_n)\in A, S_n\le t, S_{n+1}>t}\\ &=\lambda^{n+1}\int_{A}\int_{t}^\infty e^{-\lambda s_{n+1}}1\!\!1\{0\le s_1\le s_2\le\cdots\le s_{n}\le t\} ds_{n+1}ds_1\cdots ds_n\\ &=\lambda^ne^{-\lambda t}\int_{A}1\!\!1\{0\le s_1\le s_2\le\cdots\le s_{n}\le t\}ds_1\cdots ds_n. \end{align*} Από το Λήμμα 8.3 έχουμε όμως ότι \(\PP{N_t=n}=e^{-\lambda t}\frac{(\lambda t)^n}{n!}\). Επομένως, η δεσμευμένη συνάρτηση πυκνότητας πιθανότητας των \(S_1,\ldots,S_n\), δεδομένου ότι \(N_t=n\), είναι η \(g\) της (8.4). Αυτή όμως είναι η πυκνότητα της μιας διατεταγμένης κατά μέγεθος \(n\)-άδας ανεξάρτητων, ισόνομων τυχαίων μεταβλητών, με ομοιόμορφη κατανομή στο \([0,t]\).
\(\Box\)
Προσέξτε ότι το αποτέλεσμα είναι ανεξάρτητο από τον ρυθμό των
αφίξεων της διαδικασίας. Ο ρυθμός επηρεάζει οπωσδήποτε το πλήθος των
αφίξεων μέχρι τη στιγμή \(t\). Με δεδομένο όμως το πλήθος των αφίξεων,
ο ρυθμός δεν έχει καμία άλλη πληροφορία για το πώς κατανέμονται αυτές
οι αφίξεις στο διάστημα \((0,t]\). Όπως είδαμε, αρκεί να τις
τοποθετήσουμε τυχαία (ανεξάρτητα και ομοιόμορφα) σ' αυτό το διάστημα.
Σύμφωνα με το προηγούμενο Θεώρημα, θα μπορούσαμε να
προσομοιώσουμε ένα μονοπάτι μιας διαδικασίας Poisson με ρυθμό
\(\lambda\) στο χρονικό διάστημα \([0,t]\) ως εξής. Αρχικά επιλέγουμε
το πλήθος των αφίξεων που θα έχουμε συνολικά σ' αυτό το διάστημα από
την κατανομή Poisson με ρυθμό lambda. Έχοντας επιλέξει το πλήθος των
αφίξεων \(n\), επιλέγουμε ομοιόμορφα και ανεξάρτητα \(n\) σημεία στο
\([0,t]\). Αυτά είναι και τα σημεία που θα κάνει άλμα κατά 1 το
μονοπάτι.
Παράδειγμα 8.1 Τα τηλεφωνήματα
που δέχεται το ΕΚΑΒ μεταξύ 6 το πρωί και 12 το μεσημέρι είναι μια
διαδικασία Poisson με ρυθμό 10/ώρα. Αν από τις 6 μέχρι τις 9 έγιναν δέκα
τηλεφωνήματα, ποια είναι η πιθανότητα να έγινε ένα ακριβώς την πρώτη
ώρα;
Αν \(\{N_t\}_{t\ge 0}\) είναι η διαδικασία που μετρά τα
τηλεφωνήματα μετά τις 6, ψάχνουμε για την
όπου \(s=\)1 ώρα και \(t=\) 3 ώρες. Μπορούμε να λύσουμε το πρόβλημα με δύο τρόπους. Εκμεταλλευόμενοι τις ανεξάρτητες προσαυξήσεις της διαδικασίας έχουμε \begin{align*} \PP{N_s=1\,\big|\, N_t=10}&=\frac{\PP{N_s=1,\, N_t=10}}{\PP{N_t=10}}=\frac{\PP{N_s=1,\, N_t-N_s=9}}{\PP{N_t=10}}\\ &=\frac{e^{-\lambda s}\frac{(\lambda s)^1}{1!}e^{-\lambda (t-s)}\frac{\big(\lambda (t-s)\big)^9}{9!}}{e^{-\lambda t}\frac{(\lambda t)^{10}}{10!}}=10\times 2^9\times 3^{-10}. \end{align*} Στο ίδιο αποτέλεσμα θα μπορούσαμε να φτάσουμε και χρησιμοποιώντας το Θεώρημα 8.3. Δεδομένου ότι έχουμε 10 τηλεφωνήματα, αυτά κατανέμονται ανεξάρτητα και ομοιόμορφα στο διάστημα \((0,t]\). Έχουμε λοιπόν 10 ανεξάρτητες δοκιμές Bernoulli με πιθανότητα επιτυχίας (να συμβούν κατά την πρώτη ώρα) ίση με \(s/t=1/3\). Το πλήθος των επιτυχιών σ' αυτές τις δοκιμές ακολουθεί διωνυμική κατανομή bin (10,1/3), επομένως
\[ \PP{N_s=1\,\big|\, N_t=10}={10\choose 1}\big(\frac{1}{3}\big)^1\big(\frac{2}{3}\big)^9. \]Σκεφτείτε τώρα την πολυπλοκότητα των δύο μεθόδων, αν θέλαμε να βρούμε την πιθανότητα να έχουμε ακριβώς μία άφιξη από τις δέκα, στα πρώτα είκοσι δεπτερόλεπτα κάθε λεπτού. Ο πρώτος τρόπος μάλλον δεν είναι ελκυστικός, ο δεύτερος τρόπος όμως μας δίνει εύκολα ότι η απάντηση παραμένει ίδια!
Σ' αυτήν την παράγραφο θα δούμε δύο χρήσιμους χειρισμούς, στους οποίους
μπορούμε να υποβάλλουμε διαδικασίες Poisson και το αποτέλεσμα είναι
πάλι μια διαδικασία Poisson, την
εκλέπτυνση (thinning) και την πρόσθεση ανεξάρτητων διαδικασιών.
Φανταστείτε ότι σ' έναν ανιχνευτή προσπίπτουν σωματίδια
σύμφωνα με μια διαδικασία Poisson με ρυθμό \(\lambda.\) Ο ανιχνευτής
όμως δεν μπορεί να ανιχνεύσει όλα τα σωματίδια. Συγκεκριμένα, κάθε
σωματίδιο που φτάνει έχει πιθανότητα \(p\) να ανιχνευτεί, ανεξάρτητα
από τη διαδικασία άφιξης και από τα άλλα σωματίδια. Το ακόλουθο
Θεώρημα εγγυάται ότι η διαδικασία που μετρά τα ανιχνευμένα σωματίδια
είναι επίσης μια διαδικασία Poisson με ρυθμό \(\lambda p\).
TEOS
Θεώρημα 8.4 Έστω \(\{N_t\}_{t\ge 0}\) μια διαδικασία Poisson με ρυθμό \(\lambda\) και \(\{X_i\}_{i\in\N}\) μια ακολουθία από ανεξάρτητες, ισόνομες τυχαίες μεταβλητές με κατανομή Bernoulli \((p)\), που είναι ανεξάρτητες από τη διαδικασία αφίξεων \(\{N_t\}_{t\ge 0}\). Τότε οι διαδικασίες \(\{N_t^+\}_{t\ge 0}\) και \(\{N_t^-\}_{t\ge 0}\) με
\[ N_t^+=\sum_{i=1}^{N_t}X_i\qquad\text{και}\qquad N_t^-=\sum_{i=1}^{N_t}(1-X_i), \]είναι δύο ανεξάρτητες διαδικασίες Poisson με ρυθμούς \(\lambda p\) και \(\lambda (1-p)\) αντίστοιχα.
Απόδειξη:Αν \(M_1,M_2,\ldots, \) είναι η ακολουθία των επιτυχημένων προσπαθειών, δηλαδή
\[ M_1=\inf\{k\ge 1: X_k=1\},\qquad M_{n+1}=\inf\{k>M_n: X_k=1\}, n\in\N, \]τότε οι \(M_1,M_2-M_1,M_3-M_2,\ldots\) είναι ανεξάρτητες, ισόνομες τυχαίες μεταβλητές, που ακολουθούν γεωμετρική κατανομή με παράμετρο \(p\). Αν \(\{E_k\}_{k\in\N}\) είναι η ακολουθία των χρόνων που μεσολαβούν ανάμεσα στα διαδοχικά άλματα της διαδικασίας \(\{N_t\}_{t\ge 0}\), τότε οι χρόνοι ανάμεσα στα άλματα της \(\{N_t^+\}_{t\ge 0}\) είναι η ακολουθία \(\{E_k^+\}_{k\in\N}\) με
\[ E_1^+=\sum_{k=1}^{M_1}E_k,\qquad\text{και}\qquad E_{n+1}^+=\sum_{k=M_n+1}^{M_{n+1}}E_k. \]Εφόσον η \(\{M_n\}_{n\in\N}\) εξαρτάται μόνο από την \(\{X_i\}_{i\in\N}\) και η \(\{E_k\}_{k\in\N}\) μόνο από τη διαδικασία αφίξεων, οι ακολουθίες αυτές είναι ανεξάρητες. Επιπλέον, η ανεξαρτησία και ισονομία των \(Μ_1,Μ_2-Μ_1,\ldots\) συνεπάγεται την ανεξαρτησία και ισονομία \(Ε_1^+,Ε_2^+,\ldots\) Προκειμένου να βρούμε την κατανομή τους, κάνουμε τον εξής υπολογισμό
\begin{align} \PP{E_1^+>t}&=\P\Big[\sum_{k=1}^{M_1}E_k>t\Big]=\sum_{n=1}^{\infty}\P\Big[\sum_{k=1}^{M_1}E_k>t,\, M_1=n\Big]\nonumber\\ &=\sum_{n=1}^\infty\P\Big[\sum_{k=1}^n E_k>t,\, M_1=n\Big]=\sum_{n=1}^\infty\ \P\Big[\sum_{k=1}^nE_k>t\Big]\ \PP{M_1=n}. \end{align}
Ας θυμηθούμε όμως ότι η τυχαία μεταβλητή \(\sum_{k=1}^nE_k\) ακολουθεί κατανομή Γάμμα, \(G(\lambda,n)\), επομένως
\[ \P\Big[\sum_{k=1}^n E_k>t\Big]=\int_{t}^\infty\frac{\lambda^nx^{n-1}}{(n-1)!}e^{-\lambda x}\ dx. \] Αντίστοιχα, η τυχαία μεταβλητή \(M_1\) ακολουθεί γεωμετρική κατανομή, οπότε \[ \PP{M_1=n}=(1-p)^{n-1}p. \]
Αν αντικαταστήσουμε τις δύο
τελευταίες πιθανότητες στην
8.5 και
χρησιμοποιήσουμε το Θεώρημα Fubini-Tonelli για να εναλλάξουμε τη σειρά
της άθροισης και της ολοκλήρωσης, παίρνουμε \begin{align*}
\PP{E_1^+>t}&=\sum_{n=1}^\infty\int_{t}^\infty\frac{\lambda^nx^{n-1}}{(n-1)!}e^{-\lambda
x}\ dx\ (1-p)^{n-1}p\\ &=\lambda p\int_{t}^\infty e^{-\lambda
x}\left(\sum_{n=1}^\infty\frac{\big(\lambda(1-p)
x\big)^{n-1}}{(n-1)!}\right)\ dx\\ &=\lambda p\int_{t}^\infty
e^{-\lambda x}e^{\lambda (1-p) x}\ dx\\ &=\lambda p\int_t^\infty
e^{-\lambda p x} dx= e^{-\lambda p t}. \end{align*} Επομένως οι
\(\{E_k^+\}_{k\in\N}\) είναι ανεξάρτητες, ισόνομες και ακολουθούν
εκθετική κατανομή με παράμετρο \(\lambda p\), άρα η διαδικασία
\(\{N_t^+\}_{t\ge 0}\) είναι μια διαδικασία Poisson με ρυθμό \(\lambda
p\).
Παρατηρώντας ότι η \(\{1-X_i\}_{i\in\N}\) είναι μια ακολουθία
από ανεξάρτητες, ισόνομες τυχαίες μεταβλητές, με κατανομή Bernoulli
\((1-p)\), παίρνουμε αμέσως ότι η διαδικασία \(\{N_t^-\}_{t\ge 0}\)
είναι μια διαδικασία Poisson με ρυθμό \(\lambda(1-p)\).
Θα δείξουμε τώρα ότι οι \(\{N_t^+\}_{t\ge 0}\) και
\(\{N_t^-\}_{t\ge 0}\) είναι ανεξάρτητες. Θα ξεκινήσουμε δείχνοντας ότι
οι τυχαίες μεταβλητές \(N_t^+\) και \(N_t^-\) είναι ανεξάρτητες για
κάθε \(t\ge 0\).
\begin{align} \PP{N_t^+=m, N_t^-=n}&=\PP{N_t^+=m, N_t=m+n}=\PP{N_t=m+n}\PP{N_t^+=m\,\big|\, N_t=m+n} \end{align}
Από το Λήμμα 8.1 έχουμε ότι \[ \PP{N_t=m+n}=e^{-\lambda t}\frac{(\lambda t)^{m+n}}{(m+n)!}. \]Επιπλέον, με δεδομένο ότι \(N_t=m+n\), η \(N_t^+\) είναι το πλήθος των επιτυχιών σε \(m+n\) ανεξάρτητες δοκιμές Bernoulli με πιθανότητα επιτυχίας \(p\). Άρα,
\[ \PP{N_t=m+n}\PP{N_t^+=m\,\big|\, N_t=n+m}={n+m\choose m}p^m(1-p)^n. \]Αν αντικαταστήσουμε τις παραπάνω ισότητες στην (8.6), έχουμε ότι
\begin{align} \PP{N_t^+=m, N_t^-=n}&=e^{-\lambda t}\frac{(\lambda t)^{m+n}}{(m+n)!}{n+m\choose m}p^m(1-p)^n\nonumber\\ &=e^{-\lambda p t}\frac{(\lambda pt)^{m}}{m!}e^{-\lambda(1-p) t}\frac{(\lambda (1-p)t)^{n}}{n!}. \end{align}
Επομένως οι τυχαίες μεταβλητές \(\{N_t^+\}_{t\ge 0}\) και \(\{N_t^-\}_{t\ge 0}\) είναι ανεξάρτητες. Για να δείξουμε ότι οι διαδικασίες \(\{N_t^+\}_{t\ge 0}\) και \(\{N_t^-\}_{t\ge 0}\) είναι ανεξάρτητες, χρειάζεται να δείξουμε κάτι αντίστοιχο για τις από κοινού κατανομές πεπερασμένης διάστασης. Συγκεκριμένα, αν \(0\le t_1\le t_2\le\cdots\le t_k\) και οι \(\{m_i\}_{1\le i\le k}\) και \(\{n_i\}_{1\le i\le k}\) είναι αύξουσες ακολουθίες ακεραίων, θέλουμε να δείξουμε ότι
\begin{equation} \P\Big[\bigcap_{i=1}^k\{N_{t_i}^+=m_i,N_{t_i}^-=n_i\}\Big]=\P\Big[\bigcap_{i=1}^k\{N_{t_i}^+=m_i\}\Big]\ \P\Big[\bigcap_{i=1}^k\{N_{t_i}^-=n_i\}\Big]. \end{equation}
Μπορούμε να αξιοποιήσουμε το γεγονός ότι οι διαδικασίες Poisson έχουν ανεξάρτητες και χρονικά ομοιογενείς προσαυξήσεις, ώστε να αναγάγουμε αυτό το ερώτημα στο ερώτημα για τις μονοδιάστατες κατανομές της ανέλιξης που ήδη απαντήσαμε. Πράγματι, αν θέσουμε \(t_0=m_0=n_0=0\), έχουμε \begin{align*} \P\Big[\bigcap_{i=1}^k\{N_{t_i}^+=m_i,\ N_{t_i}^-=n_i\}\Big]&= \P\Big[\bigcap_{i=1}^k\{N_{t_i}^+-N_{t_{i-1}}^+=m_i-m_{i-1},\ N_{t_i}^--N_{t_{i-1}}^-=n_i-n_{i-1}\}\Big]\\ &=\prod_{i=1}^k\P\Big[N_{t_i-t_{i-1}}^+=m_i-m_{i-1},\ N_{t_i-t_{i-1}}^-=n_i-n_{i-1}\Big]. \end{align*} Από την (8.7) έχουμε τώρα ότι
\[ \P\Big[\bigcap_{i=1}^k\{N_{t_i}^+=m_i,\ N_{t_i}^-=n_i\}\Big]=\prod_{i=1}^k\P\Big[N_{t_i-t_{i-1}}^+=m_i-m_{i-1}\Big]\, \P\Big[ N_{t_i-t_{i-1}}^-=n_i-n_{i-1}\Big] \]και αντιστρέφοντας τα βήματα του επιχειρήματος στο οποίο χρησιμοποιήσαμε τις ανεξάρτητες, χρονικά ομοιογενείς προσαυξήσεις, φτάνουμε στην (8.8).
\(\Box\)
Προκειμένου να ολοκληρώσουμε τον υπολογισμό, μπορούμε να υπολογίσουμε αυτές τις ποσότητες είτε με τη βοήθεια κάποιου στατιστικού πακέτου, όπως η R, είτε να βρούμε προσεγγιστικά την απάντηση με τη βοήθεια του Κεντρικού Οριακού Θεωρήματος. Συγκεκριμένα, αν η τυχαία μεταβλητή \(X\) ακολουθεί κατανομή \(Po(\lambda)\), τότε
\[ \PP{\frac{X-\lambda}{\sqrt{\lambda}}\le x}\to \Phi(x), \quad \text{καθώς }\lambda\to\infty, \]όπου η συνάρτηση \(\Phi\) στο δεξί μέλος είναι η συνάρτηση κατανομής πιθανότητας της τυπικής κανονικής κατανομής. Στην πράξη, η προσέγγιση είναι αρκετά καλή για \(\lambda\ge 30\), οπότε μπορούμε να εκτιμήσουμε
\[ \PP{N\le 240}=\P\Big[\frac{N-225}{\sqrt{225}}\le\frac{240-225}{\sqrt{225}}\Big] \simeq\Phi(1)\simeq 0,8414. \] Ομοίως, \[ \PP{M\le 39}=\P\Big[\frac{M-45}{\sqrt{45}}\le\frac{39-45}{\sqrt{45}} \Big]\simeq \Phi(-\frac{2}{\sqrt{5}})=0,1856. \]Επομένως η ζητούμενη πιθανότητα είναι περίπου 0,1561. Η απάντηση που θα παίρναμε με την βοήθεια του υπολογιστή, χωρίς την προσέγγιση του Κεντρικού Οριακού Θεωρήματος, θα ήταν 0,1769.
\(\Box\)
Απόδειξη: Η \(\{N_t\}_{t\ge 0}\) είναι μια δεξιά συνεχής
διαδικασία, με τιμές στους ακεραίους και αύξουσες τροχιές. Αυτές τις
ιδιότητες τις κληρονομεί από τις \(\{X_t\}_{t\ge 0}\) και
\(\{Y_t\}_{t\ge 0}\). Σύμφωνα με την παρατήρηση μετά το Θεώρημα
8.2, αρκεί να
δείξουμε ότι για κάθε \(s,t\) με \(0\le s\le t\), η τυχαία μεταβλητή
\(N_t-N_s\) είναι ανεξάρτητη από τις \(\{N_r\}_{0\le r\le s}\) και
ακολουθεί κατανομή \(Po(\big(\lambda+\mu)(t-s)\big),\) αφού αυτή η
πληροφορία καθορίζει τις κατανομές πεπερασμένης διάστασης.
'Εχουμε όμως
Η \(X_t-X_s\)
είναι ανεξάρτητη από τις \(\{X_r\}_{0\le r\le s}\), αφού η
\(\{X_t\}_{t\ge 0}\) είναι διαδικασία Poisson. Επίσης είναι ανεξάρτητη
από τις \(\{Y_r\}_{0\le r\le s}\), αφού οι διαδικασίες που προσθέτουμε
είναι ανεξάρτητες. Επομένως, η \(X_t-X_s\) είναι ανεξάρτητη από τις
\(\{N_r\}_{0\le r\le s}\). Με τον ίδιο τρόπο βλέπουμε ότι και η
\(Y_t-Y_s\) είναι ανεξάρτητη από τις \(\{N_r\}_{0\le r\le s}\).
Επομένως η \(\{N_t\}_{t\ge 0}\) έχει ανεξάρτητες προσαυξήσεις.
Σχετικά με την κατανομή της \(N_t-N_s\), προσέξτε ότι η
\(X_t-X_s\) ακολουθεί κατανομή \(Po\big(\lambda (t-s)\big)\), η
\(Y_t-Y_s\) ακολουθεί κατανομή \(Po\big(\mu (t-s)\big)\), ενώ οι
\(X_t-X_s\) και \(Y_t-Y_s\) είναι ανεξάρτητες. Συνεπώς, το άθροισμά
τους ακολουθεί κατανομή Poisson με ρυθμό το άθροισμα των δύο ρυθμών,
δηλαδή \((\lambda+\mu)(t-s)\).
\(\Box\)
Παρατήρηση: Το παραπάνω
Θεώρημα γενικεύεται εύκολα με επαγωγή, σε αθροίσματα \(n\), ανεξάρτητων
διαδικασιών Poisson, οπότε και πάλι το άθροισμά τους είναι μια
διαδικασία Poisson με ρυθμό το άθροισμα των επί μέρους ρυθμών.
Παρατήρηση: Με βάση τα
Θεωρήματα
8.4 και
8.5, μπορούμε
να κατασκευάσουμε δύο ανεξάρτητες διαδικασίες Poisson με ρυθμούς
\(\lambda\) και \(\mu\) αντίστοιχα, κάνοντας εκλέπτυνση στην αθροιστική
διαδικασία Poisson. Συγκεκριμένα, μπορούμε να προσομοιώσουμε μια
διαδικασία Poisson με ρυθμό \(\lambda+\mu\) και στη συνέχεια να
αποδώσουμε κάθε άφιξη είτε στην πρώτη διαδικασία με πιθανότητα
\(\frac{\lambda}{\lambda+\mu}\), είτε στη δεύτερη διαδικασία με πιθανότητα
\(\frac{\mu}{\mu+\nu}\), ανεξάρτητα για κάθε άφιξη. Αυτή η παρατήρηση
οδηγεί στο ακόλουθο άμεσο πόρισμα.
Παράδειγμα 8.3 Ένα Τμήμα
Επειγόντων Περιστατικών εφημερεύει μόνο για παθολογικά, χειρουργικά
και καρδιολογικά περιστατικά. Τα παθολογικά περιστατικά καταφτάνουν
όπως μια διαδικασία Poisson με ρυθμό \(\lambda=1/10\)min, τα
χειρουργικά περιστατικά όπως μια διαδικασία Poisson με ρυθμό
\(\mu=1/15\)min, ενώ τα καρδιολογικά περιστατικά όπως μια διαδικασία
Poisson με ρυθμό \(\nu=1/30\)min. Οι τρεις διαδικασίες είναι
ανεξάρτητες. Οι συνολικές αφίξεις στο Τμήμα Επειγόντων είναι επομένως
μια διαδικασία Poisson με ρυθμό \(\lambda+\mu+\nu\)=12/ώρα. Θα
υπολογίσουμε τώρα την πιθανότητα το πρώτο περιστατικό να είναι
παθολογικό.
Έστω \(X,Y,Z\) οι χρόνοι αναμονής μέχρι την άφιξη του πρώτου
παθολογικού, χειρουργικού ή καρδιολογικού περιστατικού, αντίστοιχα.
Θέλουμε να υπολογίσουμε την πιθανότητα του ενδεχομένου \(\{X\le
Y\}\cap\{X\le Z\}=\{X\le Y\wedge Z\}\). Μπορούμε να κάνουμε τον
υπολογισμό απ' ευθείας, χρησιμοποιώντας την από κοινού συνάρτηση
πυκνότητας πιθανότητας των \(X,Y,Z\). Μπορούμε όμως και να
παρατηρήσουμε ότι η \(Y\wedge Z\) είναι εκθετική με ρυθμό \(\mu+\nu\).
Πράγματι,
Επίσης, εφόσον οι \(Y,Ζ\) είναι ανεξάρτητες από την \(X\), οι \(Y\wedge Z\) και \(X\) θα είναι ανεξάρτητες. Επομένως,
\[ \PP{X\le Y\wedge Z}=\int_0^\infty \lambda e^{-\lambda x}\int_{x}^\infty (\mu+\nu) e^{-(\mu+\nu) v} \ dv\ dx=\lambda\int_0^\infty e^{-(\lambda+\mu+\nu)x}\ dx=\frac{\lambda}{\lambda+\mu+\nu}=\half. \]Αντίστοιχα, η πιθανότητα το πρώτο περιστατικό να είναι χειρουργικό είναι \(\frac{\mu}{\lambda+\mu+\nu}=\frac{1}{3}\) και η πιθανότητα το πρώτο περιστατικό να είναι καρδιολογικό είναι \(\frac{\nu}{\lambda+\mu+\nu}=\frac{1}{6}\).