Indipendenza, Legge 0-1 di Kolmogorov, Borel-Cantelli

La \sigma-algebra prodotto

Si supponga sia assegnata una famiglia di spazi misurabili (E_i, \mathcal{E}_i)_{i \in I}, indicizzata da i \in I, per un arbitrario insieme di indici. Siano E = \prod_{i \in I} E_i il prodotto cartesiano della famiglia di insiemi, e \pi_i la proiezione da E su E_i, ovvero, per x = (x_i)_{i \in I} \in E, \pi_j((x_i)_{i \in I}) = x_j. Più in generale, se J \subset I, si denoterà con \pi_J la proiezione di E in \prod_{j \in J} E_j data, per x = (x_i)_{i \in I}, da \pi_J x = (x_i)_{i \in J}.

§ Definizione 2.1.1. La \sigma-algebra prodotto su E, denotata con \bigotimes_{i \in I} \mathcal{E}_i, è la più piccola \sigma-algebra che rende misurabili le proiezioni \pi_i per ogni i \in I. Equivalentemente, la \sigma-algebra prodotto è la \sigma-algebra generata dagli insiemi della forma \pi_i^{-1}(A_i), al variare di i \in I e di A_i \in \mathcal{E}_i.

Si verifica immediatamente che una funzione X: \Omega \to E è una variabile aleatoria (cioè è misurabile) se e solo se, per ogni i, X_i = \pi_i \circ X è misurabile (a valori in (E_i, \mathcal{E}_i)). In particolare, assegnata una famiglia di variabili aleatorie (X_i)_{i \in I} a valori ciascuna in uno spazio (E_i, \mathcal{E}_i) la funzione X_I = (X_i)_{i \in I} (a valori nel prodotto cartesiano) è una variabile aleatoria.

§ Definizione 2.1.2 Un rettangolo è un insieme del tipo

\pi_{i_1}^{-1}(A_1) \cap \dots \cap \pi_{i_k}^{-1}(A_k) = \pi_{\{i_1, i_2, \dots, i_k\}}^{-1}(A_{i_1} \times A_{i_2} \times \dots \times A_{i_k}),

per k \ge 1, i_1, i_2, \dots, i_k \in I e A_{i_h} \in \mathcal{E}_{i_h} per ogni h=1,2,\dots,k.

Si può verificare elementarmente che la \sigma-algebra prodotto è generata anche dall’insieme dei rettangoli. Inoltre tale insieme è chiuso per intersezioni finite, dunque è un \pi-sistema, di conseguenza due probabilità che coincidono sui rettangoli coincidono su tutta la \sigma-algebra prodotto.

Si possono definire rettangoli anche per insiemi di indici infiniti, del tipo \pi_J^{-1} (\prod_{j \in J} A_j), ma tale insieme è misurabile in generale solo quando J è numerabile.

§ Definizione 2.1.3 Un cilindro è un insieme del tipo \pi_J^{-1}(A), con J \subset I un insieme finito, e A \in \bigotimes_{j \in J} \mathcal{E}_j.

Si può verificare elementarmente che l’insieme dei cilindri è una algebra, e che genera la \sigma-algebra prodotto.

Indipendenza e prime proprietà

Nel seguito di questo capitolo si considererà assegnato uno spazio di probabilità (\Omega, \mathcal{F}, \mathbb{P}). Si ricorda che se A, B \in \mathcal{F}, gli eventi A, B sono indipendenti se \mathbb{P}[A \cap B] = \mathbb{P}[A] \cdot \mathbb{P}[B]. Più in generale, gli eventi (A_i)_{i \in I} sono indipendenti se per ogni J \subset I finito,

\mathbb{P}\left[\bigcap_{i \in J} A_i\right] = \prod_{i \in J} \mathbb{P}[A_i]

Tale definizione si può rileggere in termini di \sigma-algebre nel modo seguente.

§ Definizione 2.2.1. Le \sigma-algebre \mathcal{F}_1, \mathcal{F}_2 \subset \mathcal{F} si dicono indipendenti se per ogni A_1 \in \mathcal{F}_1 e A_2 \in \mathcal{F}_2, gli eventi A_1, A_2 sono indipendenti. Più in generale, le \sigma-algebre (\mathcal{F}_i)_{i \in I}, con \mathcal{F}_i \subset \mathcal{F} per ogni i \in I, sono indipendenti se per ogni J \subset I finito e per ogni A_i \in \mathcal{F}_i e i \in J,

\mathbb{P}\left[\bigcap_{i \in J} A_i\right] = \prod_{i \in J} \mathbb{P}[A_i].

Osserviamo che poiché la \sigma-algebra \sigma(A) generata da un evento A (ovvero \sigma(\bbone_A) = \{\varnothing, A, A^c, \Omega\}), si può verificare elementarmente che gli eventi (A_i)_{i \in I} sono indipendenti se e solo se le \sigma-algebre (\sigma(A_i))_{i \in I} sono indipendenti.

Analoghe considerazioni si possono fare riguardo l’indipendenza di variabili aleatorie. Date le variabili aleatorie (X_i)_{i \in I}, dove, per ogni i \in I, X_i: \Omega \to E_i è una variabile a valori nello spazio di misura (E_i, \mathcal{E}_i), si ricorda che le variabili (X_i)_{i \in I} sono indipendenti se per ogni J \subset I finito e, per ogni A_i \in \mathcal{E}_i,

\mathbb{P}[X_i \in A_i \text{ per ogni } i \in J] = \prod_{i \in J} \mathbb{P}[X_i \in A_i]

Di conseguenza, (X_i)_{i \in I} sono indipendenti se e solo se lo sono le \sigma-algebre (\sigma(X_i))_{i \in I}.

Una conseguenza immediata è che, date (X_i)_{i \in I} (a valori in (E_i, \mathcal{E}_i)_{i \in I}) indipendenti e (f_i)_{i \in I}: E_i \to G_i funzioni misurabili, allora anche le variabili (f_i(X_i))_{i \in I} sono indipendenti.

Il seguente criterio, di facile dimostrazione, sarà tuttavia di grande importanza. Esso viene enunciato per due variabili aleatorie ma vale con la stessa dimostrazione per un numero finito di variabili aleatorie.

§ Proposizione 2.2.2. Siano X_1, X_2 due variabili aleatorie a valori rispettivamente in (E_1, \mathcal{E}_1) e (E_2, \mathcal{E}_2) e sia, per ogni i, \mathcal{D}_i un \pi-sistema che genera \mathcal{E}_i. Le variabili aleatorie X_1 e X_2 sono indipendenti se e solo se

\mathbb{P}[X_1 \in B_1, X_2 \in B_2] = \mathbb{P}[X_1 \in B_1] \mathbb{P}[X_2 \in B_2]

per ogni B_1 \in \mathcal{D}_1, B_2 \in \mathcal{D}_2.

Dimostrazione. Fissato B_2 \in \mathcal{D}_2, l’insieme \{B_1 \in \mathcal{E}_1 : \text{vale Eq. (2.2.1)}\} è una classe monotona che contiene \mathcal{D}_1, ed è quindi uguale a \mathcal{E}_1. Fissato poi B_1 \in \mathcal{E}_1, l’insieme \{B_2 \in \mathcal{E}_2 : \text{vale Eq. (2.2.1)}\} è una classe monotona che contiene \mathcal{D}_2, ed è quindi uguale a \mathcal{E}_2. \square

Nel seguito, se J \subset I, indicheremo con X_J' la variabile aleatoria (X_i){i \in J}, a valori nello spazio prodotto \left(\prod{i \in J} E_i, \bigotimes_{i \in J} \mathcal{E}_i\right)$.

§ Teorema 2.2.3 Sia (X_i)_{i \in I} una famiglia di variabili aleatorie. Sono allora equivalenti:

  • le variabili aleatorie (X_i)_{i \in I} sono indipendenti,

  • per ogni k \geq 2 e per ogni j_1, \ldots, j_k \subset I disgiunti, le variabili X_{j_1}, \ldots, X_{j_k} sono indipendenti.

Dimostrazione. La prima affermazione segue elementarmente dalla seconda, in quanto per ogni sottoinsieme finito di indici J \subset I di k elementi, è sufficiente considerare i k insiemi \{j_1\}, \ldots, \{j_k\} contenenti ognuno un differente elemento di J.

Verifichamo che vale la seconda affermazione quando (X_i)_{i \in I} sono variabili indipendenti. Per semplicità consideriamo il caso k = 2. Il caso generale segue analogamente. Siano j_1, j_2 \in I, e per concludere è sufficiente dimostrare che

\mathbb{P}[X_{j_1} \in B_1, X_{j_2} \in B_2] = \mathbb{P}[X_{j_1} \in B_1] \mathbb{P}[X_{j_2} \in B_2].

In virtù della Proposizione 2.2.2, è sufficiente verificare questa uguaglianza se B_1 e B_2 appartengono a \pi-sistemi che generano le rispettive \sigma-algebre. Se J_1 \subset I_0, i = 1, 2 sono finiti, e se A_i \in \bigotimes_{j \in J_i} \mathcal{E}_j, i = 1, 2, la formula centrale precedente vale per B_1 = \pi_{J_1}^{-1} A_1 e B_2 = \pi_{J_2}^{-1} A_2 in quanto gli insiemi di indici j_1, j_2 sono finiti e le variabili (X_i)_{i \in I} sono indipendenti. \square

Esempio 2.2.4. Tenendo conto del fatto che funzioni di variabili indipendenti sono variabili indipendenti, se (X_n)_{n \geq 1} è una successione di variabili aleatorie reali indipendenti, allora sono indipendenti le variabili \liminf_n X_{2n-1}, \limsup_n X_{2n} e \lim \inf_n X_{2n+1}.

Probabilità prodotto

Siano (E, \mathcal{E}, \mathbb{P}) e (F, \mathcal{F}, \mathbb{Q}) due spazi di probabilità. Si intende costruire sullo spazio prodotto E \times F munito della \sigma-algebra prodotto \mathcal{E} \otimes \mathcal{F} una probabilità \mathbb{P}(A) \cdot \mathbb{Q}(B) su ogni rettangolo misurabile A \times B. Una tale probabilità, se esiste, è naturalmente unica.

§ Proposizione 2.3.1. Sia f: E \times F \to \mathbb{R} misurabile positiva. Allora:

  • per ogni x \in E la funzione y \mapsto f(x, y) è \mathcal{F}-misurabile
  • la funzione x \mapsto \int_F f(x, y) \mathbb{Q}(dy) è \mathcal{E}-misurabile.

Inoltre la prima proprietà si estende anche a funzioni misurabili (senza il vincoli sul segno), e la seconda a funzioni integrabili.

Dimostrazione. Le due proprietà seguono dalla versione funzionale del teorema della classe monotona. Infatti l’insieme delle funzioni misurabili limitate che soddisfano la prima proprietà contiene gli indicatori dei rettangoli, è uno spazio lineare, ed è chiuso per limiti crescenti di funzioni positive. Per estendere a funzioni positive arbitrarie (quindi non necessariamente limitate), si usa un’approssimazione per troncatura.

La verifica della seconda proprietà è completamente analoga, con la specifica aggiuntiva che la chiusura per limiti crescenti segue dal teorema di convergenza monotona.

§ Definizione. Si ricorda che, se C \subset E \times F, si chiama sezione (nel punto x \in E) l’insieme

C_x \coloneqq \{y \in F : (x,y) \in C\}

§ Teorema 2.3.2 (Fubini-Tonelli). Dato C \in \mathcal{E} \otimes \mathcal{F}, si ponga

\mathbb{P} \otimes \mathbb{Q}(C) = \int_E \mathbb{Q}(C_x) \mathbb{P}(\mathrm d x)

La funzione d’insieme \mathbb{P} \otimes \mathbb{Q} è una probabilità, ed è l’unica probabilità su \mathcal{E} \otimes \mathcal{F} tale che \mathbb{P} \otimes \mathbb{Q}(A \times B) = \mathbb{P}(A) \mathbb{Q}(B) per ogni A \in \mathcal{E}, B \in \mathcal{F}. Inoltre per ogni funzione f misurabile positiva su E \times F, vale la formula

\iint_{E \times F} f(x,y) \mathbb{P} \otimes \mathbb{Q}(\mathrm d x, \mathrm d y) = \int_E \left(\int_F f(x,y) \mathbb{Q}(\mathrm d y)\right) \mathbb{P}(\mathrm d x).

Dimostrazione. La funzione d’insieme C \to \mathbb{P} \otimes \mathbb{Q}(C), definita su \mathcal{E} \otimes \mathcal{F}, è una probabilità in quanto è additiva (infatti, (A \cup B)_x = A_x \cup B_x e (A \cap B)_x = A_x \cap B_x), passa al limite su successioni crescenti di insiemi (infatti, se A_n \uparrow A, allora (A_n)_x \uparrow A_x), dunque è \sigma-additiva, inoltre vale \mathbb{P} \otimes \mathbb{Q}(E \times F) = 1. Una verifica diretta mostra che sui rettangoli misurabili A \times B vale \mathbb{P}(A) \cdot \mathbb{Q}(B), in quanto (A \times B)_x è uguale a B se x \in A, e \varnothing altrimenti.

La formula per il calcolo dell’integrale rispetto a \mathbb{P} \otimes \mathbb{Q} è vera per definizione degli indicatori di rettangoli, è uno spazio lineare di funzioni misurabili. Dunque la formula vale per tutte le funzioni misurabili limitate per la versione funzionale del teorema della classe monotona. L’estensione a funzioni misurabili positive segue per troncatura e convergenza monotona.

Osservazione 2.3.3. Se una funzione misurabile f è integrabile, cioè se

\iint_{E \times F} |f(x,y)| \mathbb{P} \otimes \mathbb{Q}(\mathrm d x, \mathrm d y) = \int_E \left(\int_F |f(x,y)| \mathbb{Q}(\mathrm d y)\right) \mathbb{P}(\mathrm d x) < +\infty

allora si può applicare la formula di Fubini-Tonelli. L’ordine di integrazione non cambia il risultato, si può invertire l’ordine rispetto al quale si integra.

Osservazione 2.3.4. Il Teorema 2.3.2 si estende senza sostanziali difficoltà al prodotto di un numero finito di probabilità.

Osservazione 2.3.5. La dimostrazione precedente rimane valida, praticamente senza modifiche, se invece di due probabilità si considerano due misure \sigma-finite \mu e \nu rispettivamente su (E, \mathcal{E}) e (F, \mathcal{F}).

Osservazione 2.3.6. La dimostrazione del Teorema 2.3.2 così enunciata è facile perché si è considerata la probabilità prodotto sulla \sigma-algebra prodotto \mathcal{E} \otimes \mathcal{F} e non sul completamento di questa \sigma-algebra. In effetti, se si considera il completamento, sia l’enunciato che la dimostrazione diventano più delicati. Tuttavia per gli scopi del Calcolo delle Probabilità questa versione è sufficiente.

La nozione di probabilità prodotto è importante per enunciare la nozione di indipendenza in termini di leggi di probabilità: è facile infatti provare i seguenti enunciati (per semplicità ci limitiamo al caso di due variabili, ma l’estensione a famiglie finite di variabili aleatorie è elementare).

Il Teorema 2.3.2 di Fubini-Tonelli ha una estensione a un prodotto infinito di probabilità.

§ Teorema 2.3.7 (estensione ad un prodotto arbitrario). Dati gli spazi di probabilità (\Omega_i, \mathcal{F}_i, \mathbb{P}_i), si consideri lo spazio prodotto \Omega = \prod_{i \in I} \Omega_i munito della \sigma-algebra prodotto \mathcal{F} = \bigotimes_{i \in I} \mathcal{F}_i. Allora esiste una unica probabilità \mathbb{P} su (\Omega, \mathcal{F}) tale che per ogni I \subset J finito, ed ogni A_i \in \mathcal{F}_i, j \in J,

\mathbb{P}\Big[\bigcap_{j \in J} \pi_j^{-1}(A_j)\Big] = \prod_{j \in J} \mathbb{P}_j[A_j].

La costruzione canonica di una famiglia di variabili indipendenti con legge assegnata

Si consideri una famiglia (E_i, \mathcal{E}_i) di spazi di misura, e per ogni i \in I una misura di probabilità \mu_i su (E_i, \mathcal{E}_i). Ricordiamo che i rettangoli

\pi_{i_1}^{-1}(A_1) \cap \pi_{i_2}^{-1}(A_2) \cap \cdots \cap \pi_{i_k}^{-1}(A_k),

per k \geq 1, j_1, j_2, \ldots, j_k \in I e A_i \in \mathcal{E}_i per ogni i = 1, 2, \ldots, k, sono un \pi-sistema per la \sigma-algebra prodotto \bigotimes_{i \in I} \mathcal{E}_i, dove \pi_i : \prod_{i \in I} \to E_i" class="mathjax" style="position: relative;">\pii : \prod{i \in I} \to E_iè la proiezione suE_i$.

§ Teorema 2.3.8. Nel contesto illustrato precedentemente, esiste sullo spazio prodotto \prod_{i \in I} E_i munito della \sigma-algebra prodotto \bigotimes_{i \in I} \mathcal{E}_i una unica probabilità \mu, indicata con \bigotimes_{i \in I} \mu_i, tale che per ogni rettangolo \pi_{j_1}^{-1}(A_1) \cap \cdots \cap \pi_{j_k}^{-1}(A_k),

\mu\left(\pi_{j_1}^{-1}(A_1) \cap \cdots \cap \pi_{j_k}^{-1}(A_k)\right) = \prod_{i=1}^{k} \mu_{j_i}(A_i)

Il precedente teorema consente di costruire una famiglia di variabili con leggi assegnate. Infatti se,

\Omega = \prod_{i \in I} E_i, \quad \mathcal{F} = \bigotimes_{i \in I} \mathcal{E}_i, \quad \mathbb{P} = \bigotimes_{i \in I} \mu_i

e per ogni i \in I si pone X_i = \pi_i, allora l’uguaglianza precedente mostra che le variabili sono indipendenti, e che per ogni i \in I, la variabile aleatoria X_i" class="mathjax" style="position: relative;">X_iha legge\mu_i$.

Costruzione di famiglie di variabili dipendenti

Esaminiamo successivamente il caso della costruzione di variabili aleatorie non indipendenti. L’interesse del risultato seguente nel contesto di queste note risiede nella sua applicazione per l’esistenza di catene di Markov, nelle quali si assegnano le leggi condizionate.

§ Definizione 2.3.9 (nucleo di probabilità). Dati due spazi misurabili (E_1, \mathcal{E}_1) e (E_2, \mathcal{E}_2), un nucleo di probabilità da E_1 a E_2 è una funzione k : E_1 \times \mathcal{E}_2 \to [0,1] tale che

  • per ogni A \in \mathcal{E}_2, la funzione x \mapsto k(x, A) è \mathcal{E}_1-misurabile,

  • per ogni x \in E_1, k(x, \cdot) è una probabilità su (E_2, \mathcal{E}_2).

Osservazione 2.3.10. Si osservi che una misura di probabilità può essere interpretata come nucleo di probabilità se costante rispetto alla prima variabile, selezionando uno spazio di misura di partenza arbitrario.

§ Definizione 2.3.11 (composizione di nuclei). Dati tre spazi misurabili (E_i, \mathcal{E}_i), i = 1, 2, 3, un nucleo k_1 da E_1 a E_2, e un nucleo k_2 da E_1 \times E_2 a E_3, si definisce la composizione k_1 \otimes k_2 come il nucleo da E_1 a E_2 \times E_3 definito da

k_1 \otimes k_2(x, A) = \int_{E_2} \left(\int_{E_3} \mathbb{1}_A(y, z) k_2(x, y, \mathrm d z)\right) k_1(x, \mathrm d y),

per ogni x \in E_1 e ogni A \in \mathcal{E}_2 \otimes \mathcal{E}_3.

§ Teorema 2.3.12 (Ionescu-Tulcea). Siano assegnate una successione di spazi di misura (E_n, \mathcal{E}_n)_{n \geq 0}, una misura di probabilità \mu_0 su (E_0, \mathcal{E}_0) e, per ogni n \geq 1, un nucleo k_n da \prod_{0}^{n-1} E_i a E_n, allora esiste uno spazio di probabilità (\Omega, \mathcal{G}, \mathbb{P}) e una successione (X_n)_{n \geq 0} di variabili aleatorie, con X_n : \Omega \to E_n, tali che per ogni n le variabili aleatorie (X_0, X_1, \ldots, X_n) hanno legge \bigotimes_{i=0}^{n-1} k_i.

Informalmente, k_n è la legge condizionale di X_n sapendo X_0, X_1, \ldots, X_{n-1}.

La legge 0-1 di Kolmogorov e i lemmi di Borel-Cantelli

§ Definizione. Su uno spazio (\Omega, \mathcal{F}, \mathbb{P}) sia data una successione (A_n)_{n \geq 1} \subset \mathcal{F} di eventi. Si definiscono il limite superiore della successione,

\limsup_n A_n = \bigcap_{n \geq 1} \bigcup_{k \geq n} A_k = \{\omega \in \Omega : \omega \in A_n \text{ per infiniti } n\},

e il limite inferiore della successione,

\liminf_n A_n = \bigcup_{n \geq 1} \bigcap_{k \geq n} A_k = \{\omega \in \Omega : \omega \in A_n \text{ definitivamente}\}.

Valgono le seguenti proprietà, la cui verifica è elementare.

§ Lemma 2.4.1. Per una successione (A_n)_{n \geq 1} \subset \mathcal{F},

  • (\limsup_n A_n)^c = \liminf_n A_n^c

  • \limsup_n A_n = \{\sum_1 \mathbb{1}_{A_n} = \infty\}

  • \liminf_n A_n = \{\limsup_n \mathbb{1}_{A_n}\} = \liminf_n \mathbb{1}_{A_n}

  • \mathbb{P}[\liminf_n A_n] \leq \liminf_n \mathbb{P}[A_n]

  • \limsup_n \mathbb{P}[A_n] \leq \mathbb{P}[\limsup_n A_n]

Dimostrazione. La prima proprietà è puramente insiemistica. La seconda e la terza seguono dalla definizione. Le ultime due seguono dalla terza e dal Lemma di Fatou.

La legge 0-1 di Kolmogorov

Si consideri su uno spazio di probabilità (\Omega, \mathcal{F}, \mathbb{P}) una successione (X_n)_{n \geq 1} di variabili aleatorie indipendenti.

§ Definizione 2.4.2 La \sigma-algebra coda \mathcal{F}^\infty generata da una successione (X_n)_{n \geq 1} di variabili aleatorie indipendenti è definita come

\mathcal{F}^\infty = \bigcap_{n=1}^{\infty} \mathcal{F}^n

dove per ogni n \geq 1, \mathcal{F}^n = \sigma(X_n, X_{n+1}, \ldots).

Esempio 2.4.3. Sia data una successione di variabili aleatorie indipendenti (X_n)_{n \geq 1}.

  • Se per ogni n \geq 1, A_n \in \mathcal{F}^n, allora \limsup_n A_n e \liminf_n A_n sono in \mathcal{F}^\infty.

In effetti, per ogni m \geq 1,

\limsup_n A_n = \bigcap_n \bigcup_{k \geq n} A_k = \bigcap_n \bigcup_{k \geq n} A_k

in quanto le unioni nella formula precedente costituiscono una successione decrescente per inclusione, e l’elemento \omega sta di fronte a \mathcal{F}^m. Un argomento analogo vale per \liminf_n A_n.

  • Le variabili \liminf_n X_n e \limsup_n X_n sono misurabili rispetto a \mathcal{F}^\infty.

  • L’evento \{\sum_{n \geq 1} |X_n| < \infty\} è in \mathcal{F}^\infty.

  • In generale, l’evento \{\sum_{n \geq 1} |X_n| \leq 1\} non è in \mathcal{F}^\infty, ed in generale non è \mathcal{F}^\infty-misurabile la variabile \sum_{n \geq 1} |X_n|.

  • In generale, per il Lemma di misurabilità di Doob, una variabile aleatoria Z è misurabile rispetto a \mathcal{F}^\infty se e solo se per ogni n \geq 1, Z = g_n(X_n, X_{n+1}, \ldots) per una funzione misurabile g_n.

§ Teorema 2.4.4 (Legge 0-1, Kolmogorov). La \sigma-algebra \mathcal{F}^\infty è banale, cioè \mathbb{P}[A] \in \{0, 1\} per ogni A \in \mathcal{F}^\infty.

Dimostrazione. Mostriamo che \mathcal{F}^\infty è indipendente da \mathcal{F}^n per ogni n \geq 1.

In effetti,

\mathcal{F}^n = \sigma\left(\bigcup_{k > 0} \sigma(X_n, X_{n+1}, \ldots, X_{n+k})\right),

in quanto per ogni k, \sigma(X_n, X_{n+1}, \ldots, X_{n+k}) \subset \mathcal{F}^n perché X_n, X_{n+1}, \ldots, X_{n+k} sono misurabili rispetto a \mathcal{F}^n. Inoltre X_{n+k} è misurabile rispetto alla \sigma-algebra \sigma(X_n, X_{n+1}, \ldots, X_{n+k}) per ogni k, e dunque vale anche l’inclusione opposta. Infine l’unione a destra è certamente chiusa per intersezioni finite, e è quindi un \pi-sistema per \mathcal{F}^n. Per verificare l’indipendenza è allora sufficiente, per la Proposizione 2.2.2, testarla su \sigma(X_n, X_{n+1}, \ldots, X_{n+k}) per una funzione misurabile g_n.

Osserviamo infine che, fissato k, \sigma(X_n, X_{n+1}, \ldots, X_{n+k}) \subset \mathcal{F}^{n+1+k} sono indipendenti, e dunque lo sono anche \sigma(X_n, X_{n+1}, \ldots, X_{n+k}) e \mathcal{F}^\infty in quanto \mathcal{F}^\infty \subset \mathcal{F}^{n+1+k}.

Per verificare l’indipendenza è allora sufficiente, per la Proposizione 2.2.2, testarla su \sigma(X_n, X_{n+1}, \ldots, X_{n+k}) per ogni k. Osserviamo infine che, fissato k, \sigma(X_n, X_{n+1}, \ldots, X_{n+k}) e \mathcal{F}^\infty sono indipendenti. Dunque \mathcal{F}^n e \mathcal{F}^\infty sono indipendenti, in quanto \mathcal{F}^n è generata da \sigma(X_n, X_{n+1}, \ldots, X_{n+k}) per ogni k.

Ora, poiché \mathcal{F}^\infty \subset \mathcal{F}^n, se A \in \mathcal{F}^\infty, allora A è indipendente da se stesso, dunque \mathbb{P}[A] = \mathbb{P}[A \cap A] = \mathbb{P}[A]^2, e quindi \mathbb{P}[A] \in \{0, 1\}. \square

Osservazione 2.4.5. Osserviamo che una variabile aleatoria reale X che sia misurabile rispetto a una \mathcal{F}^\infty, deve essere costante. Infatti se F_X è la sua funzione di ripartizione, questa assume i soli valori 0, 1, e se c = \inf\{x : F_X(x) = 1\}, allora \mathbb{P}[X = c] = 1.

Esempio 2.4.6. Se a_n \uparrow \infty, la variabile aleatoria

L = \limsup_n \frac{1}{a_n} \sum_{k=1}^n X_k

è \mathcal{F}^\infty-misurabile. Infatti, per ogni fissato m \geq 2,

L = \limsup_n \left(\frac{1}{a_n} \sum_{k=1}^{m-1} X_k + \frac{1}{a_n} \sum_{k=m}^\infty X_k\right) = \limsup_n \frac{1}{a_n} \sum_{k=m}^\infty X_k,

ed il termine a destra è certamente \mathcal{F}^m-misurabile.

Esempio 2.4.7. Se (A_n)_{n > 0} sono variabili indipendenti, il raggio di convergenza R della serie di potenze

\sum_{n=0}^\infty A_n x^n,

dato dalla formula 1/R = \limsup_n \sqrt[n]{A_n}, è \mathcal{F}^\infty-misurabile e quindi quasi certamente costante.

Esempio 2.4.8. Se (X_n)_{n \geq 1} è una successione di variabili aleatorie indipendenti di Bernoulli di parametro p \in (0,1), allora l’evento

\left\{\sum_{n=1}^\infty \frac{(-1)^{X_n}}{n} \text{ converge}\right\}

è misurabile rispetto a \mathcal{F}^\infty. Infatti, detta (S_n)_{n \geq 1} la successione delle somme parziali della serie, l’evento indicato nella formula precedente si può riscrivere come

\{\limsup_n S_n < \infty\} \cap \{\liminf_n S_n > -\infty\} \cap \{\liminf_n S_n = \limsup_n S_n\},

e resta da mostrare che i tre eventi sono in \mathcal{F}^\infty. Osserviamo che per ogni m \geq 1,

\begin{aligned}
    \{\limsup_n S_n < \infty\}
    &= \{S_m + \limsup_n(S_n - S_m) < \infty\} \\
    &= \{\limsup_n(S_n - S_m) < \infty\}
\end{aligned}

è in \mathcal{F}^{m+1}, e analogamente e per il \liminf. Infine, per ogni m \geq 1,

\begin{aligned}
    & \{\limsup_n S_n - \liminf_n S_n = 0\} = \\
    & = \{\limsup_n(S_n - S_m) - \liminf_n(S_n - S_m) = 0\}
\end{aligned}

Esempio 2.4.9. Se (X_n)_{n > 1} sono variabili aleatorie indipendenti di Bernoulli, se m \geq 1 e se a_1, a_2, \dots, a_m \in \{0,1\}, allora l’evento

\mathbb{P}[X_n = a_1, X_{n+1} = a_2, \dots, X_{n+m-1} = a_m \text{ per infiniti } n] \in \{0,1\}.

Infatti se A_n = \{X_n = a_1, X_{n+1} = a_2, \dots, X_{n+m-1} = a_m\}, allora l’evento nella formula precedente è uguale a \limsup_n A_n.

Esempio 2.4.10. Se (X_n)_{n \geq 1} è una famiglia di variabili indipendenti, e se S_n = \sum_{k=1}^n X_k, allora l’evento (“asintotico”)

\{S_n = 0 \text{ per infiniti } n\} = \left\{\sum_{n=1}^\infty \mathbb{1}_{\{0\}}(S_n) = \infty\right\},

non è in \mathcal{F}^\infty.

I lemmi di Borel-Cantelli

§ Lemma 2.4.11 (Borel-Cantelli I). Sia data una successione (A_n)_{n=1}^\infty di eventi su uno spazio di probabilità (\Omega, \mathcal{F}, \mathbb{P}). Se

\sum_{n \geq 1} \mathbb{P}[A_n] < \infty,

allora \mathbb{P}[\limsup_n A_n] = 0.

Dimostrazione. Se Z = \sum_{n \geq 1} \mathbb{1}_{A_n}, allora Z ha valore atteso finito, in quanto \mathbb{E}[Z] = \sum_{n \geq 1} \mathbb{P}[A_n] e di conseguenza \mathbb{P}[Z = +\infty] = 0. Infine, per quanto visto in precedenza, \limsup_n A_n = \{Z = \infty\}. \square

§ Lemma 2.4.12 (Borel-Cantelli II). Data una successione (A_n)_{n \geq 1} di eventi indipendenti su uno spazio di probabilità (\Omega, \mathcal{F}, \mathbb{P}), se

\sum_{n=1}^\infty \mathbb{P}[A_n] = \infty,

allora \mathbb{P}[\limsup_n A_n] = 1.

Dimostrazione. Mostriamo che \mathbb{P}[\liminf_n A_n^c] = 0. In effetti,

\mathbb{P}[\liminf_n A_n^c] = \mathbb{P}\left[\bigcup_{n \geq 1} \bigcap_{k \geq n} A_k^c\right] = \sup_{n \geq 1} \mathbb{P}\left[\bigcap_{k \geq n} A_k^c\right],

per monotonia delle intersezioni. Inoltre, dato n \geq 1,

\mathbb{P}\left[\bigcap_{k \geq n} A_k^c\right] = \mathbb{P}\left[\bigcap_{k \geq n} \bigcap_{m=n}^k A_m^c\right] = \lim_k \mathbb{P}\left[\bigcap_{m=n}^k A_m^c\right] = \lim_k \prod_{m=n}^k (1 - \mathbb{P}[A_m]).

Passando ai logaritmi, ed utilizzando la disuguaglianza \log(1+x) \leq x, valida per x > -1, si ha

\sum_{m=n}^k \log(1 - \mathbb{P}[A_m]) \leq -\sum_{m=n}^k \mathbb{P}[A_m] \downarrow -\infty,

per ipotesi. \square

Osservazione 2.4.13. Nelle ipotesi di indipendenza della successione (A_n)_{n \geq 1}, si ha che che \limsup_n A_n è un evento misurabile rispetto alla \sigma-algebra coda, dunque dalla legge 0-1 di Kolmogorov, \mathbb{P}[\limsup_n A_n] \in \{0, 1\}. I lemmi di Borel-Cantelli forniscono la condizione che permette di stabilire il valore della probabilità tra i due possibili.

Esempio 2.4.14. Siano (X_n)_{n \geq 1} variabili indipendenti di Bernoulli di parametro p \in (0,1). Dati m \geq 1 e (a_1, a_2, \dots, a_m) \in \{0,1\}, l’evento

A = \{X_n = a_1, X_{n+1} = a_2, \dots, X_{n+m-1} = a_m \text{ per infiniti } n\}

ha probabilità 1. Infatti, se A_k = \{X_{km} = a_1, X_{km+1} = a_2, \dots, X_{km+m-1} = a_m\}, allora gli eventi (A_k)_{k \geq 1} sono indipendenti e \limsup_k A_k \subset A.

Esempio 2.4.15. Siano (X_n)_{n \geq 1} variabili aleatorie esponenziali indipendenti di parametro \lambda > 0. Allora

\mathbb{P}\left[\liminf_n \frac{X_n}{\log n} = 0\right] = 1, \quad \mathbb{P}\left[\limsup_n \frac{X_n}{\log n} = \frac{1}{\lambda}\right] = 1.

Esempio 2.4.16. Una scatola contiene un gettone rosso ed un gettone blu. Dopo ogni estrazione si reinserisce nella scatola il gettone estratto e si aggiunge un nuovo gettone blu. Il gettone rosso viene estratto infinite volte con probabilità uno.

Se invece alla n-esima estrazione (per ogni n), oltre che reinserire il gettone estratto si inseriscono n nuovi gettoni blu, allora il gettone rosso viene estratto per al più un numero finito di volte con probabilità uno.

In realtà il secondo lemma di Borel-Cantelli risulta valido supponendo ipotesi più deboli dell’indipendenza degli eventi. Ad esempio, il seguente risultato mostra che è sufficiente l’indipendenza a due a due degli eventi.

§ Proposizione 2.4.17. (Borel-Cantelli II, forma debole). Sia data una successione (A_n)_{n \ge 1} di eventi a due a due indipendenti su uno spazio di probabilità (\Omega, \mathcal{F}, \mathbb{P}). Se

\sum_{n=1}^\infty \mathbb{P}[A_n] = \infty,

allora \mathbb{P}[\limsup_n A_n] = 1.

Dimostrazione. Posto p_n = \mathbb{P}[A_n] per ogni n,

Z_n = \sum_{k=1}^n \mathbb{1}_{A_k}, \quad Z = \sum_{n=1}^\infty \mathbb{1}_{A_n},

si osserva che per concludere è sufficiente mostrare che \mathbb{P}[Z = \infty] = 1. Questo segue se si mostra che \mathbb{P}[Z > \lambda] = 1 per ogni \lambda > 0. Poiché Z_n \uparrow Z, e quindi \{Z_n > \lambda\} \uparrow \{Z > \lambda\}, sarà sufficiente mostrare che \mathbb{P}[Z_n > \lambda] \uparrow 1. Si ha \mathbb{E}[Z_n] \uparrow \infty per ipotesi, inoltre poiché Z_n è somma di variabili di Bernoulli scorrelate,

\mathrm{Var}(Z_n) = \sum_{k=1}^n \mathrm{Var}(\mathbb{1}_{A_k}) = \sum_{k=1}^n p_k(1-p_k) \le \sum_{k=1}^n p_k = \mathbb{E}[Z_n],

quindi per n sufficientemente grande per cui \mathbb{E}[Z_n] \ge 2\lambda, per la disuguaglianza di Chebychev,

\begin{aligned}
\mathbb{P}[Z_n \le \lambda] &\le \mathbb{P}\left[Z_n \le \frac{1}{2}\mathbb{E}[Z_n]\right] \\
&= \mathbb{P}\left[Z_n - \mathbb{E}[Z_n] \le -\frac{1}{2}\mathbb{E}[Z_n]\right] \\
&\le \mathbb{P}\left[|Z_n - \mathbb{E}[Z_n]| \ge \frac{1}{2}\mathbb{E}[Z_n]\right] \\
&\le 4 \frac{\mathrm{Var}(Z_n)}{(\mathbb{E}[Z_n])^2} \le \frac{4}{\mathbb{E}[Z_n]} \to 0,
\end{aligned}

e quindi \mathbb{P}[Z_n > \lambda] \to 1. \square