Esercizi
Capitolo 1 - Teoria della misura
§ Esercizio 1.1. Sia (A_n)_{n \in \mathbb{N}} una successione di eventi su uno spazio di probabilità (\Omega, \mathcal{F}, \mathbb{P}). Mostrare che
\mathbb{P}\left[\bigcup_n A_n\right] \le \sum_n \mathbb{P}[A_n].
Soluzione.
Definiamo una successione di eventi disgiunti (B_n)_{n \in \mathbb{N}} tali che la loro unione coincida con quella degli A_n. Poniamo:
B_1 = A_1, \quad B_n = A_n \setminus \left( \bigcup_{i=1}^{n-1} A_i \right) \text{ per } n > 1.
Si ha che:
-
B_n \subset A_nper ognin. -
B_n \cap B_m = \varnothingpern \neq m. -
\bigcup_{n=1}^\infty B_n = \bigcup_{n=1}^\infty A_n.
Per la proprietà di additività numerabile della misura di probabilità \mathbb{P}:
\mathbb{P}\left[ \bigcup_n A_n \right] = \mathbb{P}\left[ \bigcup_n B_n \right] = \sum_n \mathbb{P}[B_n].
Poiché B_n \subset A_n, per la monotonia della probabilità si ha \mathbb{P}[B_n] \le \mathbb{P}[A_n] per ogni n. Dunque:
\sum_n \mathbb{P}[B_n] \le \sum_n \mathbb{P}[A_n].
Combinando i risultati otteniamo la tesi:
\mathbb{P}\left[ \bigcup_n A_n \right] \le \sum_n \mathbb{P}[A_n].
§ Esercizio 1.2.
-
Mostrare che l’intersezione di
\sigma-algebre è una\sigma-algebra. -
Mostrare che, se
\mathcal{F}_n \subset \mathcal{F}_{n+1}per ognin, allora\bigcup_n \mathcal{F}_nè un’algebra. -
Mostrare infine con un esempio che
\bigcup_n \mathcal{F}_nnon è in generale una\sigma-algebra.
Soluzione.
-
Intersezione di
\sigma-algebre. Sia(\mathcal{F}_i)_{i \in I}una famiglia di\sigma-algebre su\Omega. Sia\mathcal{F} = \bigcap_{i \in I} \mathcal{F}_i.\Omega \in \mathcal{F}_iper ognii \in I, quindi\Omega \in \mathcal{F}.- Se
A \in \mathcal{F}, alloraA \in \mathcal{F}_iper ognii \in I. Poiché ogni\mathcal{F}_iè una\sigma-algebra,A^c \in \mathcal{F}_iper ognii \in I, dunqueA^c \in \mathcal{F}. - Se
(A_n)_{n \ge 1} \subset \mathcal{F}, allora(A_n)_{n \ge 1} \subset \mathcal{F}_iper ognii \in I. Poiché ogni\mathcal{F}_iè una\sigma-algebra,\bigcup_n A_n \in \mathcal{F}_iper ognii \in I, dunque\bigcup_n A_n \in \mathcal{F}.
-
Unione crescente di
\sigma-algebre. Sia(\mathcal{F}_n)_{n \ge 1}una successione crescente di\sigma-algebre, ovvero\mathcal{F}_n \subset \mathcal{F}_{n+1}per ognin. Consideriamo\mathcal{F} = \bigcup_n \mathcal{F}_n.\Omega \in \mathcal{F}_1 \subset \mathcal{F}.- Se
A \in \mathcal{F}, alloraA \in \mathcal{F}_nper qualchen. Poiché\mathcal{F}_nè una\sigma-algebra,A^c \in \mathcal{F}_n \subset \mathcal{F}. - Se
A, B \in \mathcal{F}, alloraA \in \mathcal{F}_neB \in \mathcal{F}_mper certin, m. Supponendo senza perdita di generalitàn \le m, si haA, B \in \mathcal{F}_m, quindiA \cup B \in \mathcal{F}_m \subset \mathcal{F}.
Queste tre proprietà mostrano che
\mathcal{F}è un’algebra. Tuttavia, l’unione non è in generale chiusa per unioni numerabili, e dunque non è necessariamente una\sigma-algebra. -
Controesempio. Si consideri
\Omega = \mathbb{N}e\mathcal{F}_n = \sigma(\{0\}, \{1\}, \{2\}, \dots, \{n\}). Osserviamo che se\Omegaè lo spazio ambiente eA_1, \dots, A_nè una partizione di\Omega(cioè tali cheA_i \cap A_j = \varnothinge\bigcup A_i = \Omega), allora\sigma(A_1, \dots, A_n) = \left\{ \bigcup_{i \in J} A_i : J \subset \{1, \dots, n\} \right\}.In questo caso,
\mathcal{F}_nè la\sigma-algebra generata dalla partizione\{\{0\}, \{1\}, \dots, \{n\}, \{n+1, n+2, \dots\}\}. L’unione\bigcup_n \mathcal{F}_ncontiene tutti i sottoinsiemi finiti di\mathbb{N}e i loro complementari (insiemi co-finiti). Se\bigcup_n \mathcal{F}_nfosse una\sigma-algebra, allora dovrebbe contenere tutte le unioni numerabili dei suoi elementi. In particolare, poiché\{2k\} \in \mathcal{F}_{2k} \subset \mathcal{F}, l’insieme dei numeri pariE = \bigcup_{k=0}^\infty \{2k\}dovrebbe appartenere a\mathcal{F}. MaEnon è né finito né co-finito, quindiE \notin \bigcup_n \mathcal{F}_n.
§ Esercizio 1.4. Se \Omega = \mathbb{R}, \mathcal{A} sia la famiglia delle unioni finite di intervalli del tipo (a, b], con -\infty \le a < b \le +\infty. Mostrare che \mathcal{A} è un’algebra ma non una \sigma-algebra.
Soluzione.
\mathcal{A} è un’algebra:
-
\Omega = (-\infty, +\infty] \in \mathcal{A} -
\mathcal{A}è chiuso per complementare:\left( \bigcup_{i=1}^n (a_i, b_i] \right)^c = \bigcap_{i=1}^n (a_i, b_i]^c = \bigcap_{i=1}^n ((-\infty, a_i] \cup (b_i, +\infty])che è un’unione finita di intervalli del tipo richiesto.
-
\mathcal{A}è chiuso per unioni finite: SianoA = \bigcup_{i=1}^n (a_i, b_i]eB = \bigcup_{j=1}^m (\alpha_j, \beta_j]. AlloraA \cup B = \bigcup_{i=1}^n (a_i, b_i] \cup \bigcup_{j=1}^m (\alpha_j, \beta_j] = \bigcup_{k=1}^{n+m} C_kdove
C_ksono gli intervalli che compongonoAeB. Se gli intervalli non si sovrappongono non ci sono problemi; altrimenti se si sovrappongono ci sono due casi:-
(a, b] \cup (c, d]cona < c < b < d -
(a, b] \cup (b, c]cona < b < c
ma in entrambi i casi l’unione è ancora un intervallo del tipo richiesto.
-
-
Per concludere mostriamo che
\mathcal{A}è chiusa per intersezione finita. SianoA = \bigcup_{i=1}^n (a_i, b_i]eB = \bigcup_{j=1}^m (\alpha_j, \beta_j]. AlloraA \cap B = \bigcup\_{i,j} ((a_i, b_i] \cap (\alpha_j, \beta_j])L’intersezione di due intervalli del tipo
(a, b]è ancora un intervallo dello stesso tipo:(a_i, b_i] \cap (\alpha_j, \beta_j] = (\max(a_i, \alpha_j), \min(b_i, \beta_j)]
(se il primo termine è minore del secondo, altrimenti è \varnothing).
\mathcal{A} non è una \sigma-algebra:
\bigcup_{n=1}^\infty (n, n + \frac{1}{2}] \notin \mathcal{A}poiché non è un’unione finita di intervalli.\bigcap_{n=1}^\infty (-\frac{1}{n}, 0] = \{0\}. Il singoletto\{0\}non può essere scritto come unione finita di intervalli del tipo(a, b], quindi\{0\} \notin \mathcal{A}.
Capitolo 2 - Indipendenza
§ Esercizio 2.1. Siano \mathcal{I}, \mathcal{I}' due \pi-sistemi per cui A, A' sono indipendenti per ogni A \in \mathcal{I} e A' \in \mathcal{I}'. Mostrare che le \sigma-algebre \sigma(\mathcal{I}) e \sigma(\mathcal{I}') sono indipendenti.
Soluzione.
Usiamo il lemma di Dynkin.
Fissato A \in \mathcal{I}, l’insieme \mathcal{M} = \{B \in \sigma(\mathcal{I}') \mid A, B \text{ indipendenti}\} è una classe di Dynkin che contiene il \pi-sistema \mathcal{I}', dunque \mathcal{M} = \sigma(\mathcal{I}').
Analogamente, fissato B \in \sigma(\mathcal{I}'), l’insieme \mathcal{L} = \{A \in \sigma(\mathcal{I}) \mid A, B \text{ indipendenti}\} è una classe di Dynkin che contiene il \pi-sistema \mathcal{I}, dunque \mathcal{L} = \sigma(\mathcal{I}).
§ Esercizio 2.2. Siano X e Y due variabili aleatorie di densità congiunta f rispetto alla misura di Lebesgue bidimensionale. Calcolare la densità (rispetto alla misura di Lebesgue sulla retta) della variabile aleatoria Z = X + Y.
Soluzione.
Calcoliamo la funzione di ripartizione di Z:
\begin{aligned}
F_Z(t) &= \mathbb{P}(Z \le t) = \mathbb{P}(X + Y \le t) \\
&= \mathbb{P}((X, Y) \in \left\{(x, y) \in \mathbb{R}^2 \mid x + y \le t \right\}) \\
&= \iint_{\left\{(x, y) \mid x + y \le t\right\}} f(x, y) \, \mathrm d x \, \mathrm d y \\
&= \iint \bbone_{(-\infty, t]}(x + y) f(x, y) \, \mathrm d x \, \mathrm d y
\end{aligned}
Effettuando il cambio di variabili z = x + y e x = x, si ha:
\begin{aligned}
F_Z(t) &= \iint \bbone_{(-\infty, t]}(z) f(x, z - x) \, \mathrm d z \, \mathrm d x \\
&= \int \bbone_{(-\infty, t]}(z) \left( \int f(x, z - x) \, \mathrm d x \right) \, \mathrm d z \\
&= \int_{-\infty}^t \left( \int f(x, z - x) \, \mathrm d x \right) \, \mathrm d z
\end{aligned}
Dalla definizione di densità, segue che la funzione z \mapsto \int f(x, z - x) \, \mathrm d x è la densità di X + Y.
§ Esercizio 2.6. Siano X_1, \dots, X_n variabili aleatorie indipendenti, con funzione di ripartizione F_{X_1}, \dots, F_{X_n}. Siano M_n = \max\{X_1, \dots, X_n\} e m_n = \min\{X_1, \dots, X_n\}, con funzioni di ripartizione rispettivamente F_{M_n}, F_{m_n}. Mostrare che
F_{M_n}(t) = \prod_{k=1}^n F_{X_k}(t), \quad 1 - F_{m_n}(t) = \prod_{k=1}^n (1 - F_{X_k}(t))
In particolare, se le variabili aleatorie X_k hanno tutte la stessa distribuzione, abbiamo
F_{M_n}(t) = F_{X_1}(t)^n, \quad 1 - F_{m_n}(t) = (1 - F_{X_1}(t))^n
Soluzione.
\begin{aligned}
F_{M_n}(t) &= \mathbb{P}(\max(X_1, \dots, X_n) \le t) \\
&= \mathbb{P}(X_i \le t \quad \forall i=1, \dots, n) \\
&= \prod_{i=1}^n \mathbb{P}(X_i \le t) = \prod_{i=1}^n F_{X_i}(t)
\end{aligned}
\begin{aligned}
F_{m_n}(t) &= \mathbb{P}(\min(X_1, \dots, X_n) \le t) \\
&= 1 - \mathbb{P}(\min(X_1, \dots, X_n) > t) \\
&= 1 - \mathbb{P}(X_i > t \quad \forall i=1, \dots, n) \\
&= 1 - \prod_{i=1}^n (1 - F_{X_i}(t))
\end{aligned}
§ Esercizio 2.9. Siano X, Y due variabili aleatorie indipendenti (positive?), entrambe non costanti. Posto Z = X \cdot Y, mostrare che le variabili aleatorie X, Y, Z non sono una famiglia di variabili aleatorie indipendenti.
Soluzione. Poiché X non è costante, esiste x tale che \mathbb{P}(X \le x) \in (0, 1). Analogamente, poiché Y non è costante, esiste y tale che \mathbb{P}(Y \le y) \in (0, 1).
Allora:
\mathbb{P}(Z > xy) \ge \mathbb{P}(X > x, Y > y) = \mathbb{P}(X > x)\mathbb{P}(Y > y) > 0
Tuttavia, se X \le x e Y \le y, allora Z = X \cdot Y \le xy (assumendo per semplicità X, Y \ge 0, o scegliendo opportunamente i valori), quindi:
\mathbb{P}(X \le x, Y \le y, Z > xy) = 0
Se fossero indipendenti, dovremmo avere:
\mathbb{P}(X \le x, Y \le y, Z > xy) = \mathbb{P}(X \le x) \mathbb{P}(Y \le y) \mathbb{P}(Z > xy) > 0
che è una contraddizione.
Capitolo 3 - Funzione caratteristica
§ Esercizio 3.3. Se X è una variabile aleatoria a valori in \mathbb{Z} e \Phi_X è la sua funzione caratteristica, mostrare che \Phi_X è periodica. Mostrare inoltre che
\mathbb{P}[X = k] = \frac{1}{2\pi} \int_{-\pi}^{\pi} e^{-ikt} \Phi_X(t) \mathrm d t.
(Vale anche il viceversa).
Soluzione.
Poiché X è a valori in \mathbb{Z}, la sua funzione caratteristica è:
\Phi_X(t) = \mathbb{E}[e^{itX}] = \sum_{k \in \mathbb{Z}} \mathbb{P}(X = k) e^{itk}
Questa è una serie di Fourier. La periodicità segue da:
\Phi_X(t + 2\pi) = \sum_{k \in \mathbb{Z}} \mathbb{P}(X = k) e^{i(t + 2\pi)k} = \sum_{k \in \mathbb{Z}} \mathbb{P}(X = k) e^{itk} \underbrace{e^{i2\pi k}}_{=1} = \Phi_X(t)
Per la formula di inversione, i coefficienti della serie sono:
\mathbb{P}(X = k) = \frac{1}{2\pi} \int_{-\pi}^{\pi} e^{-ikt} \Phi_X(t) \mathrm d t
§ Esercizio 3.7. Determinare la funzione caratteristica di una variabile aleatoria Gaussiana di media m e varianza \sigma^2.
Soluzione.
Sia X \sim \mathcal{N}(m, \sigma^2). Possiamo scrivere X = m + \sigma Z dove Z \sim \mathcal{N}(0, 1) è una Gaussiana standard.
La funzione caratteristica di X è legata a quella di Z dalla relazione:
\Phi_X(t) = \mathbb{E}[e^{itX}] = \mathbb{E}[e^{it(m + \sigma Z)}] = e^{itm} \mathbb{E}[e^{i(t\sigma) Z}] = e^{itm} \Phi_Z(\sigma t)
Basta quindi calcolare \Phi_Z(t) = \mathbb{E}[e^{itZ}].
Metodo 1 (Equazione differenziale).
Derivando \Phi_Z(t) = \int_{-\infty}^{\infty} e^{itx} \frac{1}{\sqrt{2\pi}} e^{-\frac{1}{2}x^2} \mathrm d x rispetto a t:
\Phi_Z'(t) = \int_{-\infty}^{\infty} ix e^{itx} \frac{1}{\sqrt{2\pi}} e^{-\frac{1}{2}x^2} \mathrm d x = \frac{i}{\sqrt{2\pi}} \int_{-\infty}^{\infty} e^{itx} (x e^{-\frac{1}{2}x^2}) \mathrm d x
Notando che x e^{-\frac{1}{2}x^2} = -\frac{\mathrm d}{\mathrm d x} e^{-\frac{1}{2}x^2}, integriamo per parti:
\begin{aligned}
\Phi_Z'(t) &= \frac{i}{\sqrt{2\pi}} \left[ e^{itx} (-e^{-\frac{1}{2}x^2}) \right]_{-\infty}^{\infty} - \frac{i}{\sqrt{2\pi}} \int_{-\infty}^{\infty} (it e^{itx}) (-e^{-\frac{1}{2}x^2}) \mathrm d x \\
&= 0 - \frac{t}{\sqrt{2\pi}} \int_{-\infty}^{\infty} e^{itx} e^{-\frac{1}{2}x^2} \mathrm d x = -t \Phi_Z(t)
\end{aligned}
L’equazione \Phi_Z'(t) = -t \Phi_Z(t) con \Phi_Z(0) = 1 ha come soluzione \Phi_Z(t) = e^{-\frac{1}{2}t^2}.
Metodo 2 (Completamento del quadrato).
Calcoliamo direttamente l’integrale per Z:
\Phi_Z(t) = \int_{-\infty}^{\infty} \frac{1}{\sqrt{2\pi}} e^{itx - \frac{1}{2}x^2} \mathrm d x
Completiamo il quadrato nell’esponente:
-\frac{1}{2}x^2 + itx = -\frac{1}{2}(x^2 - 2itx) = -\frac{1}{2}(x - it)^2 + \frac{1}{2}(it)^2 = -\frac{1}{2}(x - it)^2 - \frac{1}{2}t^2
Quindi:
\Phi_Z(t) = e^{-\frac{1}{2}t^2} \underbrace{\int_{-\infty}^{\infty} \frac{1}{\sqrt{2\pi}} e^{-\frac{1}{2}(x - it)^2} \mathrm d x}_{=1} = e^{-\frac{1}{2}t^2}
L’integrale è pari a 1 poiché si tratta dell’integrale di una densità Gaussiana traslata. In conclusione, per X \sim \mathcal{N}(m, \sigma^2):
\Phi_X(t) = e^{itm} \Phi_Z(\sigma t) = e^{itm} e^{-\frac{1}{2}\sigma^2 t^2} = e^{itm - \frac{1}{2}\sigma^2 t^2}
§ Esercizio 3.9. Mostrare che, se X, Y sono indipendenti con legge di Cauchy, allora X + Y ha legge di Cauchy. Concludere che se X_1, \dots, X_n hanno legge di Cauchy, allora \frac{1}{n}(X_1 + \dots + X_n) ha la stessa legge di X_1.
Soluzione.
La funzione caratteristica di una legge di Cauchy standard è \Phi_C(t) = e^{-|t|}.
Se X, Y sono indipendenti e Cauchy, allora:
\Phi_{X+Y}(t) = \Phi_X(t) \Phi_Y(t) = e^{-|t|} e^{-|t|} = e^{-2|t|}
che è la funzione caratteristica di una legge di Cauchy di parametro 2.
In generale, se X_1, \dots, X_n sono indipendenti e Cauchy:
\Phi_{\frac{1}{n}\sum X_i}(t) = \Phi_{\sum X_i}(t/n) = \prod_{i=1}^n \Phi_{X_i}(t/n) = (e^{-|t/n|})^n = e^{-n \frac{|t|}{n}} = e^{-|t|}
Dunque \frac{1}{n}(X_1 + \dots + X_n) ha la stessa legge di X_1.
§ Esercizio 3.16. Se \Phi è una funzione caratteristica e \Phi(t) = 1 + o(t^2) vicino allo zero, allora \Phi \equiv 1.
Soluzione.
Sia \Phi_X(t) = \mathbb{E}[e^{itX}]. Consideriamo la parte reale:
\frac{\Phi_X(t) + \Phi_X(-t)}{2} = \text{Re}(\Phi_X(t)) = \mathbb{E}[\cos(tX)]
Dall’ipotesi \Phi_X(t) = 1 + o(t^2), segue che \mathbb{E}[1 - \cos(tX)] = 1 - \text{Re}(\Phi_X(t)) = o(t^2).
Utilizziamo il lemma di Fatou per t \to 0:
\begin{aligned}
& \mathbb{E}[X^2] \\
&= \mathbb{E}\left[ \liminf_{t \to 0} 2 \frac{1 - \cos(tX)}{t^2} \right] \\
&\le \liminf_{t \to 0} \mathbb{E}\left[ 2 \frac{1 - \cos(tX)}{t^2} \right] \\
&= \liminf_{t \to 0} \frac{2(1 - \text{Re}(\Phi_X(t)))}{t^2} \\
&= 0
\end{aligned}
Poiché \mathbb{E}[X^2] \le 0 e X^2 \ge 0, deve essere X^2 = 0 quasi certamente, ovvero X = 0 q.c.
Dunque \Phi_X(t) = \mathbb{E}[e^{it0}] = 1 per ogni t.
§ Esercizio 3.17. Trovare una variabile aleatoria X con densità e tale che la sua funzione caratteristica \Phi_X non sia integrabile, ovvero \int |\Phi_X(t)| \mathrm d t = \infty.
Soluzione.
Si consideri X \sim \text{Exp}(1), ovvero con densità f_X(x) = e^{-x} \bbone_{(0, \infty)}(x).
La sua funzione caratteristica è:
\Phi_X(t) = \int_0^\infty e^{itx} e^{-x} \mathrm d x = \int_0^\infty e^{-(1-it)x} \mathrm d x = \left[ \frac{e^{-(1-it)x}}{-(1-it)} \right]_0^\infty = \frac{1}{1-it}
Il modulo è |\Phi_X(t)| = \frac{1}{\sqrt{1+t^2}}, che per t \to \infty si comporta come 1/|t|, dunque non è integrabile su \mathbb{R}.
§ Esercizio 3.20. Trovare tre variabili aleatorie X, Y, Z tali che X + Y e X + Z abbiano la stessa legge, ma Y e Z abbiano leggi differenti.
Soluzione.
Siano X, Y, Z variabili aleatorie tali che X+Y e X+Z abbiano la stessa legge. Se X, Y sono indipendenti e X, Z sono indipendenti, allora \Phi_X(t)\Phi_Y(t) = \Phi_X(t)\Phi_Z(t).
Se \Phi_X(t) si annulla per qualche t, non possiamo concludere in quanto \Phi_Y(t) = \Phi_Z(t).
Un esempio è dato da X \sim \text{Bernoulli}(1/2), Y = 0 e Z = 1 - 2X.
Allora:
X+Y = Xha legge\frac{1}{2}\delta_0 + \frac{1}{2}\delta_1.X+Z = X + 1 - 2X = 1 - Xha legge\frac{1}{2}\delta_1 + \frac{1}{2}\delta_0. DunqueX+YeX+Zhanno la stessa legge. TuttaviaYha legge\delta_0, mentreZha legge\frac{1}{2}\delta_1 + \frac{1}{2}\delta_{-1}, quindi hanno leggi differenti.
§ Esercizio 3.21. Mostrare che, se X, Y sono indipendenti e X + Y ha la stessa legge di X, allora Y = 0 q.c.
Soluzione. Dall’indipendenza e dall’uguaglianza in legge segue:
\Phi_{X+Y}(t) = \Phi_X(t) \Phi_Y(t) = \Phi_X(t) \implies \Phi_X(t)(\Phi_Y(t) - 1) = 0
Poiché \Phi_X(0) = 1 e \Phi_X è continua, esiste un intorno di 0 in cui \Phi_X(t) \neq 0. In tale intorno deve quindi essere \Phi_Y(t) = 1.
Poiché \Phi_Y(t) = 1 in un intorno di 0, si ha in particolare \Phi_Y(t) = 1 + o(t^2) per t \to 0. Per l’Esercizio 3.16, questo implica che \Phi_Y \equiv 1, ovvero Y = 0 q.c.
Capitolo 4 - Convergenza
… TODO …