Esercizi

Capitolo 1 - Teoria della misura

§ Esercizio 1.1. Sia (A_n)_{n \in \mathbb{N}} una successione di eventi su uno spazio di probabilità (\Omega, \mathcal{F}, \mathbb{P}). Mostrare che

\mathbb{P}\left[\bigcup_n A_n\right] \le \sum_n \mathbb{P}[A_n].

Soluzione. Definiamo una successione di eventi disgiunti (B_n)_{n \in \mathbb{N}} tali che la loro unione coincida con quella degli A_n. Poniamo:

B_1 = A_1, \quad B_n = A_n \setminus \left( \bigcup_{i=1}^{n-1} A_i \right) \text{ per } n > 1.

Si ha che:

  1. B_n \subset A_n per ogni n.

  2. B_n \cap B_m = \varnothing per n \neq m.

  3. \bigcup_{n=1}^\infty B_n = \bigcup_{n=1}^\infty A_n.

Per la proprietà di additività numerabile della misura di probabilità \mathbb{P}:

\mathbb{P}\left[ \bigcup_n A_n \right] = \mathbb{P}\left[ \bigcup_n B_n \right] = \sum_n \mathbb{P}[B_n].

Poiché B_n \subset A_n, per la monotonia della probabilità si ha \mathbb{P}[B_n] \le \mathbb{P}[A_n] per ogni n. Dunque:

\sum_n \mathbb{P}[B_n] \le \sum_n \mathbb{P}[A_n].

Combinando i risultati otteniamo la tesi:

\mathbb{P}\left[ \bigcup_n A_n \right] \le \sum_n \mathbb{P}[A_n].

§ Esercizio 1.2.

  • Mostrare che l’intersezione di \sigma-algebre è una \sigma-algebra.

  • Mostrare che, se \mathcal{F}_n \subset \mathcal{F}_{n+1} per ogni n, allora \bigcup_n \mathcal{F}_n è un’algebra.

  • Mostrare infine con un esempio che \bigcup_n \mathcal{F}_n non è in generale una \sigma-algebra.

Soluzione.

  • Intersezione di \sigma-algebre. Sia (\mathcal{F}_i)_{i \in I} una famiglia di \sigma-algebre su \Omega. Sia \mathcal{F} = \bigcap_{i \in I} \mathcal{F}_i.

    • \Omega \in \mathcal{F}_i per ogni i \in I, quindi \Omega \in \mathcal{F}.
    • Se A \in \mathcal{F}, allora A \in \mathcal{F}_i per ogni i \in I. Poiché ogni \mathcal{F}_i è una \sigma-algebra, A^c \in \mathcal{F}_i per ogni i \in I, dunque A^c \in \mathcal{F}.
    • Se (A_n)_{n \ge 1} \subset \mathcal{F}, allora (A_n)_{n \ge 1} \subset \mathcal{F}_i per ogni i \in I. Poiché ogni \mathcal{F}_i è una \sigma-algebra, \bigcup_n A_n \in \mathcal{F}_i per ogni i \in I, dunque \bigcup_n A_n \in \mathcal{F}.
  • Unione crescente di \sigma-algebre. Sia (\mathcal{F}_n)_{n \ge 1} una successione crescente di \sigma-algebre, ovvero \mathcal{F}_n \subset \mathcal{F}_{n+1} per ogni n. Consideriamo \mathcal{F} = \bigcup_n \mathcal{F}_n.

    • \Omega \in \mathcal{F}_1 \subset \mathcal{F}.
    • Se A \in \mathcal{F}, allora A \in \mathcal{F}_n per qualche n. Poiché \mathcal{F}_n è una \sigma-algebra, A^c \in \mathcal{F}_n \subset \mathcal{F}.
    • Se A, B \in \mathcal{F}, allora A \in \mathcal{F}_n e B \in \mathcal{F}_m per certi n, m. Supponendo senza perdita di generalità n \le m, si ha A, B \in \mathcal{F}_m, quindi A \cup B \in \mathcal{F}_m \subset \mathcal{F}.

    Queste tre proprietà mostrano che \mathcal{F} è un’algebra. Tuttavia, l’unione non è in generale chiusa per unioni numerabili, e dunque non è necessariamente una \sigma-algebra.

  • Controesempio. Si consideri \Omega = \mathbb{N} e \mathcal{F}_n = \sigma(\{0\}, \{1\}, \{2\}, \dots, \{n\}). Osserviamo che se \Omega è lo spazio ambiente e A_1, \dots, A_n è una partizione di \Omega (cioè tali che A_i \cap A_j = \varnothing e \bigcup A_i = \Omega), allora

    \sigma(A_1, \dots, A_n) = \left\{ \bigcup_{i \in J} A_i : J \subset \{1, \dots, n\} \right\}.

    In questo caso, \mathcal{F}_n è la \sigma-algebra generata dalla partizione \{\{0\}, \{1\}, \dots, \{n\}, \{n+1, n+2, \dots\}\}. L’unione \bigcup_n \mathcal{F}_n contiene tutti i sottoinsiemi finiti di \mathbb{N} e i loro complementari (insiemi co-finiti). Se \bigcup_n \mathcal{F}_n fosse una \sigma-algebra, allora dovrebbe contenere tutte le unioni numerabili dei suoi elementi. In particolare, poiché \{2k\} \in \mathcal{F}_{2k} \subset \mathcal{F}, l’insieme dei numeri pari E = \bigcup_{k=0}^\infty \{2k\} dovrebbe appartenere a \mathcal{F}. Ma E non è né finito né co-finito, quindi E \notin \bigcup_n \mathcal{F}_n.

§ Esercizio 1.4. Se \Omega = \mathbb{R}, \mathcal{A} sia la famiglia delle unioni finite di intervalli del tipo (a, b], con -\infty \le a < b \le +\infty. Mostrare che \mathcal{A} è un’algebra ma non una \sigma-algebra.

Soluzione. \mathcal{A} è un’algebra:

  • \Omega = (-\infty, +\infty] \in \mathcal{A}

  • \mathcal{A} è chiuso per complementare:

    \left( \bigcup_{i=1}^n (a_i, b_i] \right)^c = \bigcap_{i=1}^n (a_i, b_i]^c = \bigcap_{i=1}^n ((-\infty, a_i] \cup (b_i, +\infty])

    che è un’unione finita di intervalli del tipo richiesto.

  • \mathcal{A} è chiuso per unioni finite: Siano A = \bigcup_{i=1}^n (a_i, b_i] e B = \bigcup_{j=1}^m (\alpha_j, \beta_j]. Allora

    A \cup B = \bigcup_{i=1}^n (a_i, b_i] \cup \bigcup_{j=1}^m (\alpha_j, \beta_j] = \bigcup_{k=1}^{n+m} C_k

    dove C_k sono gli intervalli che compongono A e B. Se gli intervalli non si sovrappongono non ci sono problemi; altrimenti se si sovrappongono ci sono due casi:

    • (a, b] \cup (c, d] con a < c < b < d

    • (a, b] \cup (b, c] con a < b < c

    ma in entrambi i casi l’unione è ancora un intervallo del tipo richiesto.

  • Per concludere mostriamo che \mathcal{A} è chiusa per intersezione finita. Siano A = \bigcup_{i=1}^n (a_i, b_i] e B = \bigcup_{j=1}^m (\alpha_j, \beta_j]. Allora

    A \cap B = \bigcup\_{i,j} ((a_i, b_i] \cap (\alpha_j, \beta_j])

    L’intersezione di due intervalli del tipo (a, b] è ancora un intervallo dello stesso tipo:

    (a_i, b_i] \cap (\alpha_j, \beta_j] = (\max(a_i, \alpha_j), \min(b_i, \beta_j)]

(se il primo termine è minore del secondo, altrimenti è \varnothing).

\mathcal{A} non è una \sigma-algebra:

  • \bigcup_{n=1}^\infty (n, n + \frac{1}{2}] \notin \mathcal{A} poiché non è un’unione finita di intervalli.
  • \bigcap_{n=1}^\infty (-\frac{1}{n}, 0] = \{0\}. Il singoletto \{0\} non può essere scritto come unione finita di intervalli del tipo (a, b], quindi \{0\} \notin \mathcal{A}.

Capitolo 2 - Indipendenza

§ Esercizio 2.1. Siano \mathcal{I}, \mathcal{I}' due \pi-sistemi per cui A, A' sono indipendenti per ogni A \in \mathcal{I} e A' \in \mathcal{I}'. Mostrare che le \sigma-algebre \sigma(\mathcal{I}) e \sigma(\mathcal{I}') sono indipendenti.

Soluzione. Usiamo il lemma di Dynkin. Fissato A \in \mathcal{I}, l’insieme \mathcal{M} = \{B \in \sigma(\mathcal{I}') \mid A, B \text{ indipendenti}\} è una classe di Dynkin che contiene il \pi-sistema \mathcal{I}', dunque \mathcal{M} = \sigma(\mathcal{I}'). Analogamente, fissato B \in \sigma(\mathcal{I}'), l’insieme \mathcal{L} = \{A \in \sigma(\mathcal{I}) \mid A, B \text{ indipendenti}\} è una classe di Dynkin che contiene il \pi-sistema \mathcal{I}, dunque \mathcal{L} = \sigma(\mathcal{I}).

§ Esercizio 2.2. Siano X e Y due variabili aleatorie di densità congiunta f rispetto alla misura di Lebesgue bidimensionale. Calcolare la densità (rispetto alla misura di Lebesgue sulla retta) della variabile aleatoria Z = X + Y.

Soluzione. Calcoliamo la funzione di ripartizione di Z:

\begin{aligned}
F_Z(t) &= \mathbb{P}(Z \le t) = \mathbb{P}(X + Y \le t) \\
&= \mathbb{P}((X, Y) \in \left\{(x, y) \in \mathbb{R}^2 \mid x + y \le t \right\}) \\
&= \iint_{\left\{(x, y) \mid x + y \le t\right\}} f(x, y) \, \mathrm d x \, \mathrm d y \\
&= \iint \bbone_{(-\infty, t]}(x + y) f(x, y) \, \mathrm d x \, \mathrm d y
\end{aligned}

Effettuando il cambio di variabili z = x + y e x = x, si ha:

\begin{aligned}
F_Z(t) &= \iint \bbone_{(-\infty, t]}(z) f(x, z - x) \, \mathrm d z \, \mathrm d x \\
&= \int \bbone_{(-\infty, t]}(z) \left( \int f(x, z - x) \, \mathrm d x \right) \, \mathrm d z \\
&= \int_{-\infty}^t \left( \int f(x, z - x) \, \mathrm d x \right) \, \mathrm d z
\end{aligned}

Dalla definizione di densità, segue che la funzione z \mapsto \int f(x, z - x) \, \mathrm d x è la densità di X + Y.

§ Esercizio 2.6. Siano X_1, \dots, X_n variabili aleatorie indipendenti, con funzione di ripartizione F_{X_1}, \dots, F_{X_n}. Siano M_n = \max\{X_1, \dots, X_n\} e m_n = \min\{X_1, \dots, X_n\}, con funzioni di ripartizione rispettivamente F_{M_n}, F_{m_n}. Mostrare che

F_{M_n}(t) = \prod_{k=1}^n F_{X_k}(t), \quad 1 - F_{m_n}(t) = \prod_{k=1}^n (1 - F_{X_k}(t))

In particolare, se le variabili aleatorie X_k hanno tutte la stessa distribuzione, abbiamo

F_{M_n}(t) = F_{X_1}(t)^n, \quad 1 - F_{m_n}(t) = (1 - F_{X_1}(t))^n

Soluzione.

\begin{aligned}
F_{M_n}(t) &= \mathbb{P}(\max(X_1, \dots, X_n) \le t) \\
&= \mathbb{P}(X_i \le t \quad \forall i=1, \dots, n) \\
&= \prod_{i=1}^n \mathbb{P}(X_i \le t) = \prod_{i=1}^n F_{X_i}(t)
\end{aligned}
\begin{aligned}
F_{m_n}(t) &= \mathbb{P}(\min(X_1, \dots, X_n) \le t) \\
&= 1 - \mathbb{P}(\min(X_1, \dots, X_n) > t) \\
&= 1 - \mathbb{P}(X_i > t \quad \forall i=1, \dots, n) \\
&= 1 - \prod_{i=1}^n (1 - F_{X_i}(t))
\end{aligned}

§ Esercizio 2.9. Siano X, Y due variabili aleatorie indipendenti (positive?), entrambe non costanti. Posto Z = X \cdot Y, mostrare che le variabili aleatorie X, Y, Z non sono una famiglia di variabili aleatorie indipendenti.

Soluzione. Poiché X non è costante, esiste x tale che \mathbb{P}(X \le x) \in (0, 1). Analogamente, poiché Y non è costante, esiste y tale che \mathbb{P}(Y \le y) \in (0, 1).

Allora:

\mathbb{P}(Z > xy) \ge \mathbb{P}(X > x, Y > y) = \mathbb{P}(X > x)\mathbb{P}(Y > y) > 0

Tuttavia, se X \le x e Y \le y, allora Z = X \cdot Y \le xy (assumendo per semplicità X, Y \ge 0, o scegliendo opportunamente i valori), quindi:

\mathbb{P}(X \le x, Y \le y, Z > xy) = 0

Se fossero indipendenti, dovremmo avere:

\mathbb{P}(X \le x, Y \le y, Z > xy) = \mathbb{P}(X \le x) \mathbb{P}(Y \le y) \mathbb{P}(Z > xy) > 0

che è una contraddizione.

Capitolo 3 - Funzione caratteristica

§ Esercizio 3.3. Se X è una variabile aleatoria a valori in \mathbb{Z} e \Phi_X è la sua funzione caratteristica, mostrare che \Phi_X è periodica. Mostrare inoltre che

\mathbb{P}[X = k] = \frac{1}{2\pi} \int_{-\pi}^{\pi} e^{-ikt} \Phi_X(t) \mathrm d t.

(Vale anche il viceversa).

Soluzione. Poiché X è a valori in \mathbb{Z}, la sua funzione caratteristica è:

\Phi_X(t) = \mathbb{E}[e^{itX}] = \sum_{k \in \mathbb{Z}} \mathbb{P}(X = k) e^{itk}

Questa è una serie di Fourier. La periodicità segue da:

\Phi_X(t + 2\pi) = \sum_{k \in \mathbb{Z}} \mathbb{P}(X = k) e^{i(t + 2\pi)k} = \sum_{k \in \mathbb{Z}} \mathbb{P}(X = k) e^{itk} \underbrace{e^{i2\pi k}}_{=1} = \Phi_X(t)

Per la formula di inversione, i coefficienti della serie sono:

\mathbb{P}(X = k) = \frac{1}{2\pi} \int_{-\pi}^{\pi} e^{-ikt} \Phi_X(t) \mathrm d t

§ Esercizio 3.7. Determinare la funzione caratteristica di una variabile aleatoria Gaussiana di media m e varianza \sigma^2.

Soluzione. Sia X \sim \mathcal{N}(m, \sigma^2). Possiamo scrivere X = m + \sigma Z dove Z \sim \mathcal{N}(0, 1) è una Gaussiana standard. La funzione caratteristica di X è legata a quella di Z dalla relazione:

\Phi_X(t) = \mathbb{E}[e^{itX}] = \mathbb{E}[e^{it(m + \sigma Z)}] = e^{itm} \mathbb{E}[e^{i(t\sigma) Z}] = e^{itm} \Phi_Z(\sigma t)

Basta quindi calcolare \Phi_Z(t) = \mathbb{E}[e^{itZ}].

Metodo 1 (Equazione differenziale). Derivando \Phi_Z(t) = \int_{-\infty}^{\infty} e^{itx} \frac{1}{\sqrt{2\pi}} e^{-\frac{1}{2}x^2} \mathrm d x rispetto a t:

\Phi_Z'(t) = \int_{-\infty}^{\infty} ix e^{itx} \frac{1}{\sqrt{2\pi}} e^{-\frac{1}{2}x^2} \mathrm d x = \frac{i}{\sqrt{2\pi}} \int_{-\infty}^{\infty} e^{itx} (x e^{-\frac{1}{2}x^2}) \mathrm d x

Notando che x e^{-\frac{1}{2}x^2} = -\frac{\mathrm d}{\mathrm d x} e^{-\frac{1}{2}x^2}, integriamo per parti:

\begin{aligned}
\Phi_Z'(t) &= \frac{i}{\sqrt{2\pi}} \left[ e^{itx} (-e^{-\frac{1}{2}x^2}) \right]_{-\infty}^{\infty} - \frac{i}{\sqrt{2\pi}} \int_{-\infty}^{\infty} (it e^{itx}) (-e^{-\frac{1}{2}x^2}) \mathrm d x \\
&= 0 - \frac{t}{\sqrt{2\pi}} \int_{-\infty}^{\infty} e^{itx} e^{-\frac{1}{2}x^2} \mathrm d x = -t \Phi_Z(t)
\end{aligned}

L’equazione \Phi_Z'(t) = -t \Phi_Z(t) con \Phi_Z(0) = 1 ha come soluzione \Phi_Z(t) = e^{-\frac{1}{2}t^2}.

Metodo 2 (Completamento del quadrato). Calcoliamo direttamente l’integrale per Z:

\Phi_Z(t) = \int_{-\infty}^{\infty} \frac{1}{\sqrt{2\pi}} e^{itx - \frac{1}{2}x^2} \mathrm d x

Completiamo il quadrato nell’esponente:

-\frac{1}{2}x^2 + itx = -\frac{1}{2}(x^2 - 2itx) = -\frac{1}{2}(x - it)^2 + \frac{1}{2}(it)^2 = -\frac{1}{2}(x - it)^2 - \frac{1}{2}t^2

Quindi:

\Phi_Z(t) = e^{-\frac{1}{2}t^2} \underbrace{\int_{-\infty}^{\infty} \frac{1}{\sqrt{2\pi}} e^{-\frac{1}{2}(x - it)^2} \mathrm d x}_{=1} = e^{-\frac{1}{2}t^2}

L’integrale è pari a 1 poiché si tratta dell’integrale di una densità Gaussiana traslata. In conclusione, per X \sim \mathcal{N}(m, \sigma^2):

\Phi_X(t) = e^{itm} \Phi_Z(\sigma t) = e^{itm} e^{-\frac{1}{2}\sigma^2 t^2} = e^{itm - \frac{1}{2}\sigma^2 t^2}

§ Esercizio 3.9. Mostrare che, se X, Y sono indipendenti con legge di Cauchy, allora X + Y ha legge di Cauchy. Concludere che se X_1, \dots, X_n hanno legge di Cauchy, allora \frac{1}{n}(X_1 + \dots + X_n) ha la stessa legge di X_1.

Soluzione. La funzione caratteristica di una legge di Cauchy standard è \Phi_C(t) = e^{-|t|}. Se X, Y sono indipendenti e Cauchy, allora:

\Phi_{X+Y}(t) = \Phi_X(t) \Phi_Y(t) = e^{-|t|} e^{-|t|} = e^{-2|t|}

che è la funzione caratteristica di una legge di Cauchy di parametro 2. In generale, se X_1, \dots, X_n sono indipendenti e Cauchy:

\Phi_{\frac{1}{n}\sum X_i}(t) = \Phi_{\sum X_i}(t/n) = \prod_{i=1}^n \Phi_{X_i}(t/n) = (e^{-|t/n|})^n = e^{-n \frac{|t|}{n}} = e^{-|t|}

Dunque \frac{1}{n}(X_1 + \dots + X_n) ha la stessa legge di X_1.

§ Esercizio 3.16. Se \Phi è una funzione caratteristica e \Phi(t) = 1 + o(t^2) vicino allo zero, allora \Phi \equiv 1.

Soluzione. Sia \Phi_X(t) = \mathbb{E}[e^{itX}]. Consideriamo la parte reale:

\frac{\Phi_X(t) + \Phi_X(-t)}{2} = \text{Re}(\Phi_X(t)) = \mathbb{E}[\cos(tX)]

Dall’ipotesi \Phi_X(t) = 1 + o(t^2), segue che \mathbb{E}[1 - \cos(tX)] = 1 - \text{Re}(\Phi_X(t)) = o(t^2). Utilizziamo il lemma di Fatou per t \to 0:

\begin{aligned}
    & \mathbb{E}[X^2] \\
    &= \mathbb{E}\left[ \liminf_{t \to 0} 2 \frac{1 - \cos(tX)}{t^2} \right] \\
    &\le \liminf_{t \to 0} \mathbb{E}\left[ 2 \frac{1 - \cos(tX)}{t^2} \right] \\
    &= \liminf_{t \to 0} \frac{2(1 - \text{Re}(\Phi_X(t)))}{t^2} \\
    &= 0
\end{aligned}

Poiché \mathbb{E}[X^2] \le 0 e X^2 \ge 0, deve essere X^2 = 0 quasi certamente, ovvero X = 0 q.c. Dunque \Phi_X(t) = \mathbb{E}[e^{it0}] = 1 per ogni t.

§ Esercizio 3.17. Trovare una variabile aleatoria X con densità e tale che la sua funzione caratteristica \Phi_X non sia integrabile, ovvero \int |\Phi_X(t)| \mathrm d t = \infty.

Soluzione. Si consideri X \sim \text{Exp}(1), ovvero con densità f_X(x) = e^{-x} \bbone_{(0, \infty)}(x). La sua funzione caratteristica è:

\Phi_X(t) = \int_0^\infty e^{itx} e^{-x} \mathrm d x = \int_0^\infty e^{-(1-it)x} \mathrm d x = \left[ \frac{e^{-(1-it)x}}{-(1-it)} \right]_0^\infty = \frac{1}{1-it}

Il modulo è |\Phi_X(t)| = \frac{1}{\sqrt{1+t^2}}, che per t \to \infty si comporta come 1/|t|, dunque non è integrabile su \mathbb{R}.

§ Esercizio 3.20. Trovare tre variabili aleatorie X, Y, Z tali che X + Y e X + Z abbiano la stessa legge, ma Y e Z abbiano leggi differenti.

Soluzione. Siano X, Y, Z variabili aleatorie tali che X+Y e X+Z abbiano la stessa legge. Se X, Y sono indipendenti e X, Z sono indipendenti, allora \Phi_X(t)\Phi_Y(t) = \Phi_X(t)\Phi_Z(t). Se \Phi_X(t) si annulla per qualche t, non possiamo concludere in quanto \Phi_Y(t) = \Phi_Z(t).

Un esempio è dato da X \sim \text{Bernoulli}(1/2), Y = 0 e Z = 1 - 2X. Allora:

  • X+Y = X ha legge \frac{1}{2}\delta_0 + \frac{1}{2}\delta_1.
  • X+Z = X + 1 - 2X = 1 - X ha legge \frac{1}{2}\delta_1 + \frac{1}{2}\delta_0. Dunque X+Y e X+Z hanno la stessa legge. Tuttavia Y ha legge \delta_0, mentre Z ha legge \frac{1}{2}\delta_1 + \frac{1}{2}\delta_{-1}, quindi hanno leggi differenti.

§ Esercizio 3.21. Mostrare che, se X, Y sono indipendenti e X + Y ha la stessa legge di X, allora Y = 0 q.c.

Soluzione. Dall’indipendenza e dall’uguaglianza in legge segue:

\Phi_{X+Y}(t) = \Phi_X(t) \Phi_Y(t) = \Phi_X(t) \implies \Phi_X(t)(\Phi_Y(t) - 1) = 0

Poiché \Phi_X(0) = 1 e \Phi_X è continua, esiste un intorno di 0 in cui \Phi_X(t) \neq 0. In tale intorno deve quindi essere \Phi_Y(t) = 1. Poiché \Phi_Y(t) = 1 in un intorno di 0, si ha in particolare \Phi_Y(t) = 1 + o(t^2) per t \to 0. Per l’Esercizio 3.16, questo implica che \Phi_Y \equiv 1, ovvero Y = 0 q.c.

Capitolo 4 - Convergenza

… TODO …