Funzione caratteristica

Sia (\Omega, \mathcal{F}, \mathbb{P}) uno spazio di probabilità e X una variabile aleatoria reale.

§ Definizione 3.1.1. Definiamo la funzione caratteristica come una funzione \phi_X: \mathbb{R} \to \mathbb{C} tale che

\phi_X(t) = \mathbb{E}[e^{itX}]

La funzione caratteristica è essenzialmente la trasformata di Fourier della legge di X.

Osservazione 3.1.2. Ricordando che e^{itX} = \cos(tX) + i \sin(tX), si ha che \mathbb{E}[e^{itX}] = \mathbb{E}[\cos(tX)] + i \mathbb{E}[\sin(tX)]. Passando al modulo, otteniamo:

|\mathbb{E}(e^{itX})| \le \mathbb{E}[|e^{itX}|] = 1.

Osservazione 3.1.3. Se X è una variabile aleatoria a valori in \mathbb{R}^d, la funzione caratteristica \phi_X: \mathbb{R}^d \to \mathbb{C} è definita come \phi_X(t) = \mathbb{E}[e^{it \cdot X}], dove t \cdot X indica il prodotto scalare.

Proprietà della funzione caratteristica

§ Proposizione. Valgono le seguenti proprietà:

  • Limitatezza del modulo: \phi_X(0) = 1 e \forall t. \; |\phi_X(t)| \le 1

  • Linearità: \forall t. \; \phi_{aX+b}(t) = e^{ibt} \phi_X(at)

  • X, Y indipendenti \Rightarrow \forall t. \; \phi_{X+Y}(t) = \phi_X(t) \phi_Y(t)

  • \phi_X è uniformemente continua.

Dimostrazione.

  • Uniforme continuità: Siano s, t \in \mathbb{R}, allora

    |\phi_X(t+s) - \phi_X(t)| = |\mathbb{E}(e^{i(t+s)X}) - \mathbb{E}(e^{itX})| = |\mathbb{E}[e^{itX}(e^{isX}-1)]| \le \mathbb{E}[|e^{isX}-1|].

    Poiché |e^{isX}-1| \le 2 e e^{isX}-1 \to 0 per s \to 0, per il teorema della convergenza dominata si ha che \mathbb{E}[|e^{isX}-1|] \to 0 quando s \to 0. \square

Osservazione 3.1.4. Si ha che \mathbb{E}[e^{itX}] = \int e^{itx} \mathbb P_X(\mathrm d x). Di conseguenza, per una funzione \varphi opportuna:

\int \varphi(t) \int e^{itx} \mathbb P_X(\mathrm d x) \mathrm d t = \int \left(\int \varphi(t) e^{itx} \mathrm d t\right) \mathbb P_X(\mathrm d x) = \int \hat{\varphi}(x) \mathbb P_X(\mathrm d x).

In particolare, se X ha densità f_X, allora \phi_X = \hat{f}_X.

Derivabilità della funzione caratteristica

§ Teorema 3.2.1. Sia X una variabile aleatoria reale con momenti fino all’indice k \ge 1. Allora \phi_X è differenziabile k volte con derivate continue date da:

\phi_X^{(j)}(t) = i^j \mathbb{E}[X^j e^{itX}]

per ogni t e ogni j=1, \dots, k.

Dimostrazione. Per k=1, consideriamo il rapporto incrementale:

\frac{\phi_X(t+h) - \phi_X(t)}{h} = \mathbb{E}\left[\frac{e^{i(t+h)X} - e^{itX}}{h}\right] = \mathbb{E}\left[e^{itX}\left(\frac{e^{ihX}-1}{h}\right)\right].

Poiché \left|e^{itX} \frac{e^{ihX}-1}{h}\right| \le |X| e \mathbb{E}[|X|] < \infty, per il teorema della convergenza dominata il limite per h \to 0 passa sotto il segno di integrale, ottenendo \mathbb{E}[e^{itX} iX].

Per la derivata seconda, si procede analogamente:

\frac{\phi_X'(t+h) - \phi_X'(t)}{h} = i \mathbb{E}\left[X e^{itX} \left(\frac{e^{ihX}-1}{h}\right)\right] \to (i)^2 \mathbb{E}[X^2 e^{itX}].

Si conclude osservando che \left|i X e^{itX} \frac{e^{ihX}-1}{h}\right| \le |X|^2, che è integrabile per ipotesi. \square

Osservazione 3.2.2. Se X \in \mathbb{R}^d, X = (X_1, \dots, X_d) e se \mathbb{E}[|X_1|^{a_1} |X_2|^{a_2} \dots |X_d|^{a_d}] < \infty, allora:

\frac{\partial^{a_1 + \dots + a_d}}{\partial t_1^{a_1} \dots \partial t_d^{a_d}} \phi_X(t) = i^{a_1 + \dots + a_d} \mathbb{E}[X_1^{a_1} \dots X_d^{a_d} e^{it \cdot X}]

Problema dei momenti

Esempio 3.3.1. Sia X una variabile aleatoria limitata, ad esempio X \in [0,1].

  • Le funzioni continue (e limitate) determinano univocamente la legge, ovvero se \mathbb{E}[\varphi(X)] = \mathbb{E}[\varphi(Y)] per ogni \varphi continua e limitata, allora X e Y hanno la stessa legge.
  • I polinomi sono densi, per la norma uniforme, in C([0,1]) (teorema di Weierstrass). Dunque se X, Y hanno gli stessi momenti, allora \mathbb{E}[P(X)] = \mathbb{E}[P(Y)] per ogni polinomio P. Per densità, lo stesso vale per ogni funzione continua e quindi X, Y hanno la stessa legge.

Esempio 3.3.2. Siano X = e^Z dove Z \sim N(0,1) (Gaussiana standard). Allora \mathbb{E}[X^n] = e^{\frac{1}{2}n^2} per ogni n > 0. Sia Y una variabile aleatoria discreta a valori in \{e^k : k \in \mathbb{Z}\} con legge \mathbb{P}(Y = e^k) = c e^{-\frac{1}{2}k^2}. Si può verificare che \mathbb{E}[Y^n] = e^{\frac{1}{2}n^2} per ogni n > 0. Questo mostra che i momenti non sempre determinano univocamente la legge.

§ Proposizione 3.3.3. Sia X una variabile aleatoria reale. Se esistono M > 0 e r > 0 tali che \mathbb{E}[|X|^n] \le M \frac{n!}{r^n} per ogni n, allora per ogni t_0 \in \mathbb{R}:

\phi_X(t) = \sum_{n=0}^\infty \frac{\phi_X^{(n)}(t_0)}{n!} (t-t_0)^n

e la serie converge per |t-t_0| < r.

§ Corollario 3.3.4. Se X, Y sono variabili aleatorie reali tali che \mathbb{E}[X^n] = \mathbb{E}[Y^n] per ogni n e per entrambe vale la maggiorazione della Proposizione 3.3.3, allora \phi_X = \phi_Y (e di conseguenza P_X = P_Y).

Dimostrazione. Se t_0 \in \mathbb{R}, \phi_X^{(n)}(t_0) = i^n \mathbb{E}[X^n e^{it_0 X}], da cui |\phi_X^{(n)}(t_0)| \le \mathbb{E}[|X|^n] \le M \frac{n!}{r^n}. Sviluppando in serie di Taylor con resto di Lagrange:

\phi_X(t) = \sum_{k=0}^n \frac{1}{k!} \phi_X^{(k)}(t_0) (t-t_0)^k + R_n

con |R_n| \le \frac{|\phi_X^{(n+1)}(\xi)|}{(n+1)!} |t-t_0|^{n+1} \le M \left(\frac{|t-t_0|}{r}\right)^{n+1}, che tende a 0 se |t-t_0| < r.

Per il corollario, \mathbb{E}[X^n] = \mathbb{E}[Y^n] \implies \phi_X^{(n)}(0) = \phi_Y^{(n)}(0) per ogni n. Quindi \phi_X(t) = \phi_Y(t) per |t| < r. Ripetendo l’argomento centrando lo sviluppo in punti vicini al bordo dell’intervallo di convergenza, si ottiene \phi_X = \phi_Y su tutto \mathbb{R}. \square

Esempio 3.3.5. Se Z \sim N(0,1), allora \phi_Z(t) = e^{-\frac{1}{2}t^2}. Se X \sim N(m, \sigma^2), allora \phi_X(t) = e^{imt - \frac{1}{2}\sigma^2 t^2} (usando X = m + \sigma Z).

§ Lemma 3.4.1. Siano X, Y variabili aleatorie indipendenti. Supponiamo che Y abbia densità f. Allora X+Y ha densità g data da:

g(z) = \mathbb{E}[f(z-X)]

Dimostrazione. Sia A \in \mathcal{B}(\mathbb{R}), allora:

\begin{aligned}
\mathbb{P}(X+Y \in A) &= \iint_{\{x+y \in A\}} \mathbb P_X(\mathrm d x) P_Y(\mathrm d y) = \int \left( \int \mathbb{1}_A(x+y) f(y) \mathrm d y \right) \mathbb P_X(\mathrm d x) \\
&= \int \left( \int \mathbb{1}_A(z) f(z-x) \mathrm d z \right) \mathbb P_X(\mathrm d x) \\
&= \int \mathbb{1}_A(z) \left( \int f(z-x) \mathbb P_X(\mathrm d x) \right) \mathrm d z \\
&= \int \mathbb{1}_A(z) \mathbb{E}[f(z-X)] \mathrm d z
\end{aligned}

dove abbiamo usato il cambio di variabile z = x+y e il teorema di Fubini-Tonelli. \square

§ Corollario 3.4.2. Siano X, Y variabili aleatorie reali indipendenti, con Y \sim N(0,1). Sia \epsilon > 0 e sia g_\epsilon la densità di X + \sqrt{\epsilon} Y. Allora:

  • g_\epsilon è continua e limitata.
  • Inoltre, se anche X ha densità f continua e limitata, allora:
    • g_\epsilon(z) \le \sup_x f(x)
    • g_\epsilon(z) \to f(z) per ogni z (per \epsilon \to 0).

Dimostrazione. Per il Lemma 3.4.1, la densità di X + \sqrt{\epsilon} Y è data da g_\epsilon(z) = \mathbb{E}[f_{\sqrt{\epsilon} Y}(z-X)]. Poiché \sqrt{\epsilon} Y \sim N(0, \epsilon), la sua densità è f_{\sqrt{\epsilon} Y}(u) = \frac{1}{\sqrt{2\pi\epsilon}} e^{-\frac{u^2}{2\epsilon}}. Quindi:

g_\epsilon(z) = \frac{1}{\sqrt{2\pi\epsilon}} \int e^{-\frac{(z-x)^2}{2\epsilon}} \mathbb P_X(\mathrm d x)
  • Continuità e limitatezza: Ricordiamo che

    \int_{-\infty}^{+\infty} e^{-ax^2} \mathrm d x = \sqrt{\dfrac{\pi}{a}} \quad \text{per ogni } a > 0.

    dunque, per ogni z:

    \int_{-\infty}^{+\infty} e^{-\frac{(z-x)^2}{2\epsilon}} \mathrm d x = \sqrt{2\pi\epsilon}.

    e per arbitrarietà di \epsilon > 0 si ha che e^{-\frac{(z-x)^2}{2\epsilon}} \le 1. Si ha g_\epsilon(z) \le \frac{1}{\sqrt{2\pi\epsilon}}, dunque g_\epsilon è limitata. Per la continuità, sia z_n \to z. Allora e^{-\frac{(z_n-x)^2}{2\epsilon}} \to e^{-\frac{(z-x)^2}{2\epsilon}} per ogni x. Poiché l’integranda è dominata dalla funzione costante 1 (che è integrabile rispetto alla misura di probabilità P_X), per il teorema della convergenza dominata si ha g_\epsilon(z_n) \to g_\epsilon(z).

  • Caso con densità f: Se X ha densità f continua e limitata, allora:

    g_\epsilon(z) = \frac{1}{\sqrt{2\pi\epsilon}} \int e^{-\frac{(z-x)^2}{2\epsilon}} f(x) \mathrm d x \le \sup_x f(x) \cdot \frac{1}{\sqrt{2\pi\epsilon}} \int e^{-\frac{(z-x)^2}{2\epsilon}} \mathrm d x = \sup_x f(x)

    Effettuando il cambio di variabile y = \frac{x-z}{\sqrt{\epsilon}}, ovvero x = z + \sqrt{\epsilon}y e \mathrm d x = \sqrt{\epsilon} \mathrm d y, otteniamo:

    g_\epsilon(z) = \frac{1}{\sqrt{2\pi}} \int e^{-\frac{1}{2}y^2} f(z + \sqrt{\epsilon}y) \mathrm d y = \mathbb{E}[f(z + \sqrt{\epsilon}Y)]

    dove Y \sim N(0,1). Poiché f è continua, f(z + \sqrt{\epsilon}y) \to f(z) per \epsilon \to 0. Inoltre |f(z + \sqrt{\epsilon}y)| \le \sup_x f(x), che è integrabile rispetto alla misura Gaussiana standard. Per il teorema della convergenza dominata:

    \lim_{\epsilon \to 0} g_\epsilon(z) = \mathbb{E}[\lim_{\epsilon \to 0} f(z + \sqrt{\epsilon}Y)] = \mathbb{E}[f(z)] = f(z)

\square

Teoremi di inversione e Plancherel

§ Teorema 3.5.1 (Plancherel). Vale la seguente uguaglianza (la trasformata di Fourier è un’isometria tra L^2 e L^2, a meno di una costante):

\int |\hat{f}(t)|^2 \mathrm d t = 2\pi \int |f(x)|^2 \mathrm d x

Se X è una variabile aleatoria con densità f continua e limitata e funzione caratteristica \phi, allora

\int |\phi(t)|^2 \mathrm d t = 2\pi \int |f(x)|^2 \mathrm d x

§ Teorema 3.5.2. Se X è una variabile aleatoria reale tale che la sua funzione caratteristica \phi_X è integrabile, allora X ha densità f_X continua e limitata data da:

f_X(x) = \frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t

Dimostrazione. Mostriamo innanzitutto che l’espressione a destra è reale:

\overline{\frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t} = \frac{1}{2\pi} \int \overline{\phi_X(t)} e^{itx} \mathrm d t = \frac{1}{2\pi} \int \phi_X(-t) e^{itx} \mathrm d t

Effettuando il cambio di variabile u = -t, otteniamo \frac{1}{2\pi} \int \phi_X(u) e^{-iux} \mathrm d u, che è l’espressione di partenza.

Mostriamo che f_X è continua e limitata:

  • Limitatezza: |f_X(x)| \le \frac{1}{2\pi} \int |\phi_X(t)| \mathrm d t < \infty poiché \phi_X è integrabile.
  • Continuità: Sia x_n \to x. Allora \phi_X(t) e^{-itx_n} \to \phi_X(t) e^{-itx} puntualmente e |\phi_X(t) e^{-itx_n}| \le |\phi_X(t)|. Per il teorema della convergenza dominata, f_X(x_n) \to f_X(x).

Supponiamo ora che X abbia densità f_X continua e limitata. Se g è continua a supporto compatto, per il teorema di Plancherel applicato a f_X + g e singolarmente a f_X e g si ha:

2\pi \int |f_X(x) + g(x)|^2 \mathrm d x = \int |\hat{f}_X(t) + \hat{g}(t)|^2 \mathrm d t \implies 2\pi \int f_X(x) g(x) \mathrm d x = \text{Re} \int \hat{f}_X(t) \overline{\hat{g}(t)} \mathrm d t

Sviluppando l’integrale a destra:

\int \hat{f}_X(t) \overline{\hat{g}(t)} \mathrm d t = \int \phi_X(t) \left( \int g(x) e^{itx} \mathrm d x \right) \mathrm d t = \int g(x) \left( \int \phi_X(t) e^{itx} \mathrm d t \right) \mathrm d x

Da cui \int f_X(x) g(x) \mathrm d x = \int g(x) \left( \frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t \right) \mathrm d x. Sia A = \{x \mid f_X(x) > \frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t\} un insieme aperto. Se A fosse non vuoto, potremmo scegliere g continua, positiva e con supporto compatto in A. Allora:

\int \left( f_X(x) - \frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t \right) g(x) \mathrm d x > 0

che è un assurdo. Dunque |A|=0 e poiché A è aperto questo significa A=\emptyset. Dunque f_X(x) \le \frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t. Analogamente si dimostra \ge, da cui f_X(x) = \frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t.

Sia ora X v.a. con funzione caratteristica integrabile. Consideriamo X + \sqrt{\epsilon} Z con Z gaussiana standard indipendente da X. Ricordiamo che \phi_Z(t) = e^{-t^2/2}, quindi \phi_{X+\sqrt{\epsilon}Z}(t) = \phi_X(t) e^{-\epsilon t^2/2} e la densità g_\epsilon di X+\sqrt{\epsilon}Z è data da:

g_\epsilon(x) = \frac{1}{2\pi} \int \phi_{X+\sqrt{\epsilon}Z}(t) e^{-itx} \mathrm d t = \frac{1}{2\pi} \int \phi_X(t) e^{-\epsilon t^2/2} e^{-itx} \mathrm d t

Osserviamo intanto che per ogni x,

\frac{1}{2\pi} \int \phi_X(t) e^{-\epsilon t^2/2} e^{-itx} \mathrm d t \xrightarrow{\epsilon \to 0} \frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t

per convergenza dominata.

Sia dunque g continua e a supporto compatto (dunque anche limitata). Allora \mathbb{E}[g(X+\sqrt{\epsilon}Z)] \xrightarrow{\epsilon \to 0} \mathbb{E}[g(X)], infatti X+\sqrt{\epsilon}Z \xrightarrow{P.U.} X \implies g(X+\sqrt{\epsilon}Z) \xrightarrow{P.U.} g(X) perché g è continua; inoltre, poiché g è limitata, si può applicare la convergenza dominata.

D’altra parte \mathbb{E}[g(X+\sqrt{\epsilon}Z)] = \int g(x) g_\epsilon(x) \mathrm d x. Si ha:

|g_\epsilon(x)| = \left|\frac{1}{2\pi} \int \phi_X(t) e^{-itx} e^{-\epsilon t^2/2} \mathrm d t\right| \le \frac{1}{2\pi} \int |\phi_X(t)| \mathrm d t

e |g(x) g_\epsilon(x)| \le |g(x)| \frac{1}{2\pi} \int |\phi_X(t)| \mathrm d t.

Dunque, per convergenza dominata:

\mathbb{E}[g(X+\sqrt{\epsilon}Z)] \to \int g(x) \left(\frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t\right) \mathrm d x.

Dunque \mathbb{E}[g(X)] = \int g(x) \left(\frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t\right) \mathrm d x.

Questo è vero per g continua a supporto compatto. Quindi è vero anche per g continua limitata positiva: infatti presa \psi_n come in figura, si ha che la tesi è vera per g \psi_n \nearrow g, dunque si conclude per convergenza monotona. Per g continua limitata a segno variabile si conclude usando g = g_+ - g_-.

Segue che f_X(x) = \frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t dal fatto che due v.a. X, Y hanno la stessa legge se \forall g continua e limitata \mathbb{E}[g(X)] = \mathbb{E}[g(Y)]. \square

§ Teorema 3.5.3. Se X e Y hanno la stessa funzione caratteristica, allora hanno la stessa legge.

Dimostrazione. Sia Z gaussiana standard indipendente da X e Z' gaussiana standard indipendente da Y. X + \sqrt{\epsilon} Z ha funzione caratteristica integrabile, infatti \phi_{X+\sqrt{\epsilon}Z}(t) = \phi_X(t) e^{-\epsilon t^2/2}. Similmente \phi_{Y+\sqrt{\epsilon}Z'}(t) = \phi_Y(t) e^{-\epsilon t^2/2}. (Nota: \phi_X e \phi_Y sono limitate, e^{-\epsilon t^2/2} è integrabile). Per il teorema precedente, poiché \phi_X(t) = \phi_Y(t), X+\sqrt{\epsilon}Z e Y+\sqrt{\epsilon}Z' hanno la stessa densità, dunque la stessa legge. Dunque \mathbb{E}[g(X+\sqrt{\epsilon}Z)] = \mathbb{E}[g(Y+\sqrt{\epsilon}Z')] per ogni g continua e limitata. Dunque, per convergenza dominata, per \epsilon \to 0, \mathbb{E}[g(X+\sqrt{\epsilon}Z)] \xrightarrow{\epsilon \to 0} \mathbb{E}[g(X)], \mathbb{E}[g(Y+\sqrt{\epsilon}Z')] \xrightarrow{\epsilon \to 0} \mathbb{E}[g(Y)] \implies \mathbb{E}[g(X)] = \mathbb{E}[g(Y)] \implies X e Y hanno la stessa legge. \square

Osservazione 3.5.4. Tutto quello che abbiamo visto vale “quasi” immutato nel caso di variabili a valori in \mathbb{R}^d. Le uniche cose che cambiano sono:

  1. Per la regolarizzazione si usano gaussiane standard in \mathbb{R}^d.
  2. La costante di normalizzazione è (2\pi)^d.

Osservazione 3.5.5. Se X e Y sono indipendenti, allora \phi_{(X,Y)}(t_1, t_2) = \phi_X(t_1) \phi_Y(t_2). Infatti: \forall (t_1, t_2), \mathbb{E}[e^{i(t_1, t_2) \cdot (X,Y)}] = \mathbb{E}[e^{it_1X} e^{it_2Y}] = \phi_X(t_1) \phi_Y(t_2).

§ Teorema 3.5.6. X e Y sono indipendenti \Leftrightarrow \phi_{(X,Y)}(t) = \phi_X(t_1) \phi_Y(t_2) per ogni t=(t_1, t_2).

Dimostrazione. \implies) Visto. \Longleftarrow) Si può costruire una coppia di v.a. indipendenti X' e Y' con X e X' aventi la stessa legge e Y e Y' aventi la stessa legge. Dunque: \phi_X(t_1) = \phi_{X'}(t_1), \phi_Y(t_2) = \phi_{Y'}(t_2), dunque: \phi_{(X,Y)}(t) = \phi_X(t_1) \phi_Y(t_2) = \phi_{X'}(t_1) \phi_{Y'}(t_2) = \phi_{(X',Y')}(t), dunque (X,Y) e (X',Y') hanno la stessa legge, e dato che X' e Y' sono indipendenti anche X e Y lo sono. \square

Osservazione 3.5.7. Sapevamo che \mathbb{E}[g(X)] = \mathbb{E}[g(Y)] \forall g continua e limitata \iff X e Y hanno la stessa legge. Abbiamo scoperto che \mathbb{E}[e^{itX}] = \mathbb{E}[e^{itY}] \forall t \iff X e Y hanno la stessa legge, dunque di fatto abbiamo ristretto la classe di funzioni g su cui controllare \mathbb{E}[g(X)] = \mathbb{E}[g(Y)] alla famiglia e^{it\cdot} al variare di t in \mathbb{R}.

Osservazione 3.5.8. Analogamente se X, Y sono variabili aleatorie in \mathbb{R}^d, allora X, Y hanno la stessa legge se e solo se t \cdot X e t \cdot Y hanno la stessa legge per ogni t \in \mathbb{R}^d.

Funzione generatrice dei momenti

§ Definizione 3.6.1. Sia X una variabile aleatoria reale. Definiamo la funzione generatrice dei momenti come la funzione \Psi_X: \mathbb{R} \to (-\infty, +\infty] tale che

\Psi_X(t) \coloneqq \mathbb{E}[e^{tX}]

Chiamiamo dominio di \Psi_X l’insieme \{t \in \mathbb{R} \mid \Psi_X(t) < +\infty\}.

Osservazione 3.6.2. La funzione generatrice dei momenti è convessa, in quanto la funzione t \mapsto e^{tx} è convessa per ogni x e si conclude applicando la disuguaglianza di Jensen.

§ Lemma 3.6.3. Se per un certo a > 0 si ha che

\tag{*}
\sum_{n=0}^{+\infty} \frac{a^n}{n!} \mathbb{E}[|X|^n] < +\infty

allora:

  • Lo stesso vale per ogni s tale che |s| < a.

  • \Psi_X è analitica in (-a, a) e \Psi_X(s) = \sum_{n=0}^{+\infty} \frac{s^n}{n!} \mathbb{E}[X^n].

  • \Psi_X^{(n)}(0) = \mathbb{E}[X^n].

  • Se esistono M, r > 0 tali che \mathbb{E}[|X|^n] \le M \frac{n!}{r^n}, allora (*) vale per ogni a \in (0, r).