Funzione caratteristica
Sia (\Omega, \mathcal{F}, \mathbb{P}) uno spazio di probabilità e X una variabile aleatoria reale.
§ Definizione 3.1.1. Definiamo la funzione caratteristica come una funzione \phi_X: \mathbb{R} \to \mathbb{C} tale che
\phi_X(t) = \mathbb{E}[e^{itX}]
La funzione caratteristica è essenzialmente la trasformata di Fourier della legge di X.
Osservazione 3.1.2. Ricordando che e^{itX} = \cos(tX) + i \sin(tX), si ha che \mathbb{E}[e^{itX}] = \mathbb{E}[\cos(tX)] + i \mathbb{E}[\sin(tX)]. Passando al modulo, otteniamo:
|\mathbb{E}(e^{itX})| \le \mathbb{E}[|e^{itX}|] = 1.
Osservazione 3.1.3. Se X è una variabile aleatoria a valori in \mathbb{R}^d, la funzione caratteristica \phi_X: \mathbb{R}^d \to \mathbb{C} è definita come \phi_X(t) = \mathbb{E}[e^{it \cdot X}], dove t \cdot X indica il prodotto scalare.
Proprietà della funzione caratteristica
§ Proposizione. Valgono le seguenti proprietà:
-
Limitatezza del modulo:
\phi_X(0) = 1e\forall t. \; |\phi_X(t)| \le 1 -
Linearità:
\forall t. \; \phi_{aX+b}(t) = e^{ibt} \phi_X(at) -
X, Yindipendenti\Rightarrow \forall t. \; \phi_{X+Y}(t) = \phi_X(t) \phi_Y(t) -
\phi_Xè uniformemente continua.
Dimostrazione.
-
Uniforme continuità: Siano
s, t \in \mathbb{R}, allora|\phi_X(t+s) - \phi_X(t)| = |\mathbb{E}(e^{i(t+s)X}) - \mathbb{E}(e^{itX})| = |\mathbb{E}[e^{itX}(e^{isX}-1)]| \le \mathbb{E}[|e^{isX}-1|].Poiché
|e^{isX}-1| \le 2ee^{isX}-1 \to 0pers \to 0, per il teorema della convergenza dominata si ha che\mathbb{E}[|e^{isX}-1|] \to 0quandos \to 0.\square
Osservazione 3.1.4. Si ha che \mathbb{E}[e^{itX}] = \int e^{itx} \mathbb P_X(\mathrm d x). Di conseguenza, per una funzione \varphi opportuna:
\int \varphi(t) \int e^{itx} \mathbb P_X(\mathrm d x) \mathrm d t = \int \left(\int \varphi(t) e^{itx} \mathrm d t\right) \mathbb P_X(\mathrm d x) = \int \hat{\varphi}(x) \mathbb P_X(\mathrm d x).
In particolare, se X ha densità f_X, allora \phi_X = \hat{f}_X.
Derivabilità della funzione caratteristica
§ Teorema 3.2.1. Sia X una variabile aleatoria reale con momenti fino all’indice k \ge 1. Allora \phi_X è differenziabile k volte con derivate continue date da:
\phi_X^{(j)}(t) = i^j \mathbb{E}[X^j e^{itX}]
per ogni t e ogni j=1, \dots, k.
Dimostrazione. Per k=1, consideriamo il rapporto incrementale:
\frac{\phi_X(t+h) - \phi_X(t)}{h} = \mathbb{E}\left[\frac{e^{i(t+h)X} - e^{itX}}{h}\right] = \mathbb{E}\left[e^{itX}\left(\frac{e^{ihX}-1}{h}\right)\right].
Poiché \left|e^{itX} \frac{e^{ihX}-1}{h}\right| \le |X| e \mathbb{E}[|X|] < \infty, per il teorema della convergenza dominata il limite per h \to 0 passa sotto il segno di integrale, ottenendo \mathbb{E}[e^{itX} iX].
Per la derivata seconda, si procede analogamente:
\frac{\phi_X'(t+h) - \phi_X'(t)}{h} = i \mathbb{E}\left[X e^{itX} \left(\frac{e^{ihX}-1}{h}\right)\right] \to (i)^2 \mathbb{E}[X^2 e^{itX}].
Si conclude osservando che \left|i X e^{itX} \frac{e^{ihX}-1}{h}\right| \le |X|^2, che è integrabile per ipotesi. \square
Osservazione 3.2.2. Se X \in \mathbb{R}^d, X = (X_1, \dots, X_d) e se \mathbb{E}[|X_1|^{a_1} |X_2|^{a_2} \dots |X_d|^{a_d}] < \infty, allora:
\frac{\partial^{a_1 + \dots + a_d}}{\partial t_1^{a_1} \dots \partial t_d^{a_d}} \phi_X(t) = i^{a_1 + \dots + a_d} \mathbb{E}[X_1^{a_1} \dots X_d^{a_d} e^{it \cdot X}]
Problema dei momenti
Esempio 3.3.1. Sia X una variabile aleatoria limitata, ad esempio X \in [0,1].
- Le funzioni continue (e limitate) determinano univocamente la legge, ovvero se
\mathbb{E}[\varphi(X)] = \mathbb{E}[\varphi(Y)]per ogni\varphicontinua e limitata, alloraXeYhanno la stessa legge. - I polinomi sono densi, per la norma uniforme, in
C([0,1])(teorema di Weierstrass). Dunque seX, Yhanno gli stessi momenti, allora\mathbb{E}[P(X)] = \mathbb{E}[P(Y)]per ogni polinomioP. Per densità, lo stesso vale per ogni funzione continua e quindiX, Yhanno la stessa legge.
Esempio 3.3.2. Siano X = e^Z dove Z \sim N(0,1) (Gaussiana standard). Allora \mathbb{E}[X^n] = e^{\frac{1}{2}n^2} per ogni n > 0.
Sia Y una variabile aleatoria discreta a valori in \{e^k : k \in \mathbb{Z}\} con legge \mathbb{P}(Y = e^k) = c e^{-\frac{1}{2}k^2}. Si può verificare che \mathbb{E}[Y^n] = e^{\frac{1}{2}n^2} per ogni n > 0.
Questo mostra che i momenti non sempre determinano univocamente la legge.
§ Proposizione 3.3.3. Sia X una variabile aleatoria reale. Se esistono M > 0 e r > 0 tali che \mathbb{E}[|X|^n] \le M \frac{n!}{r^n} per ogni n, allora per ogni t_0 \in \mathbb{R}:
\phi_X(t) = \sum_{n=0}^\infty \frac{\phi_X^{(n)}(t_0)}{n!} (t-t_0)^n
e la serie converge per |t-t_0| < r.
§ Corollario 3.3.4. Se X, Y sono variabili aleatorie reali tali che \mathbb{E}[X^n] = \mathbb{E}[Y^n] per ogni n e per entrambe vale la maggiorazione della Proposizione 3.3.3, allora \phi_X = \phi_Y (e di conseguenza P_X = P_Y).
Dimostrazione. Se t_0 \in \mathbb{R}, \phi_X^{(n)}(t_0) = i^n \mathbb{E}[X^n e^{it_0 X}], da cui |\phi_X^{(n)}(t_0)| \le \mathbb{E}[|X|^n] \le M \frac{n!}{r^n}.
Sviluppando in serie di Taylor con resto di Lagrange:
\phi_X(t) = \sum_{k=0}^n \frac{1}{k!} \phi_X^{(k)}(t_0) (t-t_0)^k + R_n
con |R_n| \le \frac{|\phi_X^{(n+1)}(\xi)|}{(n+1)!} |t-t_0|^{n+1} \le M \left(\frac{|t-t_0|}{r}\right)^{n+1}, che tende a 0 se |t-t_0| < r.
Per il corollario, \mathbb{E}[X^n] = \mathbb{E}[Y^n] \implies \phi_X^{(n)}(0) = \phi_Y^{(n)}(0) per ogni n. Quindi \phi_X(t) = \phi_Y(t) per |t| < r. Ripetendo l’argomento centrando lo sviluppo in punti vicini al bordo dell’intervallo di convergenza, si ottiene \phi_X = \phi_Y su tutto \mathbb{R}. \square
Esempio 3.3.5. Se Z \sim N(0,1), allora \phi_Z(t) = e^{-\frac{1}{2}t^2}.
Se X \sim N(m, \sigma^2), allora \phi_X(t) = e^{imt - \frac{1}{2}\sigma^2 t^2} (usando X = m + \sigma Z).
§ Lemma 3.4.1. Siano X, Y variabili aleatorie indipendenti. Supponiamo che Y abbia densità f. Allora X+Y ha densità g data da:
g(z) = \mathbb{E}[f(z-X)]
Dimostrazione. Sia A \in \mathcal{B}(\mathbb{R}), allora:
\begin{aligned}
\mathbb{P}(X+Y \in A) &= \iint_{\{x+y \in A\}} \mathbb P_X(\mathrm d x) P_Y(\mathrm d y) = \int \left( \int \mathbb{1}_A(x+y) f(y) \mathrm d y \right) \mathbb P_X(\mathrm d x) \\
&= \int \left( \int \mathbb{1}_A(z) f(z-x) \mathrm d z \right) \mathbb P_X(\mathrm d x) \\
&= \int \mathbb{1}_A(z) \left( \int f(z-x) \mathbb P_X(\mathrm d x) \right) \mathrm d z \\
&= \int \mathbb{1}_A(z) \mathbb{E}[f(z-X)] \mathrm d z
\end{aligned}
dove abbiamo usato il cambio di variabile z = x+y e il teorema di Fubini-Tonelli. \square
§ Corollario 3.4.2. Siano X, Y variabili aleatorie reali indipendenti, con Y \sim N(0,1). Sia \epsilon > 0 e sia g_\epsilon la densità di X + \sqrt{\epsilon} Y. Allora:
g_\epsilonè continua e limitata.- Inoltre, se anche
Xha densitàfcontinua e limitata, allora:g_\epsilon(z) \le \sup_x f(x)g_\epsilon(z) \to f(z)per ogniz(per\epsilon \to 0).
Dimostrazione. Per il Lemma 3.4.1, la densità di X + \sqrt{\epsilon} Y è data da g_\epsilon(z) = \mathbb{E}[f_{\sqrt{\epsilon} Y}(z-X)]. Poiché \sqrt{\epsilon} Y \sim N(0, \epsilon), la sua densità è f_{\sqrt{\epsilon} Y}(u) = \frac{1}{\sqrt{2\pi\epsilon}} e^{-\frac{u^2}{2\epsilon}}. Quindi:
g_\epsilon(z) = \frac{1}{\sqrt{2\pi\epsilon}} \int e^{-\frac{(z-x)^2}{2\epsilon}} \mathbb P_X(\mathrm d x)
-
Continuità e limitatezza: Ricordiamo che
\int_{-\infty}^{+\infty} e^{-ax^2} \mathrm d x = \sqrt{\dfrac{\pi}{a}} \quad \text{per ogni } a > 0.dunque, per ogni
z:\int_{-\infty}^{+\infty} e^{-\frac{(z-x)^2}{2\epsilon}} \mathrm d x = \sqrt{2\pi\epsilon}.e per arbitrarietà di
\epsilon > 0si ha chee^{-\frac{(z-x)^2}{2\epsilon}} \le 1. Si hag_\epsilon(z) \le \frac{1}{\sqrt{2\pi\epsilon}}, dunqueg_\epsilonè limitata. Per la continuità, siaz_n \to z. Allorae^{-\frac{(z_n-x)^2}{2\epsilon}} \to e^{-\frac{(z-x)^2}{2\epsilon}}per ognix. Poiché l’integranda è dominata dalla funzione costante1(che è integrabile rispetto alla misura di probabilitàP_X), per il teorema della convergenza dominata si hag_\epsilon(z_n) \to g_\epsilon(z). -
Caso con densità
f: SeXha densitàfcontinua e limitata, allora:g_\epsilon(z) = \frac{1}{\sqrt{2\pi\epsilon}} \int e^{-\frac{(z-x)^2}{2\epsilon}} f(x) \mathrm d x \le \sup_x f(x) \cdot \frac{1}{\sqrt{2\pi\epsilon}} \int e^{-\frac{(z-x)^2}{2\epsilon}} \mathrm d x = \sup_x f(x)Effettuando il cambio di variabile
y = \frac{x-z}{\sqrt{\epsilon}}, ovverox = z + \sqrt{\epsilon}ye\mathrm d x = \sqrt{\epsilon} \mathrm d y, otteniamo:g_\epsilon(z) = \frac{1}{\sqrt{2\pi}} \int e^{-\frac{1}{2}y^2} f(z + \sqrt{\epsilon}y) \mathrm d y = \mathbb{E}[f(z + \sqrt{\epsilon}Y)]dove
Y \sim N(0,1). Poichéfè continua,f(z + \sqrt{\epsilon}y) \to f(z)per\epsilon \to 0. Inoltre|f(z + \sqrt{\epsilon}y)| \le \sup_x f(x), che è integrabile rispetto alla misura Gaussiana standard. Per il teorema della convergenza dominata:\lim_{\epsilon \to 0} g_\epsilon(z) = \mathbb{E}[\lim_{\epsilon \to 0} f(z + \sqrt{\epsilon}Y)] = \mathbb{E}[f(z)] = f(z)
\square
Teoremi di inversione e Plancherel
§ Teorema 3.5.1 (Plancherel). Vale la seguente uguaglianza (la trasformata di Fourier è un’isometria tra L^2 e L^2, a meno di una costante):
\int |\hat{f}(t)|^2 \mathrm d t = 2\pi \int |f(x)|^2 \mathrm d x
Se X è una variabile aleatoria con densità f continua e limitata e funzione caratteristica \phi, allora
\int |\phi(t)|^2 \mathrm d t = 2\pi \int |f(x)|^2 \mathrm d x
§ Teorema 3.5.2. Se X è una variabile aleatoria reale tale che la sua funzione caratteristica \phi_X è integrabile, allora X ha densità f_X continua e limitata data da:
f_X(x) = \frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t
Dimostrazione. Mostriamo innanzitutto che l’espressione a destra è reale:
\overline{\frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t} = \frac{1}{2\pi} \int \overline{\phi_X(t)} e^{itx} \mathrm d t = \frac{1}{2\pi} \int \phi_X(-t) e^{itx} \mathrm d t
Effettuando il cambio di variabile u = -t, otteniamo \frac{1}{2\pi} \int \phi_X(u) e^{-iux} \mathrm d u, che è l’espressione di partenza.
Mostriamo che f_X è continua e limitata:
- Limitatezza:
|f_X(x)| \le \frac{1}{2\pi} \int |\phi_X(t)| \mathrm d t < \inftypoiché\phi_Xè integrabile. - Continuità: Sia
x_n \to x. Allora\phi_X(t) e^{-itx_n} \to \phi_X(t) e^{-itx}puntualmente e|\phi_X(t) e^{-itx_n}| \le |\phi_X(t)|. Per il teorema della convergenza dominata,f_X(x_n) \to f_X(x).
Supponiamo ora che X abbia densità f_X continua e limitata. Se g è continua a supporto compatto, per il teorema di Plancherel applicato a f_X + g e singolarmente a f_X e g si ha:
2\pi \int |f_X(x) + g(x)|^2 \mathrm d x = \int |\hat{f}_X(t) + \hat{g}(t)|^2 \mathrm d t \implies 2\pi \int f_X(x) g(x) \mathrm d x = \text{Re} \int \hat{f}_X(t) \overline{\hat{g}(t)} \mathrm d t
Sviluppando l’integrale a destra:
\int \hat{f}_X(t) \overline{\hat{g}(t)} \mathrm d t = \int \phi_X(t) \left( \int g(x) e^{itx} \mathrm d x \right) \mathrm d t = \int g(x) \left( \int \phi_X(t) e^{itx} \mathrm d t \right) \mathrm d x
Da cui \int f_X(x) g(x) \mathrm d x = \int g(x) \left( \frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t \right) \mathrm d x.
Sia A = \{x \mid f_X(x) > \frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t\} un insieme aperto. Se A fosse non vuoto, potremmo scegliere g continua, positiva e con supporto compatto in A. Allora:
\int \left( f_X(x) - \frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t \right) g(x) \mathrm d x > 0
che è un assurdo. Dunque |A|=0 e poiché A è aperto questo significa A=\emptyset.
Dunque f_X(x) \le \frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t. Analogamente si dimostra \ge, da cui f_X(x) = \frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t.
Sia ora X v.a. con funzione caratteristica integrabile.
Consideriamo X + \sqrt{\epsilon} Z con Z gaussiana standard indipendente da X.
Ricordiamo che \phi_Z(t) = e^{-t^2/2}, quindi \phi_{X+\sqrt{\epsilon}Z}(t) = \phi_X(t) e^{-\epsilon t^2/2}
e la densità g_\epsilon di X+\sqrt{\epsilon}Z è data da:
g_\epsilon(x) = \frac{1}{2\pi} \int \phi_{X+\sqrt{\epsilon}Z}(t) e^{-itx} \mathrm d t = \frac{1}{2\pi} \int \phi_X(t) e^{-\epsilon t^2/2} e^{-itx} \mathrm d t
Osserviamo intanto che per ogni x,
\frac{1}{2\pi} \int \phi_X(t) e^{-\epsilon t^2/2} e^{-itx} \mathrm d t \xrightarrow{\epsilon \to 0} \frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t
per convergenza dominata.
Sia dunque g continua e a supporto compatto (dunque anche limitata). Allora
\mathbb{E}[g(X+\sqrt{\epsilon}Z)] \xrightarrow{\epsilon \to 0} \mathbb{E}[g(X)], infatti
X+\sqrt{\epsilon}Z \xrightarrow{P.U.} X \implies g(X+\sqrt{\epsilon}Z) \xrightarrow{P.U.} g(X) perché g è continua;
inoltre, poiché g è limitata, si può applicare la convergenza dominata.
D’altra parte \mathbb{E}[g(X+\sqrt{\epsilon}Z)] = \int g(x) g_\epsilon(x) \mathrm d x.
Si ha:
|g_\epsilon(x)| = \left|\frac{1}{2\pi} \int \phi_X(t) e^{-itx} e^{-\epsilon t^2/2} \mathrm d t\right| \le \frac{1}{2\pi} \int |\phi_X(t)| \mathrm d t
e |g(x) g_\epsilon(x)| \le |g(x)| \frac{1}{2\pi} \int |\phi_X(t)| \mathrm d t.
Dunque, per convergenza dominata:
\mathbb{E}[g(X+\sqrt{\epsilon}Z)] \to \int g(x) \left(\frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t\right) \mathrm d x.
Dunque \mathbb{E}[g(X)] = \int g(x) \left(\frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t\right) \mathrm d x.
Questo è vero per g continua a supporto compatto.
Quindi è vero anche per g continua limitata positiva: infatti presa \psi_n come in figura, si ha che la tesi è vera per g \psi_n \nearrow g, dunque si conclude per convergenza monotona. Per g continua limitata a segno variabile si conclude usando g = g_+ - g_-.
Segue che f_X(x) = \frac{1}{2\pi} \int \phi_X(t) e^{-itx} \mathrm d t dal fatto che due v.a. X, Y hanno la stessa legge se \forall g continua e limitata \mathbb{E}[g(X)] = \mathbb{E}[g(Y)]. \square
§ Teorema 3.5.3. Se X e Y hanno la stessa funzione caratteristica, allora hanno la stessa legge.
Dimostrazione. Sia Z gaussiana standard indipendente da X e Z' gaussiana standard indipendente da Y.
X + \sqrt{\epsilon} Z ha funzione caratteristica integrabile, infatti
\phi_{X+\sqrt{\epsilon}Z}(t) = \phi_X(t) e^{-\epsilon t^2/2}. Similmente \phi_{Y+\sqrt{\epsilon}Z'}(t) = \phi_Y(t) e^{-\epsilon t^2/2}.
(Nota: \phi_X e \phi_Y sono limitate, e^{-\epsilon t^2/2} è integrabile).
Per il teorema precedente, poiché \phi_X(t) = \phi_Y(t), X+\sqrt{\epsilon}Z e Y+\sqrt{\epsilon}Z' hanno la stessa densità, dunque la stessa legge.
Dunque \mathbb{E}[g(X+\sqrt{\epsilon}Z)] = \mathbb{E}[g(Y+\sqrt{\epsilon}Z')] per ogni g continua e limitata.
Dunque, per convergenza dominata, per \epsilon \to 0,
\mathbb{E}[g(X+\sqrt{\epsilon}Z)] \xrightarrow{\epsilon \to 0} \mathbb{E}[g(X)], \mathbb{E}[g(Y+\sqrt{\epsilon}Z')] \xrightarrow{\epsilon \to 0} \mathbb{E}[g(Y)]
\implies \mathbb{E}[g(X)] = \mathbb{E}[g(Y)] \implies X e Y hanno la stessa legge. \square
Osservazione 3.5.4. Tutto quello che abbiamo visto vale “quasi” immutato nel caso di variabili a valori in \mathbb{R}^d.
Le uniche cose che cambiano sono:
- Per la regolarizzazione si usano gaussiane standard in
\mathbb{R}^d. - La costante di normalizzazione è
(2\pi)^d.
Osservazione 3.5.5. Se X e Y sono indipendenti, allora \phi_{(X,Y)}(t_1, t_2) = \phi_X(t_1) \phi_Y(t_2). Infatti:
\forall (t_1, t_2), \mathbb{E}[e^{i(t_1, t_2) \cdot (X,Y)}] = \mathbb{E}[e^{it_1X} e^{it_2Y}] = \phi_X(t_1) \phi_Y(t_2).
§ Teorema 3.5.6. X e Y sono indipendenti \Leftrightarrow \phi_{(X,Y)}(t) = \phi_X(t_1) \phi_Y(t_2) per ogni t=(t_1, t_2).
Dimostrazione. \implies) Visto.
\Longleftarrow) Si può costruire una coppia di v.a. indipendenti X' e Y' con X e X' aventi la stessa legge e Y e Y' aventi la stessa legge. Dunque:
\phi_X(t_1) = \phi_{X'}(t_1), \phi_Y(t_2) = \phi_{Y'}(t_2), dunque:
\phi_{(X,Y)}(t) = \phi_X(t_1) \phi_Y(t_2) = \phi_{X'}(t_1) \phi_{Y'}(t_2) = \phi_{(X',Y')}(t), dunque
(X,Y) e (X',Y') hanno la stessa legge, e dato che X' e Y' sono indipendenti anche X e Y lo sono. \square
Osservazione 3.5.7. Sapevamo che \mathbb{E}[g(X)] = \mathbb{E}[g(Y)] \forall g continua e limitata \iff X e Y hanno la stessa legge.
Abbiamo scoperto che \mathbb{E}[e^{itX}] = \mathbb{E}[e^{itY}] \forall t \iff X e Y hanno la stessa legge, dunque di fatto abbiamo ristretto la classe di funzioni g su cui controllare \mathbb{E}[g(X)] = \mathbb{E}[g(Y)] alla famiglia e^{it\cdot} al variare di t in \mathbb{R}.
Osservazione 3.5.8. Analogamente se X, Y sono variabili aleatorie in \mathbb{R}^d, allora X, Y hanno la stessa legge se e solo se t \cdot X e t \cdot Y hanno la stessa legge per ogni t \in \mathbb{R}^d.
Funzione generatrice dei momenti
§ Definizione 3.6.1. Sia X una variabile aleatoria reale. Definiamo la funzione generatrice dei momenti come la funzione \Psi_X: \mathbb{R} \to (-\infty, +\infty] tale che
\Psi_X(t) \coloneqq \mathbb{E}[e^{tX}]
Chiamiamo dominio di \Psi_X l’insieme \{t \in \mathbb{R} \mid \Psi_X(t) < +\infty\}.
Osservazione 3.6.2. La funzione generatrice dei momenti è convessa, in quanto la funzione t \mapsto e^{tx} è convessa per ogni x e si conclude applicando la disuguaglianza di Jensen.
§ Lemma 3.6.3. Se per un certo a > 0 si ha che
\tag{*}
\sum_{n=0}^{+\infty} \frac{a^n}{n!} \mathbb{E}[|X|^n] < +\infty
allora:
-
Lo stesso vale per ogni
stale che|s| < a. -
\Psi_Xè analitica in(-a, a)e\Psi_X(s) = \sum_{n=0}^{+\infty} \frac{s^n}{n!} \mathbb{E}[X^n]. -
\Psi_X^{(n)}(0) = \mathbb{E}[X^n]. -
Se esistono
M, r > 0tali che\mathbb{E}[|X|^n] \le M \frac{n!}{r^n}, allora(*)vale per ognia \in (0, r).