Vettori Gaussiani
§ Teorema 6.1.1. Sia (X, Y) un vettore gaussiano. Allora X e Y sono indipendenti se e solo se sono non correlati.
Dimostrazione. Se Cov(X, Y) = 0, allora (X, Y) ha matrice di covarianza
\begin{pmatrix} Var(X) & 0 \\ 0 & Var(Y) \end{pmatrix}
quindi la sua funzione caratteristica è
\phi_{(X,Y)}(u,v) = e^{i(u,v) \cdot m} e^{-\frac{1}{2} (u,v) Q (u,v)^T} = e^{i u m_1 - \frac{1}{2} u^2 Q_{11}} e^{i v m_2 - \frac{1}{2} v^2 Q_{22}} = \phi_X(u) \phi_Y(v)
quindi X e Y sono indipendenti. \square
Osservazione 6.1.2. Se X e Y sono v.a. reali gaussiane, allora non è detto che (X, Y) sia un vettore gaussiano. Se (X, Y) è un vettore gaussiano e X, Y sono non correlate, allora sono indipendenti.
§ Lemma 6.1.3. Sia X un vettore aleatorio in L^2 con matrice di covarianza Q. Allora per ogni u \in \mathbb{R}^d si ha
\text{Var}(\langle X, u \rangle) = u^T Q u
Dimostrazione. Sia Y = \langle X, u \rangle = \sum_{i=1}^d u_i X_i. Allora \text{Var}(Y) = \mathbb{E}[(Y - \mathbb{E}[Y])^2].
Si ha:
Y - \mathbb{E}[Y] = \sum_{i=1}^d u_i X_i - \sum_{i=1}^d u_i \mathbb{E}[X_i] = \sum_{i=1}^d u_i (X_i - \mathbb{E}[X_i])
da cui
(Y - \mathbb{E}[Y])^2 = \sum_{i,j=1}^d u_i u_j (X_i - \mathbb{E}[X_i])(X_j - \mathbb{E}[X_j])
Dunque:
\mathbb{E}[(Y - \mathbb{E}[Y])^2] = \sum_{i,j=1}^d u_i u_j \text{Cov}(X_i, X_j) = u^T Q u. \quad \square
Trasformazioni lineari di gaussiane
§ Proposizione 6.2.1. Se X \sim N(m, Q) a valori in \mathbb{R}^d e A \in \mathbb{R}^{m \times d}, b \in \mathbb{R}^m, allora AX+b \sim N(Am+b, AQA^T).
Dimostrazione. Per ogni u \in \mathbb{R}^m:
u \cdot (AX+b) = u \cdot b + A^T u \cdot X
è una v.a. reale gaussiana, quindi AX+b è gaussiana. Media e matrice di covarianza seguono dalle formule viste prima.
(Dim formula per Cov: Cov(AX+b)_{ij} = Cov((AX)_i + b_i, (AX)_j + b_j) = Cov((AX)_i, (AX)_j) = Cov(\sum_h A_{ih} X_h, \sum_k A_{jk} X_k) = \sum_{h,k} A_{ih} Cov(X_h, X_k) A_{jk} = (A Cov(X) A^T)_{ij}). \square
Esistenza di vettori gaussiani
§ Proposizione 6.3.1. Data m \in \mathbb{R}^d e Q \in \mathbb{R}^{d \times d} simmetrica semidefinita positiva, allora esiste un vettore aleatorio X \sim N(m, Q).
Dimostrazione.
- 1° caso:
m=0, Q=I(identità). PrendiamoX_i, i=1, \dots, di.i.d.N(0,1)eX = (X_1, \dots, X_d). - 2° caso:
m=0, QdiagonaleQ = \begin{pmatrix} q_{11} & & 0 \\ & \ddots & \\ 0 & & q_{dd} \end{pmatrix}. PrendiamoX = (X_1, \dots, X_d)conX_iindipendenti,X_i \sim N(0, q_{ii}). - 3° caso:
m=0, Qgenerica.\exists U \in \mathbb{R}^{d \times d}ortogonale unitaria eD \in \mathbb{R}^{d \times d}diagonale t.c.Q = U D U^T. PrendiamoS = U \sqrt{D} U^T.Sè simmetrica semidefinita positiva.
Sia\sqrt{D} = \begin{pmatrix} \sqrt{q_{11}} & & 0 \\ & \ddots & \\ 0 & & \sqrt{q_{dd}} \end{pmatrix}Z \sim N(0, I),X = m + S Z. AlloraX \sim N(m, S I S^T) = N(m, Q).\square