Vettori Gaussiani

§ Teorema 6.1.1. Sia (X, Y) un vettore gaussiano. Allora X e Y sono indipendenti se e solo se sono non correlati.

Dimostrazione. Se Cov(X, Y) = 0, allora (X, Y) ha matrice di covarianza

\begin{pmatrix} Var(X) & 0 \\ 0 & Var(Y) \end{pmatrix}

quindi la sua funzione caratteristica è

\phi_{(X,Y)}(u,v) = e^{i(u,v) \cdot m} e^{-\frac{1}{2} (u,v) Q (u,v)^T} = e^{i u m_1 - \frac{1}{2} u^2 Q_{11}} e^{i v m_2 - \frac{1}{2} v^2 Q_{22}} = \phi_X(u) \phi_Y(v)

quindi X e Y sono indipendenti. \square

Osservazione 6.1.2. Se X e Y sono v.a. reali gaussiane, allora non è detto che (X, Y) sia un vettore gaussiano. Se (X, Y) è un vettore gaussiano e X, Y sono non correlate, allora sono indipendenti.

§ Lemma 6.1.3. Sia X un vettore aleatorio in L^2 con matrice di covarianza Q. Allora per ogni u \in \mathbb{R}^d si ha

\text{Var}(\langle X, u \rangle) = u^T Q u

Dimostrazione. Sia Y = \langle X, u \rangle = \sum_{i=1}^d u_i X_i. Allora \text{Var}(Y) = \mathbb{E}[(Y - \mathbb{E}[Y])^2]. Si ha:

Y - \mathbb{E}[Y] = \sum_{i=1}^d u_i X_i - \sum_{i=1}^d u_i \mathbb{E}[X_i] = \sum_{i=1}^d u_i (X_i - \mathbb{E}[X_i])

da cui

(Y - \mathbb{E}[Y])^2 = \sum_{i,j=1}^d u_i u_j (X_i - \mathbb{E}[X_i])(X_j - \mathbb{E}[X_j])

Dunque:

\mathbb{E}[(Y - \mathbb{E}[Y])^2] = \sum_{i,j=1}^d u_i u_j \text{Cov}(X_i, X_j) = u^T Q u. \quad \square

Trasformazioni lineari di gaussiane

§ Proposizione 6.2.1. Se X \sim N(m, Q) a valori in \mathbb{R}^d e A \in \mathbb{R}^{m \times d}, b \in \mathbb{R}^m, allora AX+b \sim N(Am+b, AQA^T).

Dimostrazione. Per ogni u \in \mathbb{R}^m:

u \cdot (AX+b) = u \cdot b + A^T u \cdot X

è una v.a. reale gaussiana, quindi AX+b è gaussiana. Media e matrice di covarianza seguono dalle formule viste prima.

(Dim formula per Cov: Cov(AX+b)_{ij} = Cov((AX)_i + b_i, (AX)_j + b_j) = Cov((AX)_i, (AX)_j) = Cov(\sum_h A_{ih} X_h, \sum_k A_{jk} X_k) = \sum_{h,k} A_{ih} Cov(X_h, X_k) A_{jk} = (A Cov(X) A^T)_{ij}). \square

Esistenza di vettori gaussiani

§ Proposizione 6.3.1. Data m \in \mathbb{R}^d e Q \in \mathbb{R}^{d \times d} simmetrica semidefinita positiva, allora esiste un vettore aleatorio X \sim N(m, Q).

Dimostrazione.

  • 1° caso: m=0, Q=I (identità). Prendiamo X_i, i=1, \dots, d i.i.d. N(0,1) e X = (X_1, \dots, X_d).
  • 2° caso: m=0, Q diagonale Q = \begin{pmatrix} q_{11} & & 0 \\ & \ddots & \\ 0 & & q_{dd} \end{pmatrix}. Prendiamo X = (X_1, \dots, X_d) con X_i indipendenti, X_i \sim N(0, q_{ii}).
  • 3° caso: m=0, Q generica. \exists U \in \mathbb{R}^{d \times d} ortogonale unitaria e D \in \mathbb{R}^{d \times d} diagonale t.c. Q = U D U^T. Prendiamo S = U \sqrt{D} U^T. S è simmetrica semidefinita positiva.
    \sqrt{D} = \begin{pmatrix} \sqrt{q_{11}} & & 0 \\ & \ddots & \\ 0 & & \sqrt{q_{dd}} \end{pmatrix}
    Sia Z \sim N(0, I), X = m + S Z. Allora X \sim N(m, S I S^T) = N(m, Q). \square