CentraleSupélec
Un processus aléatoire, noté \(\{ X(t), t \in \mathbb{T} \}\) ou \(\{ X(t)\}_{t \in \mathbb{T}}\), est un ensemble de variables aléatoires indexées par \(t \in \mathbb{T}\), définies sur et à valeur dans le même espace.
Un processus aléatoire est une fonction de deux variables :
Pour un instant de temps \(t \in \mathbb{T}\) fixé, il s’agit d’une variable aléatoire.
C’est une fonction définie sur l’ensemble des épreuves \(\Omega\) : \[ X(t) : \omega \in \Omega \mapsto X(t, \omega). \]
\(X(t, \omega)\) est une réalisation de la variable aléatoire \(X(t)\) pour l’épreuve aléatoire \(\omega \in \Omega\). Elle peut prendre des valeurs discrètes ou continues, selon le type de processus.
Un processus aléatoire est une fonction de deux variables :
\[ X(\omega) : t \in \mathbb{T} \mapsto X(t, \omega). \]
Cette fonction est appelée une réalisation ou une trajectoire du processus aléatoire \(X(t)\).
C’est finalement un signal déterministe.
On peut aussi construire des processus aléatoires à plusieurs dimensions, par exemple \(X(t) \in \mathbb{R}^d\).
Objectif : On cherche à définir la distribution (ou loi) de probabilité d’un processus aléatoire.
Par définition, un processus aléatoire est un ensemble de variables aléatoires indexées par le temps \(t \in \mathbb{T}\).
Il semble donc assez naturel de s’intéresser à loi de probabilité jointe de l’ensemble des variables aléatoires \(\{ X(t), t \in \mathbb{T} \}\).
Problème : Lorsque l’ensemble \(\mathbb{T}\) est infini dénombrable (e.g., \(\mathbb{T} = \mathbb{Z}\)), nous avons à définir la loi jointe d’un ensemble infini de variables aléatoires, ce qu’on ne sait pas faire.
Idée : Restreignons nous à un ensemble fini mais arbitraire de variables aléatoires issues du processus.
C’est exactement l’idée derrière la definition des loi fini-dimensionnelles du processus.
On appelle lois fini-dimensionnelles d’ordre \(k \in \mathbb{N}\) du processus \(\{ X(t), t \in \mathbb{T} \}\), l’ensemble des lois de probabilité jointe des variables \(\{X(t_1), X(t_2), ..., X(t_k)\}\) où \(\{t_1, t_2, ..., t_k\}\) est un \(k\)-uplet arbitraire d’instants d’observation distincts.
Connaître la loi jointe des variables \(\{X(t_1), X(t_2), ..., X(t_k)\}\) est équivalent à connaître la fonction de répartition
\[ \begin{aligned} &F(x_1, x_2, ..., x_k ; t_1, t_2, ... t_k) = \\ \mathbb{P}\bigg( \{X(t_1) \le & x_1\}, \,\, \{X(t_2) \le x_2\}, \,\, ..., \,\, \{X(t_k) \le x_k\} \bigg). \end{aligned} \]
Dans de nombreuses situations, les fonctions de répartition sont différentiables par rapport aux variables \(\{x_1, x_2, ..., x_k\}\), ce qui revient à dire qu’il existe des fonctions positives \(p(x_1, x_2, ..., x_k ; t_1, t_2, ... t_k)\) appelées densités de probabilité jointes telles que :
\[ F(x_1, x_2, ..., _k ; t_1, t_2, ... t_k) = \int_{- \infty}^{x_1} \int_{- \infty}^{x_2} ... \int_{- \infty}^{x_k} p(y_1, y_2, ..., y_k ; t_1, t_2, ... t_k) dy_1 dy_2 ... dy_k. \]
On appelle loi temporelle du processus l’ensemble des distributions fini-dimensionnelles à tout ordre.
La question que tout le monde se pose maintenant est :
La loi temporelle caractérise-t-elle complètement la distribution du processus ?
… et la réponse est OUI1.
C’est le théorème d’extension de Kolmogorov qui garantit l’existence et l’unicité (au sens de sa loi de probabilité) d’un processus stochastique dont on impose les lois fini-dimensionnelles, à condition que celles-ci soient consistantes.
Pour définir un processus aléatoire, il suffit de définir sa loi temporelle, c’est-à-dire l’ensemble des lois fini-dimensionnelles (qui doivent être consistantes) à tout ordre.
Pour tout entier \(k\) et tout \(k\)-uplet \(\{t_1, t_2, ..., t_k\}\), \(\{X(t_1), X(t_2), ..., X(t_k)\}\) est défini comme un vecteur gaussien de vecteur moyenne nul et de matrice de covariance proportionnelle à l’identité:
\[ \begin{pmatrix} X(t_1) \\ X(t_2) \\ \vdots \\ X(t_k) \end{pmatrix} \sim \mathcal{N}\left( \mathbf{0}, \sigma^2 \mathbf{I}_k \right), \] avec \(\sigma^2 > 0\).
On écrira : \[ X(t) \overset{i.i.d}{\sim} \mathcal{N}(0, \sigma^2), \] où \(i.i.d\) signifie indépendant et identiquement distribué.
import numpy as np
import matplotlib.pyplot as plt
import soundfile as sf
sr = 8000
T = 1*sr
std = 0.2
x = std*np.random.randn(T)
plt.figure(figsize=(20,3))
plt.plot(x, 'k')
plt.xlabel('temps (échantillons)', fontsize=18)
plt.title('réalisation d\'un bruit blanc gaussien', fontsize=18)
plt.savefig('images/WGN.svg', bbox_inches='tight')
sf.write('audio/WGN.wav', x, sr)🤔 Mais pourquoi on appelle ça un bruit blanc ?
↪ Réponse quand on caractérisera les processus aléatoires dans le domaine spectral.
On s’intéresse souvent aux intéractions entre plusieurs signaux aléatoires (e.g., signal utile et bruit).
On dit que les deux processus \(\{X(t)\}_t\) et \(\{Y(t)\}_t\) définis sur un même espace de probabilité sont indépendants si et seulement si pour tout couple \((m, n) \in \mathbb{N}^2\) et tout \(m\)-uplet \((t_1, t_2, ..., t_m) \in \mathbb{Z}^m\) et tout \(n\)-uplet \((u_1, u_2, ..., u_n) \in \mathbb{Z}^n\), loi jointe de \(\{X(t)\}_{t=t_1}^{t_m}\) et \(\{Y(t)\}_{u=u_1}^{u_n}\) est égale au produit des lois de \(\{X(t)\}_{t=t_1}^{t_m}\) et \(\{Y(t)\}_{u=u_1}^{u_n}\) :
\[ \begin{aligned} & \mathbb{P}\bigg( \{X(t_1) \le x_1\}, \{X(t_2) \le x_2\}, ..., \{X(t_m) \le x_m\}, \\ & \hspace{1.1cm} \{Y(u_1) \le y_1\}, \{Y(u_2) \le y_2\}, ..., \{Y(u_n) \le y_n\} \bigg) = \\[.25cm] & \hspace{1cm} \,\mathbb{P}\bigg(\{X(t_1) \le x_1\}, \{X(t_2) \le x_2\}, ..., \{X(t_m) \le x_m\}\bigg) \\ & \hspace{2cm} \times \mathbb{P}\bigg(\{Y(u_1) \le y_1\}, \{Y(u_2) \le y_2\}, ..., \{Y(u_n) \le y_n\} \bigg). \end{aligned} \]