Signaux aléatoires

Définition et loi de probabilité



Simon Leglaive


CentraleSupélec




Au programme aujourd’hui

  • Définition d’un signal / processus aléatoire
  • Loi de probabilité

Définition d’un signal / processus aléatoire

Définition

Un processus aléatoire, noté \(\{ X(t), t \in \mathbb{T} \}\) ou \(\{ X(t)\}_{t \in \mathbb{T}}\), est un ensemble de variables aléatoires indexées par \(t \in \mathbb{T}\), définies sur et à valeur dans le même espace.

  • Pour les processus à temps continu, \(\mathbb{T}\) est souvent un interval, par exemple \(\mathbb{T} = [a, b], [a, b[\) ou \([a, +\infty[\) pour \(a < b\).
  • Pour les processus à temps discret, \(\mathbb{T}\) est un ensemble fini, par exemple \(\mathbb{T} = \{0, 1, ..., T-1\}\) pour un certain entier \(T\), ou un ensemble infini dénombrable, par exemple \(\mathbb{T} = \mathbb{Z}\).
  • L’indice \(t\) de la variable aléatoire \(t\) est souvent appelé le temps.

Un processus aléatoire est une fonction de deux variables :

  • Pour un instant de temps \(t \in \mathbb{T}\) fixé, il s’agit d’une variable aléatoire.

  • C’est une fonction définie sur l’ensemble des épreuves \(\Omega\) : \[ X(t) : \omega \in \Omega \mapsto X(t, \omega). \]

  • \(X(t, \omega)\) est une réalisation de la variable aléatoire \(X(t)\) pour l’épreuve aléatoire \(\omega \in \Omega\). Elle peut prendre des valeurs discrètes ou continues, selon le type de processus.

Un processus aléatoire est une fonction de deux variables :

  • Pour une épreuve aléatoire donnée \(\omega \in \Omega\), il s’agit d’une fonction du temps :

\[ X(\omega) : t \in \mathbb{T} \mapsto X(t, \omega). \]

  • Cette fonction est appelée une réalisation ou une trajectoire du processus aléatoire \(X(t)\).

  • C’est finalement un signal déterministe.

  • On observe sur cette figure 6 trajectoires du processus aléatoire \(\{X(t)\}_{t \in \mathbb{T}}\).
  • Chaque trajectoire est une réalisation différente du processus, associée à une épreuve aléatoire \(\omega \in \Omega\) différente.
  • Une variable aléatoire \(X(t)\), \(t \in \mathbb{T}\), s’obtient en figeant le temps \(t\).
  • En général, deux variables aléatoires \(X(t_1)\) et \(X(t_2)\) avec \(t_1 \neq t_2\) n’ont pas la même distribution de probabilité.

Processus aléatoire discret, réel, complexe

  • Processus aléatoire à valeur discrète : \(X(t)\) prend ses valeurs dans un ensemble fini ou infini dénombrable.
  • Processus aléatoire à valeur réelle : \(X(t) \in \mathbb{R}\)
  • Processus aléatoire à valeur complexe : \(X(t) = U(t) + jV(t)\) avec \(U(t), V(t) \in \mathbb{R}\).

On peut aussi construire des processus aléatoires à plusieurs dimensions, par exemple \(X(t) \in \mathbb{R}^d\).

Loi d’un processus aléatoire

Objectif : On cherche à définir la distribution (ou loi) de probabilité d’un processus aléatoire.

  • Par définition, un processus aléatoire est un ensemble de variables aléatoires indexées par le temps \(t \in \mathbb{T}\).

  • Il semble donc assez naturel de s’intéresser à loi de probabilité jointe de l’ensemble des variables aléatoires \(\{ X(t), t \in \mathbb{T} \}\).

  • Problème : Lorsque l’ensemble \(\mathbb{T}\) est infini dénombrable (e.g., \(\mathbb{T} = \mathbb{Z}\)), nous avons à définir la loi jointe d’un ensemble infini de variables aléatoires, ce qu’on ne sait pas faire.

  • Idée : Restreignons nous à un ensemble fini mais arbitraire de variables aléatoires issues du processus.

    C’est exactement l’idée derrière la definition des loi fini-dimensionnelles du processus.

Loi fini-dimensionnelle : définition

On appelle lois fini-dimensionnelles d’ordre \(k \in \mathbb{N}\) du processus \(\{ X(t), t \in \mathbb{T} \}\), l’ensemble des lois de probabilité jointe des variables \(\{X(t_1), X(t_2), ..., X(t_k)\}\)\(\{t_1, t_2, ..., t_k\}\) est un \(k\)-uplet arbitraire d’instants d’observation distincts.

  • La spécification des lois \(k\)-dimensionnelles permet d’évaluer des quantités faisant intervenir la loi jointe du processus à \(k\) instants sucessifs.
  • Par exemple, la spécification des lois fini-dimensionnelles d’ordre 2 permet d’évaluer des expressions de la forme \(\mathbb{P}(X(t_1)\le a, X(t_2)\le b)\) ou encore \(\mathbb{E}\left[f(X(t_1))g(X(t_2))\right]\), où \(f\) et \(g\) sont des fonctions arbitraires telles que l’espérance existe.

  • Connaître la loi jointe des variables \(\{X(t_1), X(t_2), ..., X(t_k)\}\) est équivalent à connaître la fonction de répartition

    \[ \begin{aligned} &F(x_1, x_2, ..., x_k ; t_1, t_2, ... t_k) = \\ \mathbb{P}\bigg( \{X(t_1) \le & x_1\}, \,\, \{X(t_2) \le x_2\}, \,\, ..., \,\, \{X(t_k) \le x_k\} \bigg). \end{aligned} \]

  • Dans de nombreuses situations, les fonctions de répartition sont différentiables par rapport aux variables \(\{x_1, x_2, ..., x_k\}\), ce qui revient à dire qu’il existe des fonctions positives \(p(x_1, x_2, ..., x_k ; t_1, t_2, ... t_k)\) appelées densités de probabilité jointes telles que :

    \[ F(x_1, x_2, ..., _k ; t_1, t_2, ... t_k) = \int_{- \infty}^{x_1} \int_{- \infty}^{x_2} ... \int_{- \infty}^{x_k} p(y_1, y_2, ..., y_k ; t_1, t_2, ... t_k) dy_1 dy_2 ... dy_k. \]

Loi temporelle : définition

On appelle loi temporelle du processus l’ensemble des distributions fini-dimensionnelles à tout ordre.

La question que tout le monde se pose maintenant est :

La loi temporelle caractérise-t-elle complètement la distribution du processus ?

… et la réponse est OUI1.

C’est le théorème d’extension de Kolmogorov qui garantit l’existence et l’unicité (au sens de sa loi de probabilité) d’un processus stochastique dont on impose les lois fini-dimensionnelles, à condition que celles-ci soient consistantes.

En résumé

Pour définir un processus aléatoire, il suffit de définir sa loi temporelle, c’est-à-dire l’ensemble des lois fini-dimensionnelles (qui doivent être consistantes) à tout ordre.

Exemple du bruit blanc gaussien

Pour tout entier \(k\) et tout \(k\)-uplet \(\{t_1, t_2, ..., t_k\}\), \(\{X(t_1), X(t_2), ..., X(t_k)\}\) est défini comme un vecteur gaussien de vecteur moyenne nul et de matrice de covariance proportionnelle à l’identité:

\[ \begin{pmatrix} X(t_1) \\ X(t_2) \\ \vdots \\ X(t_k) \end{pmatrix} \sim \mathcal{N}\left( \mathbf{0}, \sigma^2 \mathbf{I}_k \right), \] avec \(\sigma^2 > 0\).

On écrira : \[ X(t) \overset{i.i.d}{\sim} \mathcal{N}(0, \sigma^2), \]\(i.i.d\) signifie indépendant et identiquement distribué.

import numpy as np
import matplotlib.pyplot as plt
import soundfile as sf

sr = 8000
T = 1*sr
std = 0.2
x = std*np.random.randn(T)

plt.figure(figsize=(20,3))
plt.plot(x, 'k')
plt.xlabel('temps (échantillons)', fontsize=18)
plt.title('réalisation d\'un bruit blanc gaussien', fontsize=18)
plt.savefig('images/WGN.svg', bbox_inches='tight')

sf.write('audio/WGN.wav', x, sr)

🤔 Mais pourquoi on appelle ça un bruit blanc ?

↪ Réponse quand on caractérisera les processus aléatoires dans le domaine spectral.

Indépendance de deux processus

  • On s’intéresse souvent aux intéractions entre plusieurs signaux aléatoires (e.g., signal utile et bruit).

  • On dit que les deux processus \(\{X(t)\}_t\) et \(\{Y(t)\}_t\) définis sur un même espace de probabilité sont indépendants si et seulement si pour tout couple \((m, n) \in \mathbb{N}^2\) et tout \(m\)-uplet \((t_1, t_2, ..., t_m) \in \mathbb{Z}^m\) et tout \(n\)-uplet \((u_1, u_2, ..., u_n) \in \mathbb{Z}^n\), loi jointe de \(\{X(t)\}_{t=t_1}^{t_m}\) et \(\{Y(t)\}_{u=u_1}^{u_n}\) est égale au produit des lois de \(\{X(t)\}_{t=t_1}^{t_m}\) et \(\{Y(t)\}_{u=u_1}^{u_n}\) :

    \[ \begin{aligned} & \mathbb{P}\bigg( \{X(t_1) \le x_1\}, \{X(t_2) \le x_2\}, ..., \{X(t_m) \le x_m\}, \\ & \hspace{1.1cm} \{Y(u_1) \le y_1\}, \{Y(u_2) \le y_2\}, ..., \{Y(u_n) \le y_n\} \bigg) = \\[.25cm] & \hspace{1cm} \,\mathbb{P}\bigg(\{X(t_1) \le x_1\}, \{X(t_2) \le x_2\}, ..., \{X(t_m) \le x_m\}\bigg) \\ & \hspace{2cm} \times \mathbb{P}\bigg(\{Y(u_1) \le y_1\}, \{Y(u_2) \le y_2\}, ..., \{Y(u_n) \le y_n\} \bigg). \end{aligned} \]