Principe de la régression linéaire: méthode du Chi²


I Données


1) Cas simple:


On dispose de N couples de données avec leurs incertitudes-type .

Contrairement à la régression linéaire classique, on ne néglige pas ici les incertitudes sur l'abscisse, et les incertitudes sur l'ordonnée dépendent du point considéré.


2) Cas général


On dispose de N couples de données avec leurs incertitudes-type et covariance , ou de façon équivalente avec , coefficient de corrélation entre et .



II But

Il s'agit de trouver les paramètres de la régression linéaire , ainsi que les incertitudes-type et la covariance . On peut aussi déterminer les valeurs « ajustées » .


III Hypothèse


On va supposer que les erreurs en abscisse et ordonnée pour un point sont distribuées selon une loi binormale: la densité de probabilité conjointe pour un point est:

est le point "ajusté", correspondant aux "vraies valeurs", inconnues pour le moment.

Dans le cas où ces erreurs ne sont pas corrélées, la densité se réduit à:

.


IV 1er critère : Estimateur du Maximum de Vraisemblance

(Maximum Likelihood Estimation, MLE)


Si on suppose en outre que les erreurs entre les différents points ne sont pas corrélées, la densité de probabilité conjointe s'écrit :

.

Ou encore, avec ,

Le principe de la MLE est de trouver les valeurs des N+2 paramètres qui maximisent , donc qui minimisent la quantité


On peut montrer que, après avoir minimisé par rapport aux , il reste à minimiser :


On tombe donc sur un second critère, équivalent:


V Second critère : Estimateur de Moindre Carrés Pondérés


Il faut donc minimiser


Dans le cas où les erreurs sont non corrélées (), on tombe sur le critère classique de minimisation du : .


On notera dans le cas général :

Le "réduit" est la quantité



VI Equations à résoudre

La minimisation conduit donc à résoudre le système d'équations ,.

Mais il n'y a pas de solution explicite, il faut en passer par un algorithme itératif, l'algorithme de York.