Principe de la régression linéaire: méthode du Chi²
I Données
1) Cas simple:
On
dispose de N couples de données
avec
leurs incertitudes-type
.
Contrairement à la régression linéaire classique, on ne néglige pas ici les incertitudes sur l'abscisse, et les incertitudes sur l'ordonnée dépendent du point considéré.
2) Cas général
On
dispose de N couples de données
avec
leurs incertitudes-type et covariance
,
ou de façon équivalente
avec
,
coefficient de corrélation entre
et
.
II But
Il
s'agit de trouver les paramètres
de la régression linéaire
,
ainsi que les incertitudes-type
et la covariance
.
On peut aussi déterminer les valeurs « ajustées »
.
III Hypothèse
On va supposer que les erreurs en abscisse et ordonnée pour un point sont distribuées selon une loi binormale: la densité de probabilité conjointe pour un point est:
où
est le point "ajusté", correspondant aux "vraies
valeurs", inconnues pour le moment.
Dans le cas où ces erreurs ne sont pas corrélées, la densité se réduit à:
.
IV 1er critère : Estimateur du Maximum de Vraisemblance
(Maximum Likelihood Estimation, MLE)
Si on suppose en outre que les erreurs entre les différents points ne sont pas corrélées, la densité de probabilité conjointe s'écrit :
.
Ou
encore, avec
,
Le
principe de la MLE est de trouver les valeurs des N+2 paramètres
qui maximisent
,
donc qui minimisent la quantité
On
peut montrer que, après avoir minimisé par rapport aux
,
il reste à minimiser :
où
On tombe donc sur un second critère, équivalent:
V Second critère : Estimateur de Moindre Carrés Pondérés
Il
faut donc minimiser
Dans
le cas où les erreurs sont non corrélées (),
on tombe sur le critère classique de minimisation du
:
.
On
notera dans le cas général :
Le
"réduit" est la quantité
VI Equations à résoudre
La minimisation
conduit donc à résoudre le système d'équations
,
.
Mais il n'y a pas de solution explicite, il faut en passer par un algorithme itératif, l'algorithme de York.