La méthode des moindres carrés a vu le jour au début du 19e siècle et a été construite par Legendre (1805) et Gauss (1809). Cette méthode permet de faire une relation entre les données expérimentales et le modèle mathématique supposé décrire ces données, ceci réglant le problème des erreurs de mesure.
On dénombre différentes formes pour ce modèle. Par exemple, il existe des lois de conservations que les quantités observées doivent respecter. Dans ce cas, la méthode des moindres carrés permet de réduire la conséquence des erreurs expérimentales tout en enrichissant le processus de mesure d’information.
Dans le cas le plus commun, le modèle théorique se présente sous la forme d’une famille de fonctions d’une ou plusieurs variables muettes, indexées par un ou plusieurs paramètres inconnus. La démarche des moindres carrés permet de choisir parmi ces fonctions, celle qui reflète le mieux les données expérimentales. C’est ceci que l’on nomme « l’ajustement par la méthode des moindres carrés ». Quand les paramètres possèdent un sens physique, la procédure d’ajustement permet également une appréciation indirecte de la valeur de ces paramètres.
Sa simplicité implique que cette méthode est une utilisation très courante en sciences expérimentales. Un des usages courants, par exemple, est le lissage des données expérimentales par une fonction empirique (fonction linéaire, polynômes ou splines). Cependant, l’application la plus importante est sans doute la mesure de quantités physiques grâce aux données expérimentales. Dans la plupart des hypothèses, la quantité que l’on tente de mesurer n’est pas identifiable et ne se manifeste qu’indirectement comme paramètre d’un modèle théorique. Dans cette dernière hypothèse, on peut pointer que la méthode des moindres carrés permet de structurer un estimateur du paramètre, qui examine certaines conditions d’optimalité. Plus spécifiquement lorsque le modèle est linéaire en fonction du paramètre, le théorème de Gauss-Markov assure que la méthode des moindres carrés permet d’acquérir l’estimateur non biaisé le moins dispersé. Lorsque le modèle se présente sous la forme d’une fonction non linéaire des paramètres, l’estimateur est généralement biaisé.