Théorème de König-Huygens

Page d’aide sur l’homonymie

Pour les articles homonymes, voir Théorème de König.

En statistiques et en théorie des probabilités, le théorème de König-Huygens est une identité remarquable reliant la variance et la moyenne.

Énoncé en probabilités

Le théorème de König-Huygens s'énonce de la façon suivante :

Théorème — Pour toute variable aléatoire réelle X qui admet un moment d'ordre 2, on a :

Var ( X ) E [ ( X E [ X ] ) 2 ] = E [ X 2 ] E [ X ] 2 {\displaystyle \operatorname {Var} (X)\equiv \mathbb {E} \left[(X-\mathbb {E} [X])^{2}\right]=\mathbb {E} [X^{2}]-\mathbb {E} [X]^{2}} .
Démonstration

La démonstration est relativement simple et algébrique. Trois points sont à rappeler :

  • le développement du binôme de Newton ;
  • la linéarité de l'espérance en fonction de la variable aléatoire ;
  • l'espérance d'une constante vaut cette constante.

Ces trois propriétés rappelées impliquent :

E [ ( X E [ X ] ) 2 ] = E [ X 2 2 X E [ X ] + E [ X ] 2 ] = E [ X 2 ] E [ 2 X E [ X ] ] + E [ E [ X ] 2 ] = E [ X 2 ] 2 E [ X ] E [ X ] + E [ X ] 2 = E [ X 2 ] E [ X ] 2 {\displaystyle {\begin{aligned}\mathbb {E} \left[(X-\mathbb {E} [X])^{2}\right]&=\mathbb {E} \left[X^{2}-2X\mathbb {E} [X]+\mathbb {E} [X]^{2}\right]\\&=\mathbb {E} [X^{2}]-\mathbb {E} \left[2X\mathbb {E} [X]\right]+\mathbb {E} \left[\mathbb {E} [X]^{2}\right]\\&=\mathbb {E} [X^{2}]-2\mathbb {E} [X]\mathbb {E} [X]+\mathbb {E} [X]^{2}\\&=\mathbb {E} [X^{2}]-\mathbb {E} [X]^{2}\end{aligned}}}

Énoncé en statistiques

Ce théorème peut également s'appliquer pour une décomposition de la formule de la variance empirique.

Théorème — On a : 1 n i = 1 n ( x i x ¯ ) 2 = ( 1 n i = 1 n x i 2 ) x ¯ 2 {\displaystyle {\frac {1}{n}}\sum _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)^{2}=\left({\frac {1}{n}}\sum _{i=1}^{n}x_{i}^{2}\right)-{\overline {x}}^{2}}

Démonstration

1 n i = 1 n ( x i x ¯ ) 2 = 1 n i = 1 n ( x i 2 2 x i x ¯ + x ¯ 2 ) = 1 n i = 1 n x i 2 1 n i = 1 n 2 x i x ¯ + 1 n i = 1 n x ¯ 2 = 1 n i = 1 n x i 2 2 x ¯ n i = 1 n x i + 1 n n x ¯ 2 = 1 n i = 1 n x i 2 2 x ¯ 2 + x ¯ 2 = 1 n i = 1 n x i 2 x ¯ 2 {\displaystyle {\begin{aligned}{\frac {1}{n}}\sum _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)^{2}&={\frac {1}{n}}\sum _{i=1}^{n}\left(x_{i}^{2}-2x_{i}{\bar {x}}+{\overline {x}}^{2}\right)&\\&={\frac {1}{n}}\sum _{i=1}^{n}x_{i}^{2}-{\frac {1}{n}}\sum _{i=1}^{n}2x_{i}{\bar {x}}+{\frac {1}{n}}\sum _{i=1}^{n}{\bar {x}}^{2}\\&={\frac {1}{n}}\sum _{i=1}^{n}x_{i}^{2}-{\frac {2{\bar {x}}}{n}}\sum _{i=1}^{n}x_{i}+{\frac {1}{n}}n{\bar {x}}^{2}\\&={\frac {1}{n}}\sum _{i=1}^{n}x_{i}^{2}-2{\bar {x}}^{2}+{\bar {x}}^{2}\\&={\frac {1}{n}}\sum _{i=1}^{n}x_{i}^{2}-{\bar {x}}^{2}\\\end{aligned}}}

Généralisation

Cette formulation est en fait un cas particulier d'une identité plus générale.

Identité — On a : 1 n i = 1 n ( X i a ) 2 = 1 n i = 1 n ( X i X ¯ ) 2 + ( X ¯ a ) 2 {\displaystyle {\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-a)^{2}={\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-{\bar {X}})^{2}+({\bar {X}}-a)^{2}}

Démonstration

i = 1 n ( X i a ) 2 = i = 1 n ( X i X ¯ + X ¯ a ) 2 = i = 1 n ( ( X i X ¯ ) + ( X ¯ a ) ) 2 = i = 1 n [ ( X i X ¯ ) 2 + 2 ( X i X ¯ ) ( X ¯ a ) + ( X ¯ a ) 2 ] = ( X i X ¯ ) 2 + 2 ( X ¯ a ) ( X i n X ¯ ) + n ( X ¯ a ) 2 = ( X i X ¯ ) 2 + 2 ( X ¯ a ) ( X i n 1 n X i ) + n ( X ¯ a ) 2 = i = 1 n ( X i X ¯ ) 2 + n ( X ¯ a ) 2 {\displaystyle {\begin{aligned}\sum _{i=1}^{n}(X_{i}-a)^{2}&=\sum _{i=1}^{n}(X_{i}-{\bar {X}}+{\bar {X}}-a)^{2}\\&=\sum _{i=1}^{n}\left((X_{i}-{\bar {X}})+({\bar {X}}-a)\right)^{2}\\&=\sum _{i=1}^{n}\left[(X_{i}-{\bar {X}})^{2}+2(X_{i}-{\bar {X}})({\bar {X}}-a)+({\bar {X}}-a)^{2}\right]\\&=\sum (X_{i}-{\bar {X}})^{2}+2({\bar {X}}-a)(\sum X_{i}-n{\bar {X}})+n({\bar {X}}-a)^{2}\\&=\sum (X_{i}-{\bar {X}})^{2}+2({\bar {X}}-a)(\sum X_{i}-n{\frac {1}{n}}\sum X_{i})+n({\bar {X}}-a)^{2}\\&=\sum _{i=1}^{n}(X_{i}-{\bar {X}})^{2}+n({\bar {X}}-a)^{2}\end{aligned}}}

N.B. : la démonstration est tirée de Mood et al. (2001, p. 229)

Remarque :

En passant le deuxième terme de droite à gauche et en prenant a = 0 on retrouve la formule de la variance montrée plus haut :

1 n i = 1 n ( X i X ¯ ) 2 = 1 n i = 1 n ( X i a ) 2 ( X ¯ a ) 2 {\displaystyle {\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-{\bar {X}})^{2}={\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-a)^{2}-({\bar {X}}-a)^{2}}

Et donc si a = 0, 1 n i = 1 n ( X i X ¯ ) 2 = 1 n i = 1 n ( X i ) 2 ( X ¯ ) 2 {\displaystyle {\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-{\bar {X}})^{2}={\frac {1}{n}}\sum _{i=1}^{n}(X_{i})^{2}-({\bar {X}})^{2}}

Relation avec la fonction de Leibniz

Ce théorème est un cas particulier de simplification de la fonction scalaire de Leibniz concernant des barycentres.

En effet, la moyenne m est le barycentre du système pondéré { ( x i , n i ) } i = 1... k {\displaystyle \{(x_{i},n_{i})\}_{i=1...k}} . La simplification de la fonction scalaire de Leibniz donne pour le système { ( A i , a i ) i = 1... k } {\displaystyle \{(A_{i},a_{i})_{i=1...k}\}} de barycentre G :

i = 1 k a i A A i 2 = i = 1 k a i G A i 2 + ( i = 1 k a i ) G A 2 {\displaystyle \sum _{i=1}^{k}a_{i}AA_{i}^{2}=\sum _{i=1}^{k}a_{i}GA_{i}^{2}+\left(\sum _{i=1}^{k}a_{i}\right)GA^{2}}

En remplaçant G par m, A par m', ai par ni et Ai par xi, on obtient

i = 1 k n i ( x i m ) 2 = i = 1 k n i ( x i m ) 2 + n ( m m ) 2 {\displaystyle \sum _{i=1}^{k}n_{i}(x_{i}-m')^{2}=\sum _{i=1}^{k}n_{i}(x_{i}-m)^{2}+n(m'-m)^{2}}

Ce qui est, à un facteur n près et à l'ordre près, la formule précédente.

Énoncé en mécanique (Théorème d'Huygens)

Soit un système de k points matériels Ai, de masses respectives mi, de masse totale M , de centre de masse G et un point A distant de d du point G. Le théorème de transport ou théorème de Huygens ou théorème de Steiner donne JA le moment d'inertie du système par rapport à A en fonction de JG le moment d'inertie du système par rapport à G {\displaystyle G}  :

J A = J G + M d 2 {\displaystyle J_{A}=J_{G}+M\cdot d^{2}}

avec

J A = i = 1 k m i A A i 2 , J G = i = 1 k m i G A i 2 , M = i = 1 k m i , d 2 = G A 2 . {\displaystyle J_{A}=\sum _{i=1}^{k}m_{i}AA_{i}^{2},\quad J_{G}=\sum _{i=1}^{k}m_{i}GA_{i}^{2},\quad M=\sum _{i=1}^{k}m_{i},\quad d^{2}=GA^{2}.}

Référence

(en) Alexander M. Mood, Franklin A. Graybill et Duane C. Boes, Introduction to the Theory of Statistics, New Delhi, Tata McGraw-Hill, (ISBN 978-0-07-042864-5, LCCN 73000292), p. 564

  • icône décorative Portail des probabilités et de la statistique