Cette méthode est connue des mathématiciens chinois depuis au moins le Iersiècle de notre ère. Elle est référencée dans le livre chinois Jiuzhang suanshu (Les Neuf Chapitres sur l'art mathématique), dont elle constitue le huitième chapitre, sous le titre «Fang cheng» (la disposition rectangulaire). La méthode est présentée au moyen de dix-huit exercices. Dans son commentaire daté de 263, Liu Hui en attribue la paternité à Chang Ts'ang, chancelier de l'empereur de Chine au IIesiècle avant notre ère.
En Europe, cette méthode a été découverte et présentée sous forme moderne au XIXesiècle. En 1810, Carl Friedrich Gauss présente sa méthode des moindres carrés dans un livre étudiant le mouvement de l'astéroïde Pallas[1]. Dans l'article 13 de ce livre, il décrit une méthode générale de résolution de système d'équations linéaires qui constitue l'essentiel de la méthode du pivot. En 1888, Wilhelm Jordan publie un livre de géodésie précisant comment utiliser cette méthode et adoptant une notation un peu différente[2]. C'est grâce à ce dernier livre que cette méthode se diffusa dans tout l'Occident[3]. Elle est aujourd'hui connue sous le nom d'élimination de Gauss-Jordan ou méthode du pivot de Gauss.
Opérations
L'algorithme de Gauss-Jordan produit la matrice échelonnée réduite d'une matrice à l'aide d'opérations élémentaires sur les lignes. Trois types d'opérations élémentaires sont utilisées:
Échange de deux lignes;
Multiplication d'une ligne par un scalaire non nul;
Gauss-Jordan
r = 0 (r est l'indice de ligne du dernier pivot trouvé)Pour j de 1 jusqu'à m (j décrit tous les indices de colonnes)
| Rechercher max(|A[i,j]|, r+1 ≤ i ≤ n). Noter k l'indice de ligne du maximum
| (A[k,j] est le pivot)
| Si A[k,j]≠0 alors (A[k,j] désigne la valeur de la ligne k et de la colonne j)
| | r=r+1 (r désigne l'indice de la future ligne servant de pivot)
| | Diviser la ligne k par A[k,j] (On normalise la ligne de pivot de façon que le pivot prenne la valeur 1)
| | Si k≠r alors
| | | Échanger les lignes k et r (On place la ligne du pivot en position r)
| | Fin Si
| | Pour i de 1 jusqu'à n (On simplifie les autres lignes)
| | | Si i≠r alors
| | | | Soustraire à la ligne i la ligne r multipliée par A[i,j] (de façon à annuler A[i,j])
| | | Fin Si
| | Fin Pour
| Fin SiFin PourFin Gauss-Jordan
Exemple.
On part de la matrice
Il s'agit d'une matrice réelle, donc le module d'un coefficient est sa valeur absolue.
étape 1.1: on cherche dans la première colonne de la matrice la valeur maximale des valeurs absolues des coefficients. Elle vaut 2, située en (1, 1), de sorte que k = 1,
étape 1.2.1: r = 1,
étape 1.2.2: r = k, il n'y a pas d'échange,
étape 1.2.3: on divise la ligne 1 par A(1, 1) = 2, soit ,
étape 1.2.4:
ligne i = 2, on a A(2, 1) = -1; on calcule ,
ligne i = 3, on a A(3, 1) = 0, la ligne n'est donc pas modifiée,
la matrice est alors ;
deuxième itération, j = 2 (et r = 1):
étape 2.1: on cherche dans les lignes 2 à 3 de la deuxième colonne la valeur maximale en valeur absolue. Il s'agit de 3/2, situé en (2, 2),
étape 2.2.1: r = 2,
étape 2.2.2: r = k, il n'y a pas d'échange.
étape 2.2.3: on divise la ligne 2 par A'(2, 2) = 3/2, soit ,
étape 2.2.4:
ligne i = 1, on a A'(1, 2) = -1/2; on calcule ,
ligne i = 3, on a A'(3, 2) = -1; on calcule ,
la matrice est alors ;
troisième itération, j = 3 (et r = 2):
étape 3.1: le pivot de la troisième colonne, troisième ligne est 4/3. Donc k = 3
étape 3.2.1: r = k,
étape 3.2.2: il n'y a aucune ligne à permuter,
étape 3.2.3: on divise la ligne 3 par A''(3, 3) = 4/3, elle devient
étape 3.2.4:
ligne i = 1, on a A''(1, 3) = -1/3. La dernière étape annule ce coefficient.
ligne i = 2, on a A''(2, 3) = -2/3. La dernière étape annule ce coefficient.
la matrice est alors qui est réduite échelonnée.
Stabilité numérique
La première section de l'algorithme, soit l'échange de ligne avec la valeur de pivot la plus grande, a pour but d'améliorer la stabilité numérique de l'algorithme. Cette étape tente de minimiser les erreurs d'arrondis cumulatives causant de l'instabilité numérique. Cette stratégie permet en général de remédier à cette instabilité, même si on peut donner des contre-exemples[5].
Complexité algorithmique
La complexité algorithmique asymptotique de l'élimination de Gauss est O(n3) (notations de Landau): n×n est la taille de la matrice et le nombre d'instructions à réaliser est proportionnel à n3.
Cet algorithme peut être utilisé sur un ordinateur pour des systèmes avec des milliers d'inconnues et d'équations[6],[7]. Cependant, l'algorithme de Strassen, qui est en O(n2,807) a une meilleure complexité algorithmique asymptotique.
La complexité algorithmique du pivot de Gauss reste O(n3) quand la matrice est creuse.
En effet, prenons une matrice n×n dont seulement kn entrées sont non nulles mais dont les entrées sont régulièrement réparties sur les lignes et les colonnes, alors au cours de l'algorithme du pivot de Gauss le nombre moyen de valeurs non nulles sur une ligne passera de k à 2k puis 3k jusqu'à n. On trouve donc que le nombre d'instructions est de l'ordre de n n (n-1)/2.
L'élimination de Gauss-Jordan peut être utilisée pour inverser une matricecarrée si celle-ci est inversible. Pour cela, on crée une matrice à n lignes et 2n colonnes en bordant la matrice A par la matrice identité In, ce qui génère une matrice augmentée(en) notée [ A | I ]. Si la matrice d'entrée est inversible, on applique l'algorithme de Gauss-Jordan à la matrice augmentée. La matrice finale est de la forme [ I | A−1 ] et contient l'inverse de la matrice initiale dans sa section de droite.
Exemple
Admettons la matrice suivante:
Pour trouver l'inverse de cette matrice, il faut générer la matrice augmentée [ A | I ] comme suit:
En appliquant l'algorithme de Gauss-Jordan, on obtient la matrice augmentée sous sa forme échelonnée réduite suivante:
Démonstration
Comme précédemment, le premier pivot est sur la première ligne. À l'étape 2.2.3, la première ligne devient
L'étape 2.2.4 devient:
ligne i = 2, on a A(2, 1) = -1; on calcule ;
ligne i = 3, on a A(3, 1) = 0, la ligne n'est pas modifiée.
On a donc
Pour la deuxième itération, on permute les lignes 2 et 3, et on divise la nouvelle ligne 2 par 2, soit à l'étape 2.2.3:
À l'étape 2.2.4:
ligne i = 1, on a A(1, 3) = 0, la ligne n'est pas modifiée;
ligne i = 3, on a A(3, 3) = -1; on calcule ;
On a donc
Pour la troisième itération, on divise la ligne 3 par 1, la matrice est inchangée à l'étape 2.2.3.
À l'étape 2.2.4:
ligne i = 1, on a A(1, 2) = -1/2; on calcule ;
ligne i = 2, on a A(2, 2) = -1/2; on calcule ;
On a donc
.
Une dernière permutation des lignes 2 et 3 nous donne
.
La section gauche de la matrice est la matrice identité, ce qui démontre que A est inversible. La section 3x3 de droite, soit la matrice B, est l'inverse de A.
Cas général
Effectuer une opération élémentaire O sur les n lignes d'une matrice revient à la multiplier à gauche par la matrice élémentaire (inversible)Gs:= O(In).
En notant O1, …, Os les opérations élémentaires que l'on effectue sur A, et Gs = Os(In) les matrices élémentaires associées, on aboutit donc, dans la section de gauche, à la matrice
et dans celle de droite, à la matrice
Ainsi, B est inversible et BA = In, donc B−1 = A et A−1 = B.
L'élimination de Gauss-Jordan peut résoudre un système d'équations AX = B, où A est une matrice n × m de rang r, B est un vecteur fixé, et X le vecteur inconnu. On crée un tableau à n lignes et m + 1 colonnes en bordant la matrice A par le vecteur B. On réduit la matrice sous forme échelonnée réduite.
Si les pivots de la matrice échelonnée réduite associée à (A|B) sont situés uniquement dans les m premières colonnes (ce qui est toujours le cas si r = n) et ont pour indice de colonnes k1, …, kr, alors la dernière colonne fournit une solution particulière, obtenue en prenant tous ses termes nuls sauf ceux situés à la ligne d'indice ki et à qui on donne la valeur du terme situé à la ligne i de la dernière colonne, i variant de 1 à r.
On obtient la solution générale du système en ajoutant à cette solution particulière un élément quelconque du noyau de A. Celle-ci s'obtient en donnant des valeurs quelconques aux coefficients de X situés à un indice de ligne autre que les ki, et en déterminant les coefficients situés aux lignes d'indice ki de façon à satisfaire le système (ce qui est facile compte tenu de la forme échelonnée de la matrice).
Si le dernier pivot de la matrice échelonnée réduite associée à (A|B) se situe dans la dernière colonne, alors il n'y a pas de solution.
Si la matrice A est carrée inversible (autrement dit, le système est de Cramer), alors on obtient dans la dernière colonne l'unique solution X du système.
Variante: dans l'algorithme précédent, si on se borne à obtenir une matrice échelonnée (non réduite), on obtient une matrice triangulaire supérieure. Il ne reste plus qu'à «remonter» pour retrouver les valeurs des coefficients de X.
Exemple 1 (détaillé)
Soit le système d'équations linéaires:
On établit la matrice correspondante:
On commence par la colonne 1. Le pivot est le maximum en valeur absolue entre 1, 3 et 2, soit 3:
Comme ce pivot n'est pas nul, on divise la ligne où il se trouve (c'est-à-dire la ligne 2) par le pivot:
On échange les lignes 1 et 2:
On analyse maintenant les lignes autres que celle du pivot. Ligne 2, on a A(2, 1) = 1. On calcule
Ligne 3, on a A(3, 1) = 2. On calcule
On remplace les lignes 2 et 3 ainsi calculées:
On passe à la colonne 2. Le pivot est le maximum en valeur absolue entre et , soit :
Comme ce pivot n'est pas nul, on divise la ligne où il se trouve (c'est-à-dire la ligne 3) par le pivot:
On échange les lignes 2 et 3:
On analyse maintenant les lignes autres que celle du pivot. Ligne 1, on a A(1, 2) = . On calcule
Ligne 3, on a A(3, 2) = . On calcule
On remplace les lignes 1 et 3 ainsi calculées:
On passe à la colonne 3. Le pivot est :
Comme ce pivot n'est pas nul, on divise la ligne où il se trouve (c'est-à-dire la ligne 3) par le pivot:
Comme ce pivot est déjà ligne 3, on n'a pas besoin d'échanger de lignes.
On analyse maintenant les lignes autres que celle du pivot. Ligne 1, on a A(1, 3) = . On calcule
Ligne 2, on a A(2, 3) = . On calcule
On remplace les lignes 1 et 2 ainsi calculées:
Toutes les colonnes à gauche de la barre verticale ont été traitées. Nous sommes en présence d'une matrice échelonnée réduite, avec la matrice identité d'un côté et la valeur des variables de l'autre. La solution du système d'équations est donc:
Exemple 2
Soit le système d'équations linéaires:
La matrice échelonnée réduite associée à
est
.
Les pivots sont situés aux colonnes d'indice 1 et 3. Une solution particulière est donc: , ce qui correspond au vecteur:
avec p le nombre de permutations de lignes, et le pivot noté à l'étape j de l'algorithme.
Si l'un des pivots est nul, alors le déterminant de la matrice est nul et celle-ci n'est pas inversible.
Exemple
On part de la matrice
Il s'agit d'une matrice réelle, donc le module d'un coefficient est sa valeur absolue.
On recherche le pivot dans la colonne 1:
On divise la ligne 1 par 2 de sorte que l'on obtienne un 1 sur la diagonale:
On modifie les lignes 2 et 3 par combinaisons linéaires avec la ligne 1 de sorte que l'on obtienne des zéros dans la première colonne (hors diagonale):
On recherche le pivot dans la colonne 2:
On échange les lignes 2 et 3:
On divise la ligne 2 par (3/2) de sorte que l'on obtienne 1 sur la diagonale:
On modifie les lignes 1 et 3 par combinaisons linéaires avec la ligne 2 de sorte que l'on obtienne des zéros dans la deuxième colonne (hors diagonale):
On recherche le pivot dans la colonne 3:
On divise la ligne 3 par (4/3) de sorte que l'on obtienne 1 sur la diagonale:
On modifie les lignes 1 et 2 par combinaisons linéaires avec la ligne 3 de sorte que l'on obtienne des zéros dans la troisième colonne (hors diagonale), la matrice est alors:
Voir par exemple les commentaires de Patrick Lascaux et Raymond Théodor, Analyse numérique matricielle appliquée à l'art de l'ingénieur, t.1: Méthodes directes[détail des éditions], p.228.
Alan Edelman, «The first annual large dense linear systems survey», The SIGNUM Newsletter, no26, , p.6-12 (lire en ligne); Alan Edelman, «Large dense numerical linear algebra in 1993: The parallel computing influence», Int. J. Supercomputer appl., vol.7, no2, , p.113-128.