Loading AI tools
De Wikipédia, l'encyclopédie libre
En algèbre linéaire et en analyse numérique, un préconditionneur d'une matrice est une matrice telle que le conditionnement de est plus petit que celui de .
Le préconditionnement est surtout utilisé dans les méthodes itératives pour la résolution d'un système linéaire (méthode du gradient, méthode du gradient conjugué, ...).
Au lieu de résoudre,
on préfère résoudre
qui permet de diminuer considérablement le nombre d'itérations dans la méthode de résolution (itérative). On dit que le système est "mieux" conditionné.
Ici, on a écrit un préconditionneur à gauche[1]. On peut aussi écrire un préconditionneur à droite. Dans ce cas, la résolution se fait en deux temps :
On peut, dans la même idée, écrire un préconditionneur à droite et à gauche, ou split preconditioner[2], c'est-à-dire :
En général, on ne calcule pas explicitement , mais on utilise des algorithmes pour trouver un inverse approché de . Dans certaines méthodes numériques (intégrales de frontières avec décomposition multipôles, ...), on préfère définir le produit matrice-vecteur, ce qui permet de réduire le stockage de(s) matrice(s), donc certains types de préconditionneur seront préférés.
Ces préconditionneurs simples sont très utilisés pour leur intérêt pratique, car simples à calculer et efficaces pour des matrices creuses.
Dans la suite, on décompose A en trois matrices : A = D +L+U, avec D sa diagonale, L, une matrice triangulaire inférieure stricte et U, une matrice triangulaire supérieure stricte.
Il s'agit d'un des préconditionneurs les plus simples : la matrice P est choisie comme étant la diagonale de la matrice du système A.
Il est intéressant dans le cas des matrices à diagonale dominante.
La matrice P est choisie comme étant la partie inférieure de la matrice :.
Le préconditionneur T=P–1 est la matrice minimisant , où est la norme de Frobenius. Cela revient à résoudre des problèmes de moindres carrés pour chaque colonne de la matrice A.
Les préconditionneurs reposant sur des factorisations incomplètes utilisent les résultats sur les décomposition de matrices en produit de matrices aux formes ou propriétés particulières. Ces matrices n'étant pas forcément aussi creuses et leur calcul pouvant être lui-même assez lourd, il est plus simple de chercher des approximations "aussi creuses" que A, et d'utiliser ces approximations comme préconditionneurs.
Cette méthode est intéressante dans le cas des matrices A creuses, pour lesquelles les matrices recherches seront aussi creuse que A : pour , pour une décomposition , on va imposer :
Pour une matrice A, on utilise la décomposition LU A = LU avec L une matrice triangulaire inférieure et U une matrice triangulaire supérieure dont tous les coefficients diagonaux sont égaux à 1. Le préconditionneur de la factorisation LU incomplète (ILU) pour A consiste à chercher deux matrices proches de L et U[3],[4].
On désigne également cette factorisation par ILU(0), les factorisations ILU(k) reposent sur la décomposition LU de Ak+1.
Dans le cas où A est symétrique définie positive, on sait qu'elle admet une décomposition appelée factorisation de Cholesky A=LLT avec L une matrice triangulaire inférieure. Le préconditionneur de la factorisation de Cholesky incomplète pour A consiste à chercher une matrice K proche de L.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.