FR EN

Décomposition LU

La décomposition LU est une méthode de décomposition d'une matrice \(A\) en produit d'une matrice triangulaire inférieure \(L\) et d'une matrice triangulaire supérieure \(U\). Cette décomposition est utile pour résoudre des systèmes d'équations linéaires, inverser des matrices et calculer des déterminants.

Théorème :

Toute matrice \(n \times n\) \(A\) a une décomposition LU si et seulement si :

\[ \text{rang}(A[{1, \ldots, k}]) + k \geq \text{rang}(A[{1, \ldots, k}, {1, \ldots, n}]) + \text{rang}(A[{1, \ldots, n}, {1, \ldots, k}]) \text{ pour tout } k = 1, \ldots, n. \]

Ce théorème fournit une condition nécessaire et suffisante pour l'existence d'une décomposition LU. Il assure que les conditions de rang sont satisfaites à chaque étape du processus de décomposition.

Théorème :

Toute matrice \(n \times n\) \(A\) peut être écrite comme :

\[A = U_1 L U_2\]

Ici, \(U_1\) et \(U_2\) sont des matrices triangulaires supérieures, et \(L\) est une matrice triangulaire inférieure.

Ce théorème met en évidence une forme plus généralisée de la décomposition LU, montrant que plusieurs matrices triangulaires supérieures et inférieures peuvent être impliquées dans le processus de factorisation.

Théorème :

Toute matrice \(n \times n\) peut être écrite comme :

\[A = L_1 U L_2\]

Dans cette forme, \(L_1\) et \(L_2\) sont des matrices triangulaires inférieures, et \(U\) est une matrice triangulaire supérieure.

Ce théorème fournit une autre perspective sur la décomposition de matrices, indiquant qu'une combinaison de matrices triangulaires inférieures et supérieures peut également représenter la matrice originale \(A\).

Théorème :

Toute matrice \(n \times n\) \(A\) peut être écrite comme :

\[A = P L U\]

où \(P\) est une matrice de permutation.

Ce théorème est particulièrement important dans les applications pratiques de la décomposition LU, car il tient compte de la possibilité d'échanges de lignes pour assurer la stabilité numérique. La matrice de permutation \(P\) réorganise les lignes de \(A\) pour permettre une décomposition réussie en \(L\) et \(U\).

Décomposition de Cholesky

La décomposition de Cholesky est une méthode de décomposition d'une matrice hermitienne définie positive \(A\) en le produit d'une matrice triangulaire inférieure \(L\) et de sa transposée conjuguée \(L^*\). Cette décomposition est particulièrement utile en analyse numérique et en algèbre linéaire pour résoudre des systèmes d'équations linéaires, inverser des matrices et effectuer d'autres opérations matricielles.

Une matrice réelle et symétrique est un cas particulier de matrice hermitienne.

Théorème : Décomposition de Cholesky

Pour toute matrice hermitienne définie positive \(A\), il existe une matrice triangulaire inférieure unique \(L\) telle que :

\[A = L \times L^*\]

où \(L\) est une matrice triangulaire inférieure avec des entrées diagonales réelles et positives, et \(L^*\) désigne la transposée conjuguée de \(L\).

Ce théorème garantit que la décomposition de Cholesky est unique pour toute matrice hermitienne définie positive donnée.

Théorème : Décomposition LDL

Une variante étroitement liée à la décomposition classique de Cholesky est la décomposition LDL, qui stipule que toute matrice hermitienne définie positive \(A\) peut être décomposée comme :

\[A = L \times D \times L^*\]

où \(L\) est une matrice triangulaire inférieure unitaire (unitriangulaire), et \(D\) est une matrice diagonale.

Dans cette décomposition, les éléments diagonaux de \(L\) doivent être 1, et la matrice diagonale \(D\) est introduite pour tenir compte des entrées diagonales de \(A\).

Décomposition QR

La décomposition QR est une méthode de décomposition d'une matrice \(A\) en le produit d'une matrice orthogonale \(Q\) et d'une matrice triangulaire supérieure \(R\). Cette décomposition est utile pour résoudre des systèmes linéaires, effectuer des ajustements par moindres carrés, et calculer des valeurs propres.

Théorème : Décomposition QR

Pour toute matrice \(m \times n\) \(A\), il existe une matrice orthogonale \(m \times m\) \(Q\) et une matrice triangulaire supérieure \(m \times n\) \(R\) telle que :

\[A = Q \times R\]

où \(Q\) a des colonnes orthonormales (i.e., \(Q^T Q = I\)) et \(R\) est une matrice triangulaire supérieure.

Ce théorème garantit que la décomposition QR peut être appliquée à toute matrice rectangulaire.

Références et plus

Transformation SVD

La décomposition en valeurs singulières (SVD) est une factorisation d'une matrice réelle ou complexe en une rotation, suivie d'une mise à l'échelle, puis d'une autre rotation. Plus précisément, la décomposition en valeurs singulières d'une matrice complexe \(m \times n\) \(\mathbf{M}\) est une factorisation de la forme :

\[\mathbf{M} = \mathbf{U\Sigma V}^{*}\]

où \(\mathbf{U}\) est une matrice unitaire complexe \(m \times m\), \(\mathbf{\Sigma}\) est une matrice diagonale rectangulaire \(m \times n\) avec des nombres réels non négatifs sur la diagonale, \(\mathbf{V}\) est une matrice unitaire complexe \(n \times n\), et \(\mathbf{V}^{*}\) est la transposée conjuguée de \(\mathbf{V}\). Une telle décomposition existe toujours pour toute matrice complexe.

Si \(\mathbf{M}\) est réelle, alors \(\mathbf{U}\) et \(\mathbf{V}\) peuvent être garantis comme étant des matrices orthogonales réelles ; dans de tels contextes, la SVD est souvent notée :

\[\mathbf{U\Sigma V}^{\mathrm{T}}\]

Théorème : Existence de la SVD

Pour toute matrice \(m \times n\) \(\mathbf{M}\), il existe des matrices unitaires \(\mathbf{U}\) et \(\mathbf{V}\), et une matrice diagonale \(\mathbf{\Sigma}\), telles que :

\[\mathbf{M} = \mathbf{U\Sigma V}^{*}\]

Ici, les entrées diagonales de \(\mathbf{\Sigma}\) sont les valeurs singulières de \(\mathbf{M}\), qui sont des nombres réels non négatifs. Les colonnes de \(\mathbf{U}\) sont les vecteurs singuliers gauches, et les colonnes de \(\mathbf{V}\) sont les vecteurs singuliers droits de \(\mathbf{M}\).

Propriétés de la SVD

La décomposition en valeurs singulières possède plusieurs propriétés importantes :

  • Unicité : Les valeurs singulières sont uniques, mais les vecteurs singuliers ne le sont pas si certaines valeurs singulières sont égales.
  • Orthogonalité : Les matrices \(\mathbf{U}\) et \(\mathbf{V}\) sont unitaires, ce qui signifie que leurs colonnes sont des vecteurs orthonormaux.
  • Rang : Le nombre de valeurs singulières non nulles est égal au rang de \(\mathbf{M}\).