Résultats de recherche
Learn about the singular value decomposition (SVD), a factorization of a matrix into a rotation, a scaling, and another rotation. Find out its intuitive interpretations, applications, proofs, and variations.
La décomposition en valeurs singulières (SVD) est un procédé d'algèbre linéaire qui factorise une matrice rectangulaire en trois matrices unitaires et diagonales. Elle généralise le théorème spectral des matrices carrées et a de nombreuses applications en traitement du signal, statistiques et météorologie.
- 15.1 Introduction
- Peter Mills (lien web)
- Gilbert Strang (lien web)
- La décomposition en valeurs singulières
- = U V T ;
- Structure
- = V ( T )V T
- T )UT ;
- Matrices définies par blocs
- Preuve du théorème :
- AT A = V DV T :
- AV2 = 0 :
- 15.4 Rang et représentation
- A(k)k ;
- GeneratedCaptionsTabForHeroSec
“Today, singular value decomposition has spread through many branches of science, in particular psychology and sociology, climate and atmospheric science, and astronomy. It is also extremely useful in machine learning and in both descriptive and predictive statistics. ”
“Eigenvalues and eigenvectors are restricted to square matrices. But data comes in rec-tangular matrices. ”
Si la diagonalisation a permis de comprendre la nature géométrique de certaines applica-tions linéaires, elle exige malheureusement que l’application considérée se prête à cette analyse (qu’elle soit diagonalisable justement), et surtout : elle ne s’applique qu’à des ma-trices carrées.
La décomposition en valeurs singulières (SVD=Singular Value Decomposition) est une méthode très générale de factorisation qui donne une nouvelle interprétation géomé-trique de n’importe quelle application linéaire T : n ! Rm. Elle consiste à factoriser une matrice quelconque A (m n) en un produit,
où U est m m, orthogonale : UT U = UUT = Im, est m n, diagonale dans le sens où ij = 0 si i 6= j. De plus, ij > 0. c) V est n n, orthogonale : V T V = V V T = In. On sait d’une part que les matrices orthogonales représentent des isométries, c’est-à-dire des transformations rigides de l’espace, et doivent être comprises essentiellement comme des rot...
Dans la section suivante, nous établirons rigoureusement la décomposition en valeurs singulières. Pour l’instant, supposons qu’une décomposition
On a, dans le terme de droite, trois matrices n n. Puisque T est diagonale, et puisque V T est l’inverse de V (car cette dernière est orthogonale), on voit que ce produit de trois matrices carrées représente une diagonalisation de la matrice symétrique AT A. En particulier, les colonnes de V sont des vecteurs propres orthonormés de AT A, associés à...
qui implique que les colonnes de U sont des vecteurs propres orthonormés de AAT , associés à des valeurs propres qui sont les éléments diagonaux de T :
Dans ce chapitre, nous définirons et manipulerons des matrices définies par blocs, ce qui signifie définies comme composées de sous-matrices. On utilisera l’indice “ ” pour indiquer qu’une matrice est définie par blocs.
(La preuve ci-dessous est tirée de wikipedia (lien web).) Considérons la diagonalisation de AT A :
En multipliant à gauche par V T puis à droite par V ,
(En effet, on sait que pour toute matrice M, MT M contient tous les produits scalaires possibles entre les colonnes de M, en particulier, sur sa diagonale, les carrés des normes des colonnes. Si MT M = 0, cela implique que la norme de chaque colonne de M est nulle, et donc que M est la matrice nulle. ) Définissons maintenant la matrice m l :
Soit A une matrice m n dont une décomposition en valeurs singulières est donnée :
où le minimum est pris sur toutes les matrices m n de rang au plus égal à k. Preuve:
Ce chapitre présente la décomposition en valeurs singulières (SVD) d'une matrice quelconque, qui permet de factoriser une application linéaire en trois parties : rotation, rotation et stretching. Il explique les propriétés des valeurs singulières, des matrices AT A et AAT, et les cas particuliers de matrices carrées et rectangulaires.
6 août 2024 · Learn the mathematical intuition and geometrical meaning of SVD, a factorization of a matrix into three matrices. See examples, applications, and how to calculate the pseudo-inverse using SVD.
- 6 min
Learn how to decompose a matrix A into a product of orthogonal matrices U and V and a diagonal matrix Σ, which reveals its rank and singular values. See examples, proofs, and applications of the SVD in linear algebra and machine learning.
- 181KB
- 9
31 août 2023 · Learn what SVD is, how it works, and why it is important for data science and machine learning. See examples of SVD for dimensionality reduction, noise reduction, and image compression.
Learn how to find the SVD of a matrix A = UΣVT, where U and V are orthogonal and Σ is diagonal. See examples, definitions, and applications of the SVD in matrix factorization and linear transformation.