Remove ads
来自维基百科,自由的百科全书
線性代數中,特徵分解(Eigendecomposition),又稱譜分解(Spectral decomposition)是將矩陣分解為由其特徵值和特徵向量表示的矩陣之積的方法。需要注意只有對可對角化矩陣才可以施以特徵分解。
N 維非零向量 v 是 N×N 的矩陣 A 的特徵向量,若且唯若下式成立:
其中 λ 為一純量,稱為 v 對應的特徵值。也稱 v 為特徵值 λ 對應的特徵向量。也即特徵向量被施以線性變換 A 只會使向量伸長或縮短而其方向不被改變。
由上式可得
稱多項式 p(λ) 為矩陣的特徵多項式。上式亦稱為矩陣的特徵方程。特徵多項式是關於未知數 λ 的 N 次多項式。由代數基本定理,特徵方程有 N 個解。這些解的解集也就是特徵值的集合,有時也稱為「譜」(Spectrum)。
我們可以對多項式 p 進行因式分解,而得到
其中
對每一個特徵值 λi ,我們都有下式成立:
對每一個特徵方程,都會有( )個線性獨立的解。這 mi 個向量與一個特徵值 λi 相對應。這裏,整數 mi 稱為特徵值 λi 的幾何重數,而 ni 稱為代數重數。這裏需要注意的是幾何重數與代數重數可以相等,但也可以不相等。一種最簡單的情況是 mi = ni = 1。特徵向量的極大線性無關向量組中向量的個數可以由所有特徵值的幾何重數之和來確定。
令 A 是一個 N×N 的方陣,且有 N 個線性獨立的特徵向量 。這樣, A 可以被分解為
其中 Q 是N×N方陣,且其第 i列為 A 的特徵向量 。 Λ 是對角矩陣,其對角線上的元素為對應的特徵值,也即 。這裏需要注意只有可對角化矩陣才可以作特徵分解。比如 不能被對角化,也就不能特徵分解。
一般來說,特徵向量 一般被單位化(但這不是必須的)。未被單位化的特徵向量組 也可以作為 Q 的列向量。這一事實可以這樣理解: Q 中向量的長度都被 Q−1 抵消了。
若矩陣 A 可被特徵分解並特徵值中不含零,則矩陣 A 為非奇異矩陣,且其逆矩陣可以由下式給出:
因為 Λ 為對角矩陣,其逆矩陣容易計算出:
任意的 N×N 實對稱矩陣的特徵值都是實數且都有 N 個線性無關的特徵向量。並且這些特徵向量都可以正交單位化而得到一組正交且模為 1 的向量。故實對稱矩陣 A 可被分解成
類似地,一個複正規矩陣具有一組正交特徵向量基,故正規矩陣可以被分解成
其中 U 為一個酉矩陣。進一步地,若 A 是埃爾米特矩陣,那麼對角矩陣 Λ 的對角元全是實數。若 A 還是酉矩陣,則 Λ 的所有對角元在複平面的單位圓上取得。
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.