可對角化矩陣是可化簡為對角矩陣的方陣。矩陣對角化後大幅降低了某些屬性的計算難度,比如其行列式就是對角線上所有數字的乘積,而對角線上的數字就是其特徵值。
Quick Facts 線性代數, 向量 ...
線性代數
|
![{\displaystyle \mathbf {A} ={\begin{bmatrix}1&2\\3&4\end{bmatrix}}}](//wikimedia.org/api/rest_v1/media/math/render/svg/a31efc33ac33577d719a3ccd162a9bf21e4847ea)
|
向量 · 向量空間 · 基底 · 行列式 · 矩陣
|
|
|
Close
可對角化也使該線性變換的幾何意義更直觀,因為每個線性變換都可以對應到一個矩陣,所以將矩陣對角化等價於找到一組基底,使的線性變換的作用僅僅是伸縮基底向量而已。類似的,若用對角矩陣表示差分方程組或者微分方程組的係數的話,這樣每條等式只含有一個未知函數,這樣也大幅度了化簡了方程式的難度。
若爾當-謝瓦萊分解表達一個算子為它的對角部分與它的冪零部分的和。
正式定義
可對角化的線性映射
特徵化
關於可對角化映射和矩陣的基本事實可表達為如下:
- 在域 F 上的 n × n 矩陣 A 是可對角化的,若且唯若它的特徵空間的和的維度等於 n,它為真若且唯若存在由 A 的特徵向量組成的 Fn 的基。如果找到了這樣的基,可以形成有基向量作為縱列的矩陣 P,而 P -1AP 將是對角矩陣。這個矩陣的對角元素是 A 的特徵值。
- 線性映射 T : V → V 是可對角化的,若且唯若它的特徵空間的維度等於 dim(V),它為真若且唯若存在由 T 的特徵向量組成的 V 的基。T 關於這個基將表示為對角矩陣。這個矩陣的對角元素是 T 的特徵值。
另一個特徵化: 矩陣或線性映射在域 F 上可對角化的,若且唯若它的極小多項式在 F 上有不同的線性因子。
下列充分(但非必要)條件經常是有用的。
- n × n 矩陣 A 只在域 F 上可對角化的,如果它在 F 中有 n 個不同的特徵值,就是說,如果它的特徵多項式在 F 中有 n 個不同的根。
- 線性映射 T : V → V 帶有 n=dim(V) 是可對角化的,如果它有 n 個不同的特徵值,就是說它的特徵多項式在 F 中有 n 個不同的根。
作為經驗規則,在複數域 C 上幾乎所有矩陣都是可對角化的。更精確地說: 在 C 上不可對角化的複數 n × n 矩陣的集合被當作 Cn×n 的子集,它是關於勒貝格測度的零集。也可以說可對角化矩陣形成了關於 扎里斯基拓撲的稠密子集 : 補位於特徵多項式的判別式變為零的集合內,後者是超平面。從中得出的還有在平常的(強拓撲)中密度由範數給出。
對於 R 域就不是這樣了。隨著 n 增長,隨機選擇的實數矩陣是在 R 上可對角化的可能性越來越小。
例子
可對角化矩陣
- 對合在實數上(甚至特徵不是 2 的任何域)是可對角化的,帶有 1 和 -1 在對角線上。
- 有限階自同態(包括對合)是在複數,或域的特徵不整除自同態的階的任何代數閉合域(因為單位一的根是不同的)是可對角化的,帶有單位根在對角線上。這是循環群的表示理論的一部分。
- 投影是可對角化的,帶有 0 和 1 在對角線上。
非可對角化的矩陣
某些矩陣在任何域上都是不可對角化的,最著名的是冪零矩陣。如果特徵值的幾何重次和代數重次不一致,這會更一般的出現。例如考慮
![{\displaystyle C={\begin{bmatrix}0&1\\0&0\end{bmatrix}}}](//wikimedia.org/api/rest_v1/media/math/render/svg/5407bbbec016ec23aa24dfcc1be8ee4087d18d3c)
這個矩陣是不可對角化的: 沒有矩陣 U 使得
是對角矩陣。實際上,C 有一個特徵值(就是零)而這個特徵值有代數重次 2 和幾何重次 1。
某些實數矩陣在實數上是不可對角化的。例如考慮
![{\displaystyle B={\begin{bmatrix}0&1\\-1&0\end{bmatrix}}}](//wikimedia.org/api/rest_v1/media/math/render/svg/9ca91f95e5a492e0ac56faae3892e4b8ac5d541e)
矩陣 B 沒有任何實數特徵值,所以沒有實數矩陣 Q 使得
是對角矩陣。但是如果允許複數的話 ,
仍可以對角化。實際上,如果我們取
![{\displaystyle Q={\begin{bmatrix}1&{\textrm {i}}\\{\textrm {i}}&1\end{bmatrix}}}](//wikimedia.org/api/rest_v1/media/math/render/svg/83d8f92e2567b1be9c717cc43351730e52959ee2)
則
是對角的。
矩陣對角化的方法
考慮矩陣
![{\displaystyle A={\begin{bmatrix}1&2&0\\0&3&0\\2&-4&2\end{bmatrix}}}](//wikimedia.org/api/rest_v1/media/math/render/svg/71442347d97ddf480d26fe397433a048effbd532)
這個矩陣有特徵值
![{\displaystyle \lambda _{1}=3,\quad \lambda _{2}=2,\quad \lambda _{3}=1}](//wikimedia.org/api/rest_v1/media/math/render/svg/6f7650568ad752a7d90fabc818243b87b394b587)
所以 A 是有三個不同特徵值的 3 × 3 矩陣,所以它是可對角化的。
如果我們要對角化 A,我們需要計算對應的特徵向量。它們是
![{\displaystyle v_{1}={\begin{bmatrix}-1\\-1\\2\end{bmatrix}}\quad v_{2}={\begin{bmatrix}0\\0\\1\end{bmatrix}}\quad v_{3}={\begin{bmatrix}-1\\0\\2\end{bmatrix}}}](//wikimedia.org/api/rest_v1/media/math/render/svg/095dae59ab346b1a4eb4557bef2053b1edb9373d)
我們可以輕易的驗證
。
現在,設 P 是由這些特徵向量作為縱列的矩陣:
![{\displaystyle P={\begin{bmatrix}-1&0&-1\\-1&0&0\\2&1&2\end{bmatrix}}}](//wikimedia.org/api/rest_v1/media/math/render/svg/5c002b61d1666a26b66bf5be2062f33466e2dd37)
則 P 對角化了 A,簡單的計算可驗證:
![{\displaystyle P^{-1}AP={\begin{bmatrix}0&-1&0\\2&0&1\\-1&1&0\end{bmatrix}}{\begin{bmatrix}1&2&0\\0&3&0\\2&-4&2\end{bmatrix}}{\begin{bmatrix}-1&0&-1\\-1&0&0\\2&1&2\end{bmatrix}}={\begin{bmatrix}3&0&0\\0&2&0\\0&0&1\end{bmatrix}}}](//wikimedia.org/api/rest_v1/media/math/render/svg/6a3e0206b8bcbef7afaaf845755f9386b3239baa)
注意特徵值
出現在對角矩陣中。
應用
對角化可被用來有效的計算矩陣 A 的冪,假如矩陣是可對角化的。比如我們找到了
![{\displaystyle P^{-1}AP=D\ }](//wikimedia.org/api/rest_v1/media/math/render/svg/087fa6d7f11ce63a1c4b28c3b809d8ab0701157e)
是對角矩陣,因為矩陣的積是結合的,
![{\displaystyle {\begin{aligned}A^{k}&=(PDP^{-1})^{k}=(PDP^{-1})\cdot (PDP^{-1})\cdots (PDP^{-1})\\&=PD(P^{-1}P)D(P^{-1}P)\cdots (P^{-1}P)DP^{-1}=PD^{k}P^{-1}\end{aligned}}}](//wikimedia.org/api/rest_v1/media/math/render/svg/d73f9f51d22695416fd6178dbf7c6a9d204a806e)
而後者容易計算,因為它只涉及對角矩陣的冪。
在找到線性遞歸序列比如斐波那契數列的項的閉合形式的表達中這是非常有用的。
特定應用
例如,考慮下列矩陣:
![{\displaystyle M={\begin{bmatrix}a&b-a\\0&b\end{bmatrix}}}](//wikimedia.org/api/rest_v1/media/math/render/svg/2dcaf33d90cfc5197ae1c256e2ba46e843dc550f)
計算 M 個各次冪揭示了一個驚人的模式:
![{\displaystyle M^{2}={\begin{bmatrix}a^{2}&b^{2}-a^{2}\\0&b^{2}\end{bmatrix}},\quad M^{3}={\begin{bmatrix}a^{3}&b^{3}-a^{3}\\0&b^{3}\end{bmatrix}},\quad M^{4}={\begin{bmatrix}a^{4}&b^{4}-a^{4}\\0&b^{4}\end{bmatrix}},\quad \ldots }](//wikimedia.org/api/rest_v1/media/math/render/svg/e479eb72ae602a27791348ec7cc7d7a781e7f176)
上面的現象可以通過對角化 M 來解釋。要如此我們需要由 M 的特徵向量組成的 R2 的基。一個這樣的特徵向量基給出自
![{\displaystyle \mathbf {u} ={\begin{bmatrix}1\\0\end{bmatrix}}=\mathbf {e} _{1},\quad \mathbf {v} ={\begin{bmatrix}1\\1\end{bmatrix}}=\mathbf {e} _{1}+\mathbf {e} _{2}}](//wikimedia.org/api/rest_v1/media/math/render/svg/e11a78da4e4c0bd1f321a2b97077eaf17916633c)
這裡的 ei 指示 Rn 的標準基。
逆的基變更給出自
![{\displaystyle \mathbf {e} _{1}=\mathbf {u} ,\qquad \mathbf {e} _{2}=\mathbf {v} -\mathbf {u} }](//wikimedia.org/api/rest_v1/media/math/render/svg/387b9329f8da1e9c4735df717d615f5b3e99525c)
直接計算證實
![{\displaystyle M\mathbf {u} =a\mathbf {u} ,\qquad M\mathbf {v} =b\mathbf {v} }](//wikimedia.org/api/rest_v1/media/math/render/svg/69b4b8c4bccd42a878771a6582e348aa82ec1ded)
所以,a 和 b 是分別是對應於 u 和 v 的特徵值。
根據矩陣乘法的線性,我們有
![{\displaystyle M^{n}\mathbf {u} =a^{n}\,\mathbf {u} ,\qquad M^{n}\mathbf {v} =b^{n}\,\mathbf {v} }](//wikimedia.org/api/rest_v1/media/math/render/svg/7d1ab502ea413f724393d30cc5de8dd6b5ccf6af)
切換回標準基,我們有
![{\displaystyle M^{n}\mathbf {e} _{1}=M^{n}\mathbf {u} =a^{n}\mathbf {e} _{1}}](//wikimedia.org/api/rest_v1/media/math/render/svg/64f45d046b7858ff996b8a23d4ef599f8ce5bc89)
![{\displaystyle M^{n}\mathbf {e} _{2}=M^{n}(\mathbf {v} -\mathbf {u} )=b^{n}\mathbf {v} -a^{n}\mathbf {u} =(b^{n}-a^{n})\mathbf {e} _{1}+b^{n}\mathbf {e} _{2}}](//wikimedia.org/api/rest_v1/media/math/render/svg/8da096925a15bdcc73eaf694baa8a412f4deff53)
前面的關係用矩陣形式表達為
![{\displaystyle M^{n}={\begin{bmatrix}a^{n}&b^{n}-a^{n}\\0&b^{n}\end{bmatrix}}}](//wikimedia.org/api/rest_v1/media/math/render/svg/7dedf9dafd0e5a077a77a99609af20d82795b229)
因此解釋了上述現象。
參見
外部連結
引用