矩阵变换和n个线性无关特征向量

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq_25847123/article/details/81706986

申明: 仅个人小记

看待矩阵有很多种不同的角度,当我们把矩阵看作是一种变换的时候,我认为矩阵对应的变换只有:拉伸旋转

A x = y
(可以用相关性来辅助我想表达的意思, 拉伸旋转是互相独立的,即 拉伸能做的 旋转不一定能做到,而 旋转能做的 拉伸不一定能做到。补充: 投影则只是当 拉伸比例为0时的一个特例。我的意思就是矩阵的所能产生的所有变换都是可以有 拉伸旋转混合而得到)。

注: 本文只探讨拉伸变换部分

Q: 为什么总是看到n个线性无关的特征向量这种字眼?
因为n个线性无关的特征向量可以完备的构建出n维空间。

一、矩阵得到特征向量进而分析矩阵的变换内容

注: 本段讨论都是基于n个线性无关的特征向量存在的情况。
矩阵A有n个线性无关的特征向量,记为

ξ 1 ξ 2 . . . ξ n
相应的特征值(可以有重根)为,
λ 1 , λ 2 , . . . , λ n
取任意一个n维向量 x ,因为 ξ 1 ξ 2 . . . ξ n 是n个线性无关的特征向量,所以必然可以撑起一个有n个n维向量构成的完备的n维空间。所以必然向量 x 可以由 ξ 1 ξ 2 . . . ξ n 这n个线性无关的特征向量进行线性表示,记为
x = k 1 ξ 1 + k 2 ξ 2 + . . . + k 3 ξ n
我们现在来看待
A x = y

即为,
A ( k 1 ξ 1 + k 2 ξ 2 + . . . + k 3 ξ n ) = λ 1 k 1 ξ 1 + λ 2 k 2 ξ 2 + . . . + λ n k n ξ n = y

这个式子非常清晰的告诉我们矩阵A对向量 x 到底做了什么进而变为向量 y ,就是在 x ξ 1 ξ 2 . . . ξ n 上的各个分量,分别做 λ 1 , λ 2 , . . . , λ n 这样程度的拉伸。

注意到, x 是任意取的一个向量,即任意一个向量都可以由 x ξ 1 ξ 2 . . . ξ n 线性组合而得到,矩阵A的变换统统都是在这组基上的拉伸动作而已。所以,可以说矩阵A是对原有空间,基于找出的特征向量,按相应的特征值对整个空间进行拉伸变换。

二、根据想要的拉伸变换写出相应的矩阵

显然,我们实际处理中,会常常遇到自己想要进行一种变换,如果是简单的还好,稍微复杂的就不太好搞定了。而这种问题实际上就是对上面讨论的一个逆向,并不难。
举例:我想对n维度空间进行一种拉伸变换,具体是想沿着α1α2...αn这n个线性无关的向量分别按p1,p2,...,pn比例进行拉伸。相应的变换矩阵是什么呢?Ax=y欲把向量x变为y,变换矩阵A具体为多少?
因为α1α2...αn是n个线性无关的向量,所以向量x必然可以表示为x=k1α1+k2α2+...+knαn写成矩阵形式为,\vec{x}=\begin {bmatrix} \vec{\alpha_1}&\vec{\alpha_2}&...&\vec{\alpha_n}\end {bmatrix}\begin {bmatrix}k_1\\k_2\\.\\.\\.\\k_n \end {bmatrix}\begin {bmatrix}k_1\\k_2\\.\\.\\.\\k_n \end {bmatrix}={\begin {bmatrix} \vec{\alpha_1}&\vec{\alpha_2}&...&\vec{\alpha_n}\end {bmatrix}}^{-1}\vec{x}依据想要的变换,变换结果向量\vec{y}必然如下,\vec{y}=p_1k_1\vec{\alpha_1}+p_2k_2\vec{\alpha_2}+...+p_nk_n\vec{\alpha_n}写成矩阵形式为,\vec{y}=\begin {bmatrix} \vec{\alpha_1}&\vec{\alpha_2}&...&\vec{\alpha_n}\end {bmatrix}\begin {bmatrix} p_1 & 0&...&0\\0&p_2&...&0\\0&0&...&p_n\end {bmatrix}\begin {bmatrix}k_1\\k_2\\.\\.\\.\\k_n \end {bmatrix}\\=\begin {bmatrix} \vec{\alpha_1}&\vec{\alpha_2}&...&\vec{\alpha_n}\end {bmatrix}\begin {bmatrix} p_1 & 0&...&0\\0&p_2&...&0\\0&0&...&p_n\end {bmatrix}{\begin {bmatrix} \vec{\alpha_1}&\vec{\alpha_2}&...&\vec{\alpha_n}\end {bmatrix}}^{-1}\vec{x}\\=A\vec{x}即变换对应的变换矩阵为,A=\begin {bmatrix} \vec{\alpha_1}&\vec{\alpha_2}&...&\vec{\alpha_n}\end {bmatrix}\begin {bmatrix} p_1 & 0&...&0\\0&p_2&...&0\\0&0&...&p_n\end {bmatrix}{\begin {bmatrix} \vec{\alpha_1}&\vec{\alpha_2}&...&\vec{\alpha_n}\end {bmatrix}}^{-1}

稍微注意一下,矩阵相似对角化是完全融入上述提到内容的,所以上述内容也顺道解释了矩阵相似对角化为什么要求存在n个线性无关的特征向量这个充分必要条件。

补充:(涉及到旋转,此处不深究)
情况:二重特征根只有1个线性无关的特征向量
这时,这个矩阵必然引入了非拉伸动作,本文认为是旋转动作,而特征向量、特征值只是用于表现拉伸动作的,不能对旋转动作进行表示,所以,导致找不到剩余的特征向量。举例:A=\begin {bmatrix}-1&1&0\\-4&3&0\\1&0&2 \end {bmatrix} \lambda_1=\lambda_2=1相应特征向量只有一个为\vec{p_1}=\begin {pmatrix} -1\\-2\\1\end {pmatrix}\lambda_3=2相应特征向量为\vec{p_2}=\begin {pmatrix} 0\\0\\1\end {pmatrix}
引入一个垂直于这两个特征向量的一个向量\vec{v}=\begin {pmatrix} 2\\-1\\0\end {pmatrix}(这个向量在\vec{p_1}\vec{p_2}上的分量为零,即\vec{v}\vec{p_1}\vec{p_2}之间是干干净净的关系)
则向量组\vec{p_1},\vec{p_2},\vec{v}可以将任意一个向量\vec{x}进行线性表示,即\vec{x}=k_1\vec{p_1}+k_2\vec{p_2}+k_2\vec{v}进而有,A\vec{x}=A(k_1\vec{p_1}+k_2\vec{p_2}+k_2\vec{v})=\lambda_1k_1\vec{p_1}+\lambda_2k_2\vec{p_2}+Ak_2\vec{v}\\=k1\begin {pmatrix} -1\\-2\\1\end {pmatrix}+2k_2\begin {pmatrix} 0\\0\\1\end {pmatrix}+k_3A\vec{v}

首先A\vec{v}绝对不可能是纯粹的拉伸,因为如果是纯粹的拉伸,那么一定可以写成A\vec{v}=\lambda\vec{v},显然,特征向量只能求出两个,\vec{v}不可能充当第3个特征向量。我个人观察,发现A\vec{v}的呈现的效果是旋转+拉伸,涉及到旋转,本人能力有限,暂且不讨论。

猜你喜欢

转载自blog.csdn.net/qq_25847123/article/details/81706986