因为线性代数并没有讲过约当标准型,所以导致我们在学习现代控制理论的时候一脸懵,今天来对自己理解的一些东西做一个非常浅显的总结,并且对很久之前学过的线性代数一些内容做复习
设 A 为 n 阶方阵,如果存在
λ
\lambda
λ 和
n 维非零向量
α
\alpha
α 使得
A
α
=
λ
α
A\alpha=\lambda\alpha
A α = λ α
则我们把
λ
\lambda
λ 称为方阵的一个特征值 ,
α
\alpha
α 称为方阵 A
对应于特征值
λ
\lambda
λ 的一个特征向量
首先求特征值用到的公式是
det
(
λ
∗
I
−
A
)
=
0
\det(\lambda*I-A)=0
det ( λ ∗ I − A ) = 0
这里有两个性质比较有意思
λ
1
+
λ
2
+
.
.
.
+
λ
n
=
t
r
(
A
)
\lambda1+\lambda2+...+\lambda_n=tr(A)
λ 1 + λ 2 + ... + λ n = t r ( A )
λ
1
λ
2
⋅
⋅
⋅
λ
n
=
det
A
\lambda1\lambda2···\lambda_n=\det A
λ 1 λ 2 ⋅⋅⋅ λ n = det A
即所有特征值之和等于矩阵 A
的对角线上的元的和
所有特征值之积等于 A
的行列式的值
我们知道特征方程最后解出来是特征值,所以我们可以把方程的形式表示为一个根次方乘积的形式,即:
∣
λ
I
−
A
∣
=
(
λ
−
λ
1
)
k
1
(
λ
−
λ
2
)
k
2
⋅
⋅
⋅
(
λ
−
λ
n
)
k
n
|\lambda
I-A|=(\lambda-\lambda_1)^{k1}(\lambda-\lambda_2)^{k2}···(\lambda-\lambda_n)^{kn}
∣ λ I − A ∣ = ( λ − λ 1 ) k 1 ( λ − λ 2 ) k 2 ⋅⋅⋅ ( λ − λ n ) kn
那么这里的
λ
1
到
λ
n
\lambda_1到\lambda_n
λ 1 到 λ n 就是解出来的特征值
k
1
到
k
n
k_1到k_n
k 1 到 k n 代表对应特征值的重根数
例如:
∣
λ
I
−
A
∣
=
(
λ
−
2
)
2
(
λ
+
7
)
1
|\lambda I-A|=(\lambda-2)^{2}(\lambda+7)^{1}
∣ λ I − A ∣ = ( λ − 2 ) 2 ( λ + 7 ) 1
其中:
λ
1
\lambda_1
λ 1 的解为
2,重根数 2
个,代数重数等于重根数,等于 2
个
λ
2
\lambda_2
λ 2 的解为-7,重根数
1 个,代数重数等于重根数,等于
1 个
请注意,这里描述的代数重数都是指
λ
\lambda
λ 的代数重数
那么在说到几何重数之前就必须讲讲特征子空间 了
定义:
V
λ
V_\lambda
V λ 即特征子空间指的是对方阵
A
来说,对应的特征值的所有的特征向量和零向量所组成的空间集合
大白话就是分别代入所有的特征值进去解
x,也就是特征向量:
(
λ
1...
n
I
−
A
)
x
=
0
(\lambda_{1...n} I-A)x=0
( λ 1... n I − A ) x = 0
请还是注意,这里的特征子空间还是对于特定的特征值来说的
为什么要强调这个,因为和几何重数的定义息息相关
几何重数就定义成:
λ
i
\lambda_i
λ i 的特征子空间
V
λ
i
V_{\lambda i}
V λi 的维数
其中可以证明:特征值的几何重数不大于它的代数重数
关于几何重数有公式可以表达
几何重数
=
d
i
m
(
V
λ
)
=
n
−
R
(
λ
I
−
A
)
几何重数=dim(V_\lambda)=n-R(\lambda
I-A)
几何重数 = d im ( V λ ) = n − R ( λ I − A )
就是
λ
\lambda
λ 带入方程后所得到的方程缺少 的秩的数目
求解
A
=
(
1
−
2
2
−
2
−
2
4
2
4
−
2
)
的特征值与特征向量,特征子空间
A=\begin{pmatrix}
1 & -2 & 2
\\
-2 & -2 &4
\\
2 & 4 & -2
\end{pmatrix}的特征值与特征向量,特征子空间
A =
1 − 2 2 − 2 − 2 4 2 4 − 2
的特征值与特征向量,特征子空间
解:
∣
λ
I
−
A
∣
=
(
λ
−
2
)
2
(
λ
+
7
)
1
|\lambda I-A|=(\lambda-2)^{2}(\lambda+7)^{1}
∣ λ I − A ∣ = ( λ − 2 ) 2 ( λ + 7 ) 1
λ
1
\lambda_1
λ 1 的解为
2,重根数 2 个
λ
2
\lambda_2
λ 2 的解为-7,重根数
1 个
将
λ
1
\lambda_1
λ 1 带入后变成
(
2
I
−
A
)
x
=
0
(2I-A)x=0
( 2 I − A ) x = 0
化简得到
x
1
+
2
x
2
−
2
x
3
=
0
x_1+2x_2-2x_3=0
x 1 + 2 x 2 − 2 x 3 = 0
三个未知数一个方程
我们需要解出解系,我们令
x
1
=
−
2
k
1
,
x
2
=
k
1
x_1=-2k_1,x_2=k_1
x 1 = − 2 k 1 , x 2 = k 1 解得
x
3
=
0
x_3=0
x 3 = 0
解出第一个特征向量
α
1
\alpha_1
α 1 为
α
1
=
k
1
(
−
2
1
0
)
\alpha_1=k1\begin{pmatrix}
-2
\\
1
\\
0
\end{pmatrix}
α 1 = k 1
− 2 1 0
同理解出第二个特征向量
α
2
\alpha_2
α 2 为
α
2
=
k
2
(
2
0
1
)
\alpha_2=k2\begin{pmatrix}
2
\\
0
\\
1
\end{pmatrix}
α 2 = k 2
2 0 1
其中 k1,k2 不同时为 0
我们带入
λ
2
\lambda_2
λ 2 带入后解
(
−
7
I
−
A
)
x
=
0
(-7I-A)x=0
( − 7 I − A ) x = 0
{
2
x
1
+
x
3
=
0
x
2
+
x
3
=
0
\left\{
\begin{aligned}
2x_1+x_3= 0\\
x_2+x_3=0
\end{aligned}
\right.
{ 2 x 1 + x 3 = 0 x 2 + x 3 = 0
解出
α
3
=
k
3
(
1
2
−
2
)
\alpha_3=k3\begin{pmatrix}
1
\\
2
\\
-2
\end{pmatrix}
α 3 = k 3
1 2 − 2
那么根据定义,
V
λ
1
=
(
α
1
,
α
2
,
0
)
V_{\lambda_1}=\begin{pmatrix}
\alpha_1 , \alpha_2 ,0
\end{pmatrix}
V λ 1 = ( α 1 , α 2 , 0 )
就是
λ
1
\lambda_1
λ 1 和
λ
2
\lambda_2
λ 2 的特征子空间
V
λ
3
=
(
α
3
,
0
)
V_{\lambda_3}=\begin{pmatrix}
\alpha_3,0
\end{pmatrix}
V λ 3 = ( α 3 , 0 )
就是
λ
3
\lambda_3
λ 3 的特征子空间,那么对于
λ
1
,
λ
2
\lambda_1,\lambda_2
λ 1 , λ 2 来说,它们的几何重数为
dim
(
V
λ
1
)
\dim(V_{\lambda_1})
dim ( V λ 1 ) 或
dim
(
V
λ
2
)
\dim(V_{\lambda_2})
dim ( V λ 2 ) ,特征子空间的维度就等于基向量个数,这里有两个基向量
α
1
,
α
2
\alpha_1,\alpha_2
α 1 , α 2 所以几何重数就是
2
对于
λ
3
\lambda_3
λ 3 来说只有一个基向量,所以就是几何重数为
1
关于特征值的几何重数不大于它的代数重数 的证明,可以看这里的回答
https://www.zhihu.com/question/414388172
那么下一篇将会讲约当标准型、广义特征向量和几何重数代数重数之间的关系
(逃)
线性代数之几何重数&代数重数的理解(二)-矩阵指数的求解
2月14日 星期2 1时 11分 52秒
作者:Onion
邮箱:bigonion@bigonion.cn
声明:未经本人同意,禁止转载、搬运、抄袭!