- 采用线性核时,训练集的gram矩阵的意义???
- 以iris数据集为例,特征的shape是(150,4),标签的维度是(150,),且每类50个样本
- 计算数据集的gram矩阵并可视化为:
- 可以看出,并不是同一类的内积就一定小!
|
|
import numpy as np
import matplotlib.pyplot as plt
from sklearn import datasets
iris = datasets.load_iris()
X = iris.data
Y = iris.target
gram = np.dot(X, X.T)
plt.imshow(gram)
plt.colorbar()
plt.show()
|
1
2
3
4
5
6
7
8
9
10
11
12
13
|
In[67]: X.shape
Out[67]: (150, 4)
In[68]: Y.shape
Out[68]: (150,)
In[69]: Y
Out[69]:
array([0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2,
2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2,
2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2, 2])
|
一行22个数 |