[关闭]
@BruceWang 2018-01-04T20:20:22.000000Z 字数 3881 阅读 1451

cs231n 神经网络介绍

神经网络


本课程首先介绍了关于计算机视觉的相关知识和背景

介绍图像分类

动机: 图像分类是计算机视觉的核心问题之一。

例子: 图像分类模型是获取单个图像并分配给自己定好的标签,像素值jpg格式的是0-255,如下图。

一眼就看出他是猫,现在计算机的作用就是看了这么像素,然后返回一个标签:‘猫’!

难点: 视角、大小、形变、部分、模糊、背景干扰、类别数量大

那么好的模型必须:做到很好的泛化能力。
2

数据驱动方法: 我们如何做到分类呢?那么就需要有先验知识,就是自己做的标签,先告诉计算机说这是猫,然后它见了其他的,就会以一定比例告诉你这是猫。

3

那么我们做一个四分类分类器,可能为每一个类别提供数十万的图像数据。

1

图像分类管道: 那么分类线就是

最近邻分类器

第一个方法用到的是:KNN,和你所听说的CNN没有关系,虽然很少用到,我还是写一下吧,毕竟ZB可以用啊。

示例图像数据集:就是标签啦,一个就是CIFAR-10
dataset,包含60000个32x32的图像十个类别图像库,看下面啊。
其中有50000训练数据,10000测试数据(就是先测试一下分类器厉害不)
4

怎么确认是不是一类呢?看俩图像相似度
一般用 距离来衡量,比如 图像 和 图像 距离就是:

看看可视化过程,如果d很小,那就是图像很像,如果d很大,你懂的
5

看看如何代码实现?首先把CIFAR-10存成数组,然后都把图像拉成行

  1. Xtr, Ytr, Xte, Yte = load_CIFAR10('data/cifar10/') # a magic function we provide
  2. # flatten out all images to be one-dimensional
  3. Xtr_rows = Xtr.reshape(Xtr.shape[0], 32 * 32 * 3) # Xtr_rows becomes 50000 x 3072
  4. Xte_rows = Xte.reshape(Xte.shape[0], 32 * 32 * 3) # Xte_rows becomes 10000 x 3072

现在把数据拉成行,然后接下来评估

  1. nn = NearestNeighbor() # create a Nearest Neighbor classifier class
  2. nn.train(Xtr_rows, Ytr) # train the classifier on the training images and labels
  3. Yte_predict = nn.predict(Xte_rows) # predict labels on the test images
  4. # and now print the classification accuracy, which is the average number
  5. # of examples that are correctly predicted (i.e. label matches)
  6. print('accuracy: %f' % ( np.mean(Yte_predict == Yte) ))

评估标准,通常使用精确度来度量预测的正确部分,构建的所有分类器都满足以下一个通用API:
它们具有:

train(X,y)将数据和标签从中学习的功能。

在内部,应该建立某种模式的标签,以及如何从数据中预测标签。然后是一个

predict(X)函数,它接收新的数据并预测标签。

下面是一个简单的最近邻分类器的实现,L1距离满足这个模板

  1. import numpy as np
  2. class NearestNeighbor(object):
  3. def __init__(self):
  4. pass
  5. def train(self, X, y):
  6. """ X is N x D where each row is an example. Y is 1-dimension of size N """
  7. # the nearest neighbor classifier simply remembers all the training data
  8. self.Xtr = X
  9. self.ytr = y
  10. def predict(self, X):
  11. """ X is N x D where each row is an example we wish to predict label for """
  12. num_test = X.shape[0]
  13. # lets make sure that the output type matches the input type
  14. Ypred = np.zeros(num_test, dtype = self.ytr.dtype)
  15. # loop over all test rows
  16. for i in xrange(num_test):
  17. # find the nearest training image to the i'th test image
  18. # using the L1 distance (sum of absolute value differences)
  19. distances = np.sum(np.abs(self.Xtr - X[i,:]), axis = 1)
  20. min_index = np.argmin(distances) # get the index with smallest distance
  21. Ypred[i] = self.ytr[min_index] # predict the label of the nearest example
  22. return Ypred

这个代码可以实现38.6%,或接近最先进的卷积神经网络, 95%,符合人类的准确性(94%)(参见CIFAR-10最近的Kaggle比赛的排行榜)。

我们还可以选择距离

关于这两个距离的解释可以看我之前的博客
那么可以用python这么实现:

distances = np.sqrt(np.sum(np.square(self.Xtr - X[i,:]), axis = 1))

距离 等价于一对图像之间差异的 L1/L2范数,是p范数常见的特例。

K-近邻分类器(其他分类器

思路就是——对于待判断的点,找到离它最近的几个数据点,根据它们的类型决定待判断点的类型,它的特点是完全跟着数据走,没有数学模型可言

想用k-Nearest Neighbor,K应该等于多少呢?接下来我们转向这个问题。

超参数调整的验证集

KNN 需要对K进行设置,还有距离的选择有L1,L2范数,还有其他的选择,这些就是超参数,这会出现在机器学习算法设计中出现。

我们不能使用测试集来调整超参数。无论何时设计机器学习算法,您都应该将测试集作为一个非常宝贵的资源,只有模型设置好之后再用它,他是验证你模型的标准。

以CIFAR-10为例,我们可以使用49,000个训练图像进行训练,并留出1,000个用于验证。该验证集本质上用作假测试集来调整超参数。

以下是CIFAR-10的情况:

  1. # assume we have Xtr_rows, Ytr, Xte_rows, Yte as before
  2. # recall Xtr_rows is 50,000 x 3072 matrix
  3. Xval_rows = Xtr_rows[:1000, :] # take first 1000 for validation
  4. Yval = Ytr[:1000]
  5. Xtr_rows = Xtr_rows[1000:, :] # keep last 49,000 for train
  6. Ytr = Ytr[1000:]
  7. # find hyperparameters that work best on the validation set
  8. validation_accuracies = []
  9. for k in [1, 3, 5, 10, 20, 50, 100]:
  10. # use a particular value of k and evaluation on validation data
  11. nn = NearestNeighbor()
  12. nn.train(Xtr_rows, Ytr)
  13. # here we assume a modified NearestNeighbor class that can take a k as input
  14. Yval_predict = nn.predict(Xval_rows, k = k)
  15. acc = np.mean(Yval_predict == Yval)
  16. print 'accuracy: %f' % (acc,)
  17. # keep track of what works on the validation set
  18. validation_accuracies.append((k, acc))

我们可以绘制一个图表,显示哪个k值最好。然后,我们将坚持这个值,并在实际测试集上评估一次。

一般有三种验证方式:

  1. 简单交叉验证 : 随机分开数据成两部分
  2. S折交叉验证 : 随机分成S等分,然后用S-1份训练,1 测试
  3. 留一交叉验证 : 就是2中 S=N 的时候。

7

实际中,我们交叉验证应该避免,因为代价昂贵,一般使用 50% - 90%。
8

最近邻分类器优缺点

优点:简单啊; 缺点:泛化能力弱。

高维度数据,距离和感官上是不同的,右边3张图片和左边第1张原始图片的L2距离是一样的,基于像素比较的相似和感官上以及语义上的相似是不同的。

9

有个视觉化证据,可以证明像素差异是不够的,将CIFAR-10中的图片按照二维方式排布,这样能很好展示图片之间的像素差异值。在这张图片中,排列相邻的图片L2距离就小。

总结

使用KNN分类
1. 预处理数据,比如特征归一,使得其有零均值和单位方差。
2. 高维数据,降维,可以试试PCA随机投影

10

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注