我们 线性 是把 神经网络 under net int ksh work
这一节课很零碎。
1. 神经网络到底在干嘛?
浅层的是具体的特征(比如边、角、色块等),高层的更抽象,最后的全连接层是把图片编码成一维向量然后和每一类标签作比较。如果直接把图片和标签做像素级的最近领域分类,误差很大,但是转成编码之后就准多了。
可以用PCA可视化最后一层的特征,深度学习领域更高阶的做法是用t-SNE(Van der Maaten and Hinton, "Visualizting Data using t-SNE", JMLR 2008)。
可视化非线性函数的激活值也可以帮助我们理解神经网络(Yosinski et al., "Understanding Neural Networks Through Deep Visualization", ICML DL Workshop 2014.)。
还有各种各样的把神经网络的中间层提取出来观察,试图分析黑箱的做法。
2. 风格迁移
利用神经网络提取出的抽象特征,可以做一些风格迁移的工作,生成新图片。
cs231n spring 2017 lecture12 听课笔记
我们 线性 是把 神经网络 under net int ksh work
原文:http://www.cnblogs.com/zonghaochen/p/8011111.html
来源: http://www.bubuko.com/infodetail-2422127.html