第三周周记
- 3.5.2节BP算法的问题中提到:深度结构(涉及多个非线性处理单元层)非凸目标函数中普标存在的局部最小是训练困难的主要来源
- 关于BP算法,书中只是提到反向传播,修正权值,但是会不会考虑这么一个问题:在讨论BP算法问题时突然提到了非凸目标函数的局部最小值问题,那么BP算法中使用的到底是哪个函数?,推荐一个写的很不错的文章多层神经网络BP算法 原理及推导
- 关于BP算法存在的问题(3)中提到我们只能用有标签的数据来训练;大部分数据是没有标签的,那么这里所说的标签是怎样的标签?4.1.4节给出另一句话在有监督的学习方法里,我们给定了一组输入数据,给定了数据的答案,或者叫标签
- 书中提到了SVN支持向量机,自己稍微了解了一下,几乎看不懂,就弄明白了一个词--超平面(如果一个线性函数能够将样本分开,称这些数据样本是线性可分的。那么什么是线性函数呢?其实很简单,在二维空间中就是一条直线,在三维空间中就是一个平面,以此类推,如果不考虑空间维数,这样的线性函数统称为超平面)支持向量机(SVM)入门理解与推导
- 深度学习训练的具体过程(1)使用自下而上的非监督学习,但是可有标定数据,这里如果有了标定数据,那是否意味着就变成了监督学习?
- 课本88页图的描述自下而上不应该是正向吗,为什么是反向监督学习,自顶向下的微调才是反向吧?
- 课本91页提到:通常隐层中的神经元数目要比输入\输出层少,这是为了使神经网络只学习最重要的特征并实现特征的降维,关于降维书中接着讲了把4bit的信息用2bit表示,利用压缩方法使输入的数据降维,变成隐层的东西,这个我基本明白了,网上的降维方法很多,但是难度都比书上的难很多,另外关于这句话回想之前第二章的内容就会发现,关于神经元的数目问题,还有另外一句话(课本62页):多层感知机起码具备一个隐层,但隐层的神经元数量是多少呢?这里有个大致的推理公式:2n+1,n是输入单元的个数,两句话字面意思都很好理解,但是放到一起去看,又该怎么去理解,按字面意思来的话明显是冲突的啊?
- 4.1.1灰度图像中间有句话:每一个隐层就是特征的提取(反向提取特征),最上层,也就是输入层也是一种维度的特征,这不应该是正向吗?而且最上层不应该是输出层吗?
- 课外的文章:让Python代码运行更快的最佳方式,可以自己去读,也可以看一下几点总结
- PyPy是python的一种解释器,比标准的cPython快很多,不过并不支持所有cPython库
- PyPy比python快的原因是有JIT(实时编译),可以动态编译
- PyPy支持python2和python3,但是python2马上要被废弃,python3的话目前只支持3.5和3.6,目前最新是3.7,自己的也是3.7
- PyPy还可以与Python生态系统中的绝大多数工具配合使用,例如用于打包的pip或用于虚拟环境的virtualenv。大多数Python软件包,即使是那些带有C模块的软件包,都会按照原样运行
- 感觉后期会经常接触到Numpy,Numpy现在与PyPy兼容的非常好
- PyPy网址:http://pypy.org/
- 下载时注意要下载带JIT的版本

- 对机器学习中分类与聚类概念的理解机器学习中分类与聚类的本质区别
- 在python爬取相关信息,jieba进行分词以后,可以根据下面的链接教程简单的实现使用K-means算法对中文文本聚类并可视化使用K-means及TF-IDF算法对中文文本聚类并可视化
- 对于字典的三种遍历方式:
- 第一种-------------------------------------------------------------------------------------------------

- 第二种-------------------------------------------------------------------------------------------------

- 第三种--------------------------------------------------------------------------------------------------

- 第一种-------------------------------------------------------------------------------------------------

