这篇文章是我们组的大神亲自安装caffe的笔记,如果有问题,可以联系Email:liuhuan@ict.ac.cn
这篇论文引入了一种对filter,feature map进行二值化的算法,从而避免了传统CNN中卷积操作的实数乘运算。论文提到,单纯对filter参数二值化,会有2X效率的提升,如果再对feature map的值进行二值化会有58X提升,并提升27X的内存利用率,但是会有一定的准确度损失,但是这篇论文仍然堪称解决CPU训练深度网络效率低的良药。
使用基于SIFT的局部特征以及基于CNN提取的全局特征对图片进行索引。文中提到SIFT局部特征在图片检索领域具有里程碑式的影响,但是受限于其局部而没考虑到全局的线索,由此带来了mAP的损失,虽然后面的研究工作也提出了基于color和boundary的特征,但这些都是启发式的,没有理论依据。因此作者提出了使用CNN的region以及global特征来弥补SIFT的不足,同时针对这3中特征建立索 ...
Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift. 使用BN正则化之后的网络可以拥有更高的learning rate, 可以减少drop out的限制,或者不使用drop out。而且由于正则化之后相应的lr的提高,可以极大的减少训练的时间。
modal加强版。本文给大家继续安利Function API,发现简直太强大了,推荐各位太君不要使用Sequential,直接上FAPI这完全可以搞定所有的网络结构,无论你是并行还是参数共享还是balabala...