如果弄过机器学习或者数据挖掘等,相信大家对l1,l2正则化一定不会陌生,l1正则的特点是可以在一定程度上使学习出来的参数趋向于0,l2正则在一定程度上可以防止过拟合。所以很多人使用l1正则使学习出来的模型尽量稀疏,但是学习出来的稀疏模型,并不能对模型进行很好的加速,因为为0的参数太过均匀,不能批量的规避掉运算,这篇论文就是解决这种为0参数分布不均的情况。