Master X 前沿文章分享

  • Home
  • About me
Master X Blog
ECNU & HUST Student | Detective | Amateur Author
  1. 首页
  2. 论文
  3. NIPS整理
  4. 正文

NIPS2018论文及代码集锦(16)(亮点:深度强化学习;正交投影胶囊子空间)

2019年7月7日 689点热度 1人点赞 0条评论

[1] Unsupervised Video Object Segmentation for Deep Reinforcement Learning

Vik Goel, Jameson Weng, Pascal Poupart

University of Waterloo

立即下载

 

这篇文章给出一种新的技术,该方法可以使得深度强化学习自动监测移动的物体,还可以利用相关信息来选择动作。对运动物体的监测是通过无监督方式实现了,其中利用了运动的结构信息。

该方法并不是直接从原始图像中学习策略,智能体首先利用视频序列中的流信息来学习如何检测和分割移动的物体。所学到的表示可以使得智能体的策略集中在移动的物体上。随着时间的推移,智能体能够识别出对于决策起关键作用的物体,然后给予相关移动物体来逐渐构建策略。

作者们将这种方法称作面向运动的强化学习(MOREL),它可以监测运动的物体,进而降低了与环境交互的次数,而且可以得到好的策略。该方法相对另一种方法得到的策略解释性更强,另一种方法即利用黑箱神经网络直接就爱你个图像映射到行动或者映射到价值。

无监督物体分割模型的结构示例如下

 

本文所提出的模型结构示意图如下

代码地址

https://github.com/vik-goel/MOREL

 

 

[2] Critical initialisation for deep signal propagation in noisy rectifier neural networks

Arnu Pretorius, Elan Van Biljon, Steve Kroon, Herman Kamper

Stellenbosch University

立即下载

 

随机正则在深度学习中非常重要,但是,噪声如何影响深度学习中的信号传播仍然有待探索。

这篇文章基于平均场理论,提出了一种新的框架,用于研究随机正则神经网络的信号传播。作者们提出的噪声信号传播理论可以融合多种常见的噪声分布,比如加乘高斯噪声,dropout等。利用该框架可以探索含噪声ReLU网络的初始化策略。

利用加性噪声时,并没有严格的初始策略,尽管事先选定了噪声分布,信息传播时依然会暴增。对于乘性噪声,比如dropout,作者们发现一种关键的初始化策略,该策略依赖于噪声分布的二次矩。

实验表明,作者们提出的初始化策略可以使得深度学习中的信号传播比较稳定,而不考虑噪声的初始化方法就做不到这点。强噪声正则可以降低含噪声ReLU网络输入的判别性信息传播的深度,即使初始化时比较严格。

误差层递推示例如下

不同噪声情况下初始化方法对比如下

代码地址

https://github.com/ElanVB/noisy_signal_prop

 

 

 

[3] CapProNet: Deep Feature Learning via Orthogonal Projections onto Capsule Subspaces

Liheng Zhang† , Marzieh Edraki† , and Guo-Jun Qi

University of Central Florida, Huawei Cloud

立即下载

 

这篇文章提出一种关于胶囊网络的新思想,即利用胶囊向量而不是神经元的激活来预测样本的标签。首先将输入特征向量投影到一组胶囊子空间上,然后利用所得胶囊网络的长度得到样本属于各个类别的概率。这种网络称为胶囊投影网络(CapProNet),在每个胶囊子空间中,都可以学习一个正交的投影矩阵,每个胶囊子空间不断更新,直至该子空间包含了相应类别的输入样本对应的特征向量。

胶囊投影可以看做对权重矩阵的多个列进行归一化,同时得到正交基,这就可以将输入特征的新成分融合起来,进而更新胶囊表示。胶囊投影可以看做胶囊子空间的多维权重归一化,传统的权重归一化是胶囊投影在一维上的特例。在低维胶囊子空间中训练或者利用另外一种比较强大的迭代来估计归一化矩阵,会带来一些额外的计算量,但是这些计算量可以忽略。

这种方法可以使得ResNet效果提升10-20%,能够使得Densenet效果提升5-7%,同时保证了计算复杂度和存储需求的量级不变。在一些基准数据集上,CapProNet可以使得胶囊网络的测试误差显著下降。

2维的胶囊投影示例如下

多种方法在CIFAR10, CIFAR100, SVHN这三个数据集上的效果对比如下

其中ResNet对应的论文为

Deep residual learning for image recognition, CVPR 2016

代码地址

https://github.com/KaimingHe/deep-residual-networks

Deep networks with stochastic depth, ECCV 2016

代码地址

https://github.com/yueatsprograms/Stochastic_Depth

Identity mappings in deep residual networks, ECCV 2016

代码地址

https://github.com/tornadomeet/ResNet

WideResNet对应的论文为

Wide residual networks

代码地址

https://github.com/szagoruyko/wide-residual-networks

Densenet-BC对应的论文为

Densely connected convolutional networks, CVPR 2017

代码地址

https://github.com/liuzhuang13/DenseNet

与GroupNeuron对比如下

代码地址

https://github.com/maple-research-lab

 

本作品采用 知识共享署名 4.0 国际许可协议 进行许可
标签: DL NIPS 会议 论文
最后更新:2022年3月11日

Master X

越是强大越是脆弱,这就是万物的道理。

点赞
< 上一篇
下一篇 >

文章评论

razz evil exclaim smile redface biggrin eek confused idea lol mad twisted rolleyes wink cool arrow neutral cry mrgreen drooling persevering
取消回复

归档
  • 2022年4月
  • 2022年2月
  • 2021年9月
  • 2021年8月
  • 2020年5月
  • 2020年4月
  • 2019年9月
  • 2019年8月
  • 2019年7月
  • 2019年4月
  • 2019年2月
分类目录
  • NIPS整理
  • 一周一篇好论文
  • 会议信息
  • 基础类
  • 学习记录
  • 小麦的黑科技教室
  • 我的十二个小故事
  • 故事
  • 整活运动
  • 论文

COPYRIGHT © 2022 My Blog. ALL RIGHTS RESERVED.

Theme Kratos Made By Seaton Jiang

赣ICP备19008404号-1

赣公网安备 36011102000289号