Master X 前沿文章分享

  • Home
  • About me
Master X Blog
ECNU & HUST Student | Detective | Amateur Author
  1. 首页
  2. 论文
  3. NIPS整理
  4. 正文

NIPS2018论文及代码集锦(10)(亮点:训练技巧;强化学习;GAN)

2019年7月5日 844点热度 1人点赞 2条评论

[1] Step Size Matters in Deep Learning

Kamil Nar, S. Shankar Sastry

University of California, Berkeley

立即下载

 

利用梯度下降算法训练神经网络时,能够得到离散的非线性的动态系统。此时,在训练过程中网络会收敛到不定的点,而不是固定的点,而且还依赖于初始状态。

在这些现象中,步长起到非常重要的作用。步长决定了局部最优解的子集,如果算法收敛到一个轨道上,步幅决定了在该轨道震动的幅度。为解释步长对神经网络的影响,作者们将梯度下降算法当做离散的动态系统来研究,通过分析不同解的李雅普诺夫稳定性,给出了步长和相应的解之间的关系。

作者们发现,随深度的增加训练误差会恶化,对具有较大奇异值的线性映射进行估计比较困难,该文作者还发现深度残差网络具有显著不同的性能。

具有多个局部最优解的函数示例如下

这篇文章的主要贡献如下

该文章跟先前工作的主要不同在于

 

不同步幅的影响如下

 

代码地址

https://github.com/nar-k/NeurIPS-2018

 

 

[2] Learn What Not to Learn: Action Elimination with Deep Reinforcement Learning

Tom Zahavy, Matan Haroush, Nadav Merlis, Daniel J. Mankowitz, Shie Mannor

The Technion - Israel Institute of Technology, Google research,  Deepmind

立即下载

在强化学习中,如果在每个状态有多个可行的行动方案,学习怎么行动就会具有一定的挑战性,尤其是多个行动相互冗余或者不相关时更加具有挑战性。在这种情形下,有时候学习不执行哪些行动会更容易一些。

这篇文章提出了行动消除深层Q网络(AE-DQN),该网络结合了深层强化学习算法和行动消除网络(AEN),这里的行动消除网络能够消除掉次优的行动。AEN能够预测无效的行动,该预测中的监督信息是由环境提供的外部消除信号。该方法不仅可以加快训练速度,而且具有一定的鲁棒性。

网络结构示例如下

算法伪代码如下

几种方法的效果对比如下

相关论文

Text-based adventures of the golovin ai agent. CIG 2017

What can you do with a rock? affordance extraction via word embeddings,IJCAI 2017

代码地址

https://github.com/TomZahavy/CB_AE_DQN

 

 

[3] BinGAN: Learning Compact Binary Descriptors with a Regularized GAN

Maciej Zieba, Piotr Semberecki, Tarek El-Gaaly, Tomasz Trzcinski Warsaw University of Technology, Voyage

立即下载

 

这篇文章针对GAN提出了一种新的正则化方法,这种方法能够使得模型在图像块中学到具有判别性而且紧致的二值表示。该方法在判别性网络的中间层中进行降维,并且在倒数第二层训练二值低维表示,进而用来模拟前面层的高维分布。

作者们提出了两个损失项旨在:

降低在倒数第二层二值低维表示的维度之间的关联性,意即最大化联合熵;

将高维空间中各维度之间的关系传播到低维空间。

本文所提方法在图像匹配和图像检索任务中都取得了很好的效果。

在图像检索任务中,几种方法的效果对比如下

其中KMH对应的论文为

K-means hashing: An affinity-preserving quantization method for learning binary compact codes. CVPR 2013

SphH对应的论文为

Spherical hashing.  CVPR 2012

代码地址

https://github.com/jp-sglab/Spherical_Hashing

 

SpeH对应的论文为

Spectral hashing. NIPS 2009

SH对应的论文为

Semantic hashing. IJAR 2009

PCAH对应的论文为

Semi-supervised hashing for scalable image retrieval. CVPR 2010

LSH对应的论文为

Near-optimal hashing algorithms for approximate nearest neighbor in high dimensions. FOCS 2006

PCA-ITQ对应的论文为

Iterative quantization: A procrustean approach to learning binary codes for large-scale image retrieval. TPAMI 2013

DH对应的论文为

Deep hashing for compact binary codes learning. CVPR 2015

DeepBit对应的论文为

Learning compact binary descriptors with unsupervised deep neural networks.CVPR 2016

DBD-MQ对应的论文为

Learning deep binary descriptor with multiquantization. CVPR 2017

在图像匹配任务中,几种方法的效果对比如下

其中LDAHash对应的论文为

LDAHash: Improved matching with smaller descriptors. TPAMI 2012

D-BRIEF对应的论文为

Efficient discriminative projections for compact binary descriptors. ECCV 2012

BinBoost对应的论文为

Boosting binary keypoint descriptors. CVPR 2013

RFD对应的论文为

Receptive fields selection for binary feature description. TIP 2014

Binary L2-Net对应的论文为

L2-net: Deep learning of discriminative patch descriptor in euclidean space.CVPR 2017

SIFT对应的论文为

Distinctive image features from scale-invariant keypoints. IJCV 2004

BRISK对应的论文为

BRISK: Binary robust invariant scalable keypoints.  ICCV 2011

BRIEF对应的论文为

BRIEF: Binary robust independent elementary features. ECCV 2010

不同的参数设置对模型的影响如下

代码地址

https://github.com/maciejzieba/binGAN

本作品采用 知识共享署名 4.0 国际许可协议 进行许可
标签: DL NIPS 会议 论文
最后更新:2022年3月11日

Master X

越是强大越是脆弱,这就是万物的道理。

点赞
< 上一篇
下一篇 >

文章评论

razz evil exclaim smile redface biggrin eek confused idea lol mad twisted rolleyes wink cool arrow neutral cry mrgreen drooling persevering
取消回复

归档
  • 2022年4月
  • 2022年2月
  • 2021年9月
  • 2021年8月
  • 2020年5月
  • 2020年4月
  • 2019年9月
  • 2019年8月
  • 2019年7月
  • 2019年4月
  • 2019年2月
分类目录
  • NIPS整理
  • 一周一篇好论文
  • 会议信息
  • 基础类
  • 学习记录
  • 小麦的黑科技教室
  • 我的十二个小故事
  • 故事
  • 整活运动
  • 论文

COPYRIGHT © 2022 My Blog. ALL RIGHTS RESERVED.

Theme Kratos Made By Seaton Jiang

赣ICP备19008404号-1

赣公网安备 36011102000289号