Master X 前沿文章分享

  • Home
  • About me
Master X Blog
ECNU & HUST Student | Detective | Amateur Author
  1. 首页
  2. 论文
  3. NIPS整理
  4. 正文

NIPS2018论文及代码集锦(17)(亮点:记忆重现GAN;图GAN;箱卷积)

2019年7月8日 1051点热度 1人点赞 0条评论

 

[1] Memory Replay GANs: learning to generate images from new categories without forgetting

Chenshen Wu, Luis Herranz, Xialei Liu, Yaxing Wang, Joost van de Weijer, Bogdan Raducanu

Universitat Autònoma de Barcelona

立即下载

 

之前,有学者利用序贯学习来解决判别式模型中的遗忘问题。这篇文章主要考虑生成式模型中如何解决遗忘问题。

作者们研究了如何利用生成式对抗网络 GANs在序列中学习新的类别。他们发现序列式的微调使得网络不能根据先前的类别生成合适的图像,这种现象就是遗忘现象。

为了解决上述问题,作者们提出记忆重现GANs (MeRGANs),这是一种条件GAN框架,该框架融入了一种记忆重现的生成器。该文作者利用两种方法来防止遗忘,即基于重现的联合训练和重现对齐。

这种方法在MNIST,SVHN,LSUN等数据集上取得了很好的效果。

联合训练、序贯微调及弹性权重固定的GAN等图示如下

其中EWC为elastic weight consolidation。

 

基于重现的重新练以及重现的对齐图示如下

几种方法的准确率对比如下

其中EWC对应的论文为

Continual learning in generative adversarial nets. arXiv prepprint arXiv:1705.08395v1, 2017.

DGR对应的论文为

Continual learning with deep generative replay. NIPS, 2017.

代码地址

https://github.com/kuc2477/pytorch-deep-generative-replay

JT为joint training,SFT为sequential fine tuning,JTR为joint training with replay,RA为replay alignment

几种方法在数据集LSUN上的效果对比如下

其中FID为Frechet Inception Distance,该标准广泛用于衡量GAN生成的图像。Rev acc.为reverse accuracy,该准确率是在生成数据上训练真实数据上测试得到的准确率。

代码地址

https://github.com/WuChenshen/MeRGAN

 

 

 

[2] Graphical Generative Adversarial Networks

Chongxuan Li, Max Welling, Jun Zhu, Bo Zhang

立即下载

 

这篇文章提出图生成式对抗网络(Graphical-GAN),该网络能够对结构化数据进行建模。贝叶斯网络能够对随机变量之间的依赖结构进行比较好的压缩表示,生成式对抗网络能够很好地学习表达依赖函数,Graphical-GAN结合了上面两种优势。

作者们给出了结构化识别模型,它可以在给定样本之后推理隐含变量的后验分布。他们对期望传播算法进行了泛化,使其能够联合学习生成式模型和识别模型。Graphical-GAN有两种重要的特例,高斯混合GAN (GMGAN),状态空间GAN(SSGAN),前者能够学到数据集中的离散结构,后者能够学到数据集中的时序结构。

GMGAN和SSGAN两种结构对比如下

 

Graphical-GAN的局部算法伪代码如下

几种算法的效果对比如下

其中GMVAE对应的论文为

Unsupervised learning of video representations using LSTMs. ICML 2015.

代码地址

https://github.com/mansimov/unsupervised-videos

 

CatGAN对应的论文为

Unsupervised and semi-supervised learning with categorical generative adversarial networks

代码地址

https://github.com/xinario/catgan_pytorch

 

GAN-G对应的论文为

Improving generative adversarial networks with denoising feature matching. 2016.

代码地址

https://github.com/zhenxuan00/graphical-gan

 

 

 

[3] Deep Neural Networks with Box Convolutions

Egor Burkov, Victor Lempitsky

Samsung AI Center, Skolkovo Institute of Science and Technology

立即下载

 

在计算机视觉工具箱中,有一种常用的方法,即利用积分图像计算箱滤波。以划窗的方式计算箱滤波所得到的卷积层可以用于深层结构,其中的维度和偏置可以通过端到端的损失函数最小化来学习得到。

在训练过程中,箱的大小可以任意大,并且无需额外的计算量,也无需增加需要学习的参数。如果箱比较大,新的层也可以集成其中的信息,这样就有利于长范围的信息传播,进而可以使得网络单元中的接受域快速变大。

将这种新的层融入到现有结构中用于语义分割时,分割准确率能够得以提升,而且可以降低计算量,减少需要学习的参数。

网络结构图示如下

不同网络在验证集和测试集上的效果对比如下

在数据集SUN RGB-D上几种网络的效果对比如下

几种网络的资源耗费对比如下

代码地址

https://github.com/shrubb/box-convolutions

本作品采用 知识共享署名 4.0 国际许可协议 进行许可
标签: DL NIPS 会议 论文
最后更新:2019年7月8日

Master X

越是强大越是脆弱,这就是万物的道理。

点赞
< 上一篇
下一篇 >

文章评论

razz evil exclaim smile redface biggrin eek confused idea lol mad twisted rolleyes wink cool arrow neutral cry mrgreen drooling persevering
取消回复

归档
  • 2022年4月
  • 2022年2月
  • 2021年9月
  • 2021年8月
  • 2020年5月
  • 2020年4月
  • 2019年9月
  • 2019年8月
  • 2019年7月
  • 2019年4月
  • 2019年2月
分类目录
  • NIPS整理
  • 一周一篇好论文
  • 会议信息
  • 基础类
  • 学习记录
  • 小麦的黑科技教室
  • 我的十二个小故事
  • 故事
  • 整活运动
  • 论文

COPYRIGHT © 2022 My Blog. ALL RIGHTS RESERVED.

Theme Kratos Made By Seaton Jiang

赣ICP备19008404号-1

赣公网安备 36011102000289号