打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
凯明大神新作MAE,又一次刷新我的认知了

论文名称:Masked Autoencoders Are Scalable Vision Learners

论文地址:https://arxiv.org/pdf/2111.06377.pdf

每一次读kaiming大神的文章,都会发现文章算法很简单,但是效果很好。经常会有一种感觉 “这竟然也行”,这次也不例外。

kaiming 的流量太大了,论文挂在Arxiv上没几天就登上知乎热搜,大家可以去知乎这个问题下看看,有一群人觉得很厉害,有一部分同学也觉得一般。我等菜鸡不敢评论,可以自行去看看。

一、 主要思想

本文提出一种Masked Autoencoders算法:mask输入图像的随机patch,并重建移除的像素

两个核心的设计思路是:

  1. 提出了一种非对称的编码器-解码器结构,编码器只对可见的patch子集(没有mask的token)进行操作,解码器是一个轻量级的小网络,该解码器从编码器的特征向量和mask token中重建原始图像。
  2. mask高比例的输入图像patch(例如75%)会变成一个不错且有意义的自监督任务

MAE能够加快模型的训练速度(3倍或更多)并提高精度。本文的方法可以学习泛化性良好的高容量模型:例如,在仅使用ImageNet-1K数据时,ViT-Huge模型的Top-1精确度为87.8%。 此外,在检测、分割等计算机视觉下游任务中的迁移性能优于有监督的预训练。

二、 方法详解

深度学习需要大量的标注数据来完成模型的训练,但是NLP可以通过自监督预训练来避免大量标注数据的依赖。例如GPT的自回归语言建模和BERT中的masked autoencoding的解决方案。这两种方案通过删除一部分数据并且学习预测删除的内容

masked autoencoder是一种更为通用的去噪自动编码器(denoising autoencoders),可以在视觉任务中使用。但是在视觉中autoencoder方法的研究进展相比NLP较少。那么**到底是什么让masked autoencoder在视觉任务和语言任务之间有所不同呢?**作者提出了几点看法:

  1. **网路架构不同。**视觉任务中常用卷积网络,将常用的mask token与positional embeddings集成到卷积网路中很难实现。随着ViT的引入,这种情况得到改善。
  2. 语言和视觉任务的信息密度不同,语言具有高度的语义信息特征,而视觉图像具有高度冗余的特点,例如,缺失的patch可以从相邻的patch中恢复。为解决这种情况,提出直接  mask大部分随机patch来降低冗余信息。
  3. 自编码器的解码器将潜在表示映射回输入,在重建文本和图像之间起着不同的作用。 在语言任务中,解码器的输出预测包含缺失词语的大量语义信息。而视觉中,解码器为了重构像素,因此包含的多是low-level的信息。因此,解码器的设计在决定所学习到的隐式特征表示方面所包含的语义信息水平方面起着关键作用。

此图为MAE的模型架构:

MAE是一个非对称的编码器-解码器结构,从输入图像中随机mask部分patch,利用解码器在像素空间中重构丢失的patch。编码器仅仅对可见的patch进行计算,解码器是一个轻量化的网络,在解码器中才会使用mask token与编码器的输出一同重构像素,这样计算量大大减小。此时非常高的mask率(例如75%)可以在优化精度的同时,使得总体的预训练时间减少3倍或者更多,同时较少显存消耗,使得MAE可以轻松扩展到大模型。

2.1 MAE 编码器

编码器采用ViT,仅仅用于可见的patch来进行计算。与标准ViT不同的是本文的编码器只需要在整个集合的一小部分(可见的patch,例如25%)上运行 。因此能够训练非常大的编码器。

2.2 MAE 解码器

解码器的输入信息由编码器输出的编码向量和mask token组成。每个mask token都是一个共享的、可学习的向量,表示要预测的缺失patch。作者给所有token添加positional embedding;如果不加入这一点,mask token将没有相应patch的位置信息。

MAE解码器在预训练期间用于执行图像重建任务(只有编码器生成用于识别的图像表示)。因此,解码器架构可以以独立于编码器设计。作者用轻量化的解码器进行实验。例如,解码器处理每个token的计算量不到编码器的10%。通过这种非对称设计,所有token仅由轻量级解码器处理,这大大减少了预训练时间。

2.3 重构目标

MAE通过预测每个mask patch的像素值来重建输入。解码器输出中的每个元素都是代表一个patch的像素值向量。解码器的最后一层是一个线性投影,其输出的通道数等于一个patch中像素值的数量。解码器的输出reshape以后形成重构图像。计算重建图像和原始图像之间的均方差损失(MSE) 。其中仅仅计算masked patch上的损失,类似于BERT。

三、算法结果

  • 可视化效果如下图所示,mask掉大量的图像区域以后,重构出来的图像与ground truth依旧很相像。
  • 在分类、检测以及分割任务上的实验效果如下图所示:

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
社会隐藏的30条规则你一定要懂,否则你就会吃亏,别不服气
二战电影译制片《歼灭任务》
这个潜规则,真的是给我狠狠的上了一课,太明白了
秋日月季花
门禁卡可以复制到手机里,10秒钟就可以搞定,出门是真方便
江苏94岁老人无人赡养,死后捐赠天价遗产,儿女却回来争相抢夺
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服