原文:
高效神经网络架构正确打开方式! EMO:结合 CNN 和 Transformer 的现代倒残差移动模...
IncepFormer:用于语义分割的高效inception transformer
LibraryPKU 阅29
McGill&微软将卷积操作加入到ViT中,捕获更详细的局部信息!准确率达87.7%!代码已开源!
我爱计算机视觉 阅39 转2
马毅教授新作:白盒ViT成功实现「分割涌现」,经验深度学习时代即将结束?
天承办公室 阅1
迈向更高效通用的加速之路:谷歌提出视觉和多任务MoE方法
江海博览 阅162
Transformer崛起| TopFormer打造Arm端实时分割与检测模型,完美超越Mobile...
InfoRich 阅359
Visformer:视觉友好型变压器
小白学视觉 阅29
清醒从懂人性开始,停止emo建立自我价值系统的模型,值得我们学习
百花A彩虹 阅9 转3
ChatGPT火了,来聊聊大语言模型
闲野之家 阅2092 转19
EMO
无敌老太ivls90 阅23
智源发布全球最大预训练模型“悟道2.0” ,智谱AI等多家机构联合研发
大傻子的文渊阁 阅712
刘知远老师高铁上回应:大模型LLM领域,有哪些可以作为学术研究方向?
黄爸爸好 阅42
10个2019年的机器学习和NLP的研究亮点
hyxz_ljf 阅34
从此告别繁琐的模型微调,LLM-Adapters助力NLP任务快速高效微调!
520jefferson 阅177
ICLR 2022 | 无需训练!As-ViT:自动扩展视觉Transformer
新用户0118F7lQ 阅13
MiniViT的核心思想是什么呢
昵称26407850 阅1
搞懂 Vision Transformer 原理和代码,看这篇技术综述就够了(六)
极市平台 阅1615 转6
完全图解GPT-2:看完这篇就够了(二)
印度阿三17 阅347 转4
CVPR 2020丨图像超清化 老照片修复技术,拯救你所有的模糊、破损照片
taotao_2016 阅716 转3
计算机视觉中的注意力机制
Rainbow_Heaven 阅523 转3
首页
留言交流
联系我们
回顶部