原文:
综述 | 基于 Transformer 网络的多模态学习
复旦大学邱锡鹏教授等「Transformers全面综述」论文
黄爸爸好 阅165 转2
网上收集的一些有关如何阅读文献的心得
paulinexu 阅4832 转574
NeurIPS 2019中的Transformers
西北望msm66g9f 阅76
如何让机器人更好读懂情感?这篇入选ICASSP的论文有新解法
timtxu 阅22
一定要「分词」吗?Andrej Karpathy:是时候抛弃这个历史包袱了
天承办公室 阅2
一年六篇顶会的清华大神提出Fastformer:史上最快、效果最好的Transformer
bawuping 阅99
为什么使用自注意力机制?
匿名黑客k 阅4901
Performer: 基于正交随机特征的快速注意力计算
michael1314520 阅326
2022人工智能顶会时间序列论文汇总。
mynotebook 阅112
学术写作大讲堂|如何正确做文献综述?|会员资讯
当以读书通世事 阅218 转6
很多博士生写的文献综述,充其量就是个“文献综抄”!
土豆土匪 阅174 转3
自动驾驶感知/定位/部署全栈算法综述汇总
InfoRich 阅44
张安琪
jdycs1234 阅429
预训练模型最新综述:过去、现在和未来
新用户17183QDW 阅439 转5
中文预训练模型研究进展
银月子爵 阅14
2020年深度学习技术发展综述
GTF_001 阅590 转10
深度学习架构的对比分析
DuerOS布道师 阅67 转2
Brief Bioinform | CoaDTI:预测药物-靶点相互作用的多模态协同注意力框架
智药邦 阅76
如何借助注意力机制改进VQA模型的性能
轻语者 阅7
BERT新转变:面向视觉基础进行预训练| NeurIPS 2019论文解读
学术头条 阅79
首页
留言交流
联系我们
回顶部