原文:
一定要「分词」吗?Andrej Karpathy:是时候抛弃这个历史包袱了
Self-Attention真的是必要的吗?微软&中科大提出Sparse MLP,降低计算量的同时提升性能!
我爱计算机视觉 阅59
【深度学习】Transformer长大了,它的兄弟姐妹们呢?(含Transformers超细节知识点...
michael1314520 阅1303
放弃tokens!解决大语言模型的长输入限制:MetaAI发布MegaByte最高支持几百万上下文输入!
黄爸爸好 阅85
Vision Transformer 必读系列之图像分类综述(一): 概述
新用户0118F7lQ 阅1153 转4
完全图解GPT-2:看完这篇就够了(二)
印度阿三17 阅349 转4
搞懂 Vision Transformer 原理和代码,看这篇技术综述就够了(六)
极市平台 阅1620 转6
谷歌魔改Transformer!一层8个token比1024个还好用!NeurIPS 2021
x_box361 阅99
ChatGPT的前世今生——原理解析和拓展思考
mynotebook 阅629 转3
谷歌更强NLP模型XLNet开源:20项任务全面碾压BERT!
taotao_2016 阅121 转2
程序员再也不怕需求改来改去!
BBSBIAN 阅97
概率图模型学习笔记:HMM、MEMM、CRF
wangprince2017 阅273
首页
留言交流
联系我们
回顶部