打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
53分钟,英伟达打破BERT训练时长纪录!更好的对话式AI正在路上

在 33 亿文本的语料上训练,根据不同的任务进行微调,最终实现 11 项 NLP 任务的突破进展。这就是谷歌于 2018 年 8 月发布的 NLP 模型——BERT

因其强大的预训练效果,BERT 诞生之后便受到学术界、工业界热捧,甚至一度被称为是“地表最强 NLP 模型“。

但是,这个 NLP 模型的光环却笼罩在训练耗时的阴影之下:BERT 的预训练需要很长时间才能完成,在 16 个 TPUv3 芯片上大约需要三天,对应的计算资源消耗也会比较多。因此,BERT 被调侃为一项“大力出奇迹”的成果。

一直有不同的 AI 研究团队尝试缩短其训练时间,也都取得了相应的进展。例如,在今年年初,谷歌的研究团队就曾提出新的优化器——LAMB 优化器,将训练的 batch size 推到硬件的极限,使用 TPU Pod ( 1024 块 TPUv3 芯片),成功将BERT的训练时长从 3 天又缩短到了 76 分钟

现在,这个数字又被打破。在一场面向媒体的会议上,英伟达宣布,使用 DGX SuperPOD 深度学习服务器加之 Tensor RT 5.0 的优化,BERT模型最快只需 53 分钟就能在GPU上完成训练。据悉,DGX SuperPOD 的运算能力能达到每秒进行 9.4 千万亿次浮点运算。

对于 NLP 领域来说,这意味着又一个新的开始,BERT 等突破性大型 NLP 模型的训练时长仍有压缩空间。尤其是在工业应用上,训练时长的缩短可以直接带来成本上的节约,BERT 等突破性模型在规模化应用上又减少了一大阻力。

(来源:英伟达)

英伟达深度学习应用研究副总裁 Bryan Catanzaro 对 DeepTech 介绍道,除了 53 分钟的训练时长突破以外,BERT 的推理时耗也缩短到了 2.2 毫秒(10 毫秒被认为是业内的高水位),完成 83 亿参数的最大模型训练。英伟达认为,以上三点突破,也将推动实时对话式 AI( Real-Time Conversational AI)的发展。

现在,英伟达将公开 BERT 训练代码和经过 TensorRT 优化的 BERT 样本,所有人都可以通过 GitHub 利用。



(来源:英伟达)

Bryan Catanzaro 称,与简单的交易场景下的 AI 不同,对话式 AI 更关注对话而非交易,为了保证用户体验需要提供即时的响应,因此对话式 AI 的模型会越来越大,且实时性更强。

目前,国外以 FaceBook、谷歌、微软为首,国内以百度、阿里巴巴为首,掌握全球互联网几大最主要流量入口的科技公司、都在对话式AI领域竞相追逐,以期能够在新一代的互联网交互式体验上独领风骚。

2017 年至今,这几家公司也引领了对话式 AI 研究的几个重要成果:2017 年年底,谷歌的 Tansfomer 问世,开启了新的范式,随后是 2018 年底的谷歌 BERT;2019 年的对话式 AI 的研究更是百花齐放,微软 Mt-dnn、阿里巴巴的E nriched BERT base,Uber 的 Plato,百度的 ERNIE,以及近期 Facebook 推出的 RoBERTa,都是值得关注的研究。

(来源:英伟达)

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
谷歌最强AI超算碾压英伟达A100!TPU v4性能提升10倍,细节首次公开
人工智能芯片上的NLP算法,是一把双刃剑?重点在人而非技术
NLP界“威震天”袭来!英伟达1小时成功训练BERT,83亿参数打造史上最大语言模型
2020上半年收集到的优质AI文章 – 自然语言处理
谷歌宣布开放Cloud TPU,每小时6.5美元,英伟达还坐得住吗?
为了ChatGPT,大厂老板们拼了!
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服