打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
人工智能[1517]仅成立3年的国产GPU科技龙头,新品吊打英伟达,如何做到的?

全球高性能 AI 服务器市场规模预计达 300 亿美元, 这仅仅是上半年预测的数据,事实上需求远远大于实际需求。人工智能很大,它真的很大,只是没有投资者想象的那么大。”他指出,尽管AI芯片市场的总收入有望在2027年达到1250亿美元,但预期的范围非常广泛,一些分析师的估计甚至高达4000亿美元。需求不断超预期的爆发。

在智能化过程中,模型和算力展现了双螺旋协同和促进关系,大模型依赖海量的GPU算力进行迭代,另一方面GPU算力架构本身也需要随着模型而更新。

曦思N100和曦云C500都是沐曦科技推出的高性能GPU产品,它们各自的特点和应用场景如下:

曦思N100是一款针对人工智能推理场景的高效能GPU产品。它内置了MXN100异构GPGPU处理器和HBM2E显存,能够提供高达160TOPS(INT8)和80TFLOPS(FP16)的算力。同时,曦思N100还具备强大的视频处理能力,最高支持128路编码和96路解码,兼容多种视频格式,包括HEVC、H.264、AV1、AVS2等,并支持最高8K分辨率的视频处理。

曦思N100配备了沐曦自主研发的MXMACA软件栈,支持多种主流框架的网络模型,包括MacaRT推理引擎、开箱即用的Model Zoo和应用实例。此外,它还对主流软件生态如FFMPEG、OpenCV等进行了兼容支持,实现了各类应用场景和业务模型的快速迁移。曦思N100主要应用于智慧城市、智慧安防、智慧交通、云计算、智能视频处理等场景。

图:曦思N100 来自沐熙官方微信

沐曦千亿参数AI大模型训练及通用计算GPU曦云®C500一方面包含了很强的计算性能和存储带宽,另一方面基于MetaXLink 2.0有很强的卡间通信能力。在芯片基础上,沐曦构建了强大的MXMACA®软件栈,依托通用计算架构、先进的算子库和编译器能力,能够原生支持PyTorch、TensorFlow以及国内的飞桨、MindSpore等框架。已能流畅地运行Stable Diffusion,LLaMA 65B,LLaMA2 70B以及国内ChatGLM等模型。C500单卡算力高达30TFlops FP32,单卡64GB HBM2E高带宽显存,带宽1.8TB/s,这张卡还配备自研MetaXlink高速接口,适合于大模型训练。4卡既可以支持65B大模型推理,8卡可以支持130B模型推理兼容 CUDA。

图:曦云C500 来自沐曦官方微信c

随着人工智能(AI)的迅猛发展,(GPU)作为为ChatGPT等AI程序提供动力的关键芯片,其需求不断飙升。也给国产提供了巨大的机会,我相信我们国产一定会迅速崛起,完成复兴的使命!

我是一位75岁以上的老人!本站主要是些学习体验与分享(其中会引用一些作品的原话并结合我的一生体会与经验加工整理而成!在此一并感谢!如有不妥之处敬请与我联系,我会妥善处理,谢谢!)我写的主要是中老年人各方面应注意的事儿!退休后我希望通过这个平台广交朋友,互助交流,共筑美好生活!!!!!! 更多文章请参看http://www.zzz818.com赵站长的博客。期待大家的光临与指教哦^0^!欢迎大家转发! 

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
发展国产大模型,不能只堆算力
补涨空间巨大的人工智能股:优刻得
国产芯真要开挂了?从世界人工智能大会中嗅到风向,最想感谢的不是欧美巨头……
人工智能ETF(159819)逆势飘红,国产大模型迭代升级,模型能力已可对标ChatGPT
国产AI力作!手把手教你部署清华大模型ChatGLM2
“AI算力荒”解困的短、中、长策
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服