打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
零一万物发布全球第一开源模型,李开复阐述 AI 2.0 的商业思考
3 月,李开复提出 AI 2.0,认为大模型将会带来平台级创新机会,改写用户入口和界面,催生新一代 AI 2.0 应用。

7 月,筹办近三个月后,李开复组队,聚集数十位核心成员,创办零一万物,

11 月 6 日,零一万物正式发布首款开源可商用的基座大模型,Yi 系列,包括 Yi-34B 和 Yi-6B。

与此同时,据36氪消息,零一万物已完成新一轮融资,阿里云领投,估值超过 10 亿美元。

目标世界级

发布全球第一的开源模型

「创办零一万物的第一天,我的目标就是做一个世界级的公司,进入世界的第一梯队。」李开复说。

本次重点发布的 Yi-34B 模型,登上 HuggingFace 英文测试榜单第一,打败了 Llama-2 70B 和 Falcon-180B 等大尺寸模型。

Yi-34B Hugging Face 发布地址:https://huggingface.co/01-ai/Yi-34B

同时中文能力测试 C-Eval 位居排行榜第一,超越全球所有开源模型。小尺寸 Yi-6B 的测评结果同样不逊于同尺寸模型。

在关键指标之一,MMLU(大规模多任务语言理解)的评分上,Yi-34B 获得了远超其他开源模型的成绩。

李开复表示,优质的 34B 模型是「黄金尺寸」。一方面达到涌现门槛,非常适合行业垂直模型的 base model,进而商业应用。并且 34B 仅需消费级单卡就可以推理使用,使用门槛足够低。

在 34B 的基础上,未来几周零一万物会密集发布量化版本、对话模型、数学模型、代码模型和多模态模型等。

同时李开复也透露,零一万物已经启动了千亿模型的训练。零一万物技术副总裁、AI Infra 负责人戴宗宏提到,2000 亿级模型的所有前置实验已经完成,万亿模型的研究工作已经同步展开。

最长上下文+开源黄金尺寸

全球最长上下文窗口,能力领先其他开源大模型

本次发布的 Yi-34B 模型拥有 200k 上下文窗口,可处理约 40 万字数的文本,这不仅是开源模型中,而是目前全球已发布的大模型中最长的上下文窗口。GPT-4 可支持 32K、约 2.5 万汉字,Claude 2 可支持 100K、约 20 万字。

40 万字的长度,相当于两本《三体 1》的小说,大概是超过 1000 页的文本 pdf 文档,甚至能代替当下很多依赖于向量数据库来构建外部知识库的场景。

拥有更长的上下文窗口则能处理更丰富的知识库信息,生成更连贯、准确的文本,也能支持大模型更好处理文档摘要/问答等任务。目前大模型的诸多垂直行业应用中(如金融、法律、财务、传媒等),需要有大量的知识库场景,文档处理能力是刚需。

不管是 ChatGPT 还是 Claude,之前的长文本处理大都是以闭源为主,开发者很难在此基础上进行微调,很多支持长文本解析的工具都是使用其他方案来解决长文本的问题,比如 embedding 向量转换等。而这次 Yi-34B 开源模型的长文本支持,应该会为很多开发者的调试提供便利。

更长的上下文窗口带来的是计算复杂度的呈指数上升,计算、内存和通信都会面临非常大的技术挑战,这也是很多大模型限制文本 size 的原因,为了解决这些问题,零一万物的技术团队施了一系列优化,包括了计算通信重叠、序列并行、通信压缩等。通过这些能力增强,实现了在大规模模型训练中近 100 倍的能力提升。

「长文本的能力后续还有进一步的优化和拓宽余地,但是考虑到实用性和成本的均衡,目前就先开源了 200K 的长文本技术。」零一万物的技术副总裁&AI Infra 负责人戴宗宏对此解释道。

选择 34B 是因为这是开源大模型的「黄金尺寸」

此次零一万物发布的两个大模型分别为 6B 和 34B 参数的版本,官方宣称这是最适合开源社区使用的版本,不需要特别多的资源就可以训练,也可以让更多开发者使用。

相比较 6B 的大模型,34B 可以容纳更多的知识容量,具有多模态的能力。同时又不会因为参数太小,而无法实现涌现。

可以说,34B 参数在实现高效率的消费级显卡可以运转的情况下,达到了涌现的门槛。不需要 A100 或者 H100 的显卡,足够内存的 4090 显卡就可以使用。

满足精度要求、训练成本友好,同时又达到了涌现门槛。在开源大模型上,我们提供了一个 Llama 2 之外的选择,不管是对于国内还是国外开发者,不管是开发 app 还是训练自己的企业内部大模型,都可以将我们的 34B 大模型作为基础底座。」李开复说道。

与此同时,对于很多算力紧缺或者由于其他原因没法做底座大模型的公司来说,在 Yi-34B 大模型基础上开发行业大模型也是一个合适的选择。

坚定做消费者应用

李开复的 AI 2.0 商业思考

在 ChatGPT 席卷全球的近一年后,行业非常关注大模型落地以及未来的商业化方向。

李开复认为,开发「最好的大模型」只是第一步,「但最大的商机是创造超级应用 Super App」。

但在 Super App 之前,「大模型本身不能是一个 nice to have,一定是 must have」。纵观移动互联网十多年来成功的公司,微信、抖音、滴滴、美团,all-in 移动互联网(PC 的优先级不高)。

「所以可以简单地定义,我们所做的应用,如果把大模型拿掉,整个应用就不成立了。」李开复说,这就是 AI First/Native 的定义。「微软 Copilot 是很有价值的产品,如果我是微软我也会做,因为它已经有一棵大树可以开花结果,是短期赚钱最好的机会。但未来的『Office』一定不是今天的 Office 基础上堆积功能,而是一个从零做起的东西。

今天主流的 Copilot 模式,内容创造是人力为主 AI 为辅,但李开复认为,未来的内容应该是「AI 创造,人来帮忙」。

年初李开复就提出,大模型带来了 AI 2.0 的机会,在本次零一万物的发布中,他也进一步阐述了 AI 2.0 和 1.0 的不同。

「AI 1.0 的公司,有些面临的挑战就是收入没有做好。」论文发表、博士人才或者参加各种国际比赛夺得第一,1.0 时代的公司在技术能力和人才密度上做到很好,但「最终资本市场还是要看你能不能挣钱」。

AI 1.0 的第一个教训就是「做出收入」,第二个考验,是收入是否高质量、高毛利(margin)、可持续(recurrent)。「按月付费、按使用付费,持续付费,而不是说 project base(项目制)」。

「做一个项目拿一笔钱,第二年有巨大的压力,要拿两倍、三倍的 project,最终这样的业务,它是 scale with people。」李开复说,「这样的 business 是人力的 business,不是真正的技术 business。」

字节、阿里、Google、Facebook,这些企业都做到了「高质量的收入」,成就了伟大的技术公司。AI 2.0 同样带来了做高质量、高利润、可持续收入的机会。

因此,零一万物认定 toC 消费者领域的 Super App 路径。李开复认为,中国公司做 toC App 的能力远超美国。微信 vs WhatsApp,TikTok vs Instagram,美团甚至没有能够完全对标的美国公司。

「我们希望这些消费者应用,不但在国内能够成功推出,在国外也可以(推出),」李开复说,「国内竞争很强,国外相对较弱,国内收费有难度,国外收费相对容易,所以我们的消费级应用,会面对中国,也会面对中国之外的市场。」


本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
李开复大模型公司正式亮相 百度原副总裁马杰加入 百亿参数模型已内测
李开复筹办的AI大模型公司“零一万物”上线,百亿级模型已内测|钛媒体焦点
AI大模型领域的热门技术——Embedding入门介绍以及为什么Embedding在大语言模型中很重要
科普神文,一次性讲透AI大模型的核心概念
国内大模型遍地开花,都说自研自创,但他们背后都是这同一个基础模型
王小川公布最新大模型,号称全球最长上下文,是GPT-4的14倍|钛媒体焦点
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服