2024年已经逐渐步入尾声,但国产大模型的内卷之战却还在继续。最近,腾讯终于有了新动作,在开源模型上卯足了劲。11月5日,腾讯宣布开源MoE(Mixture of Experts)大语言模型混元Large。腾讯表示,混元Large是业界参数规模最大、效果最好的开源MoE大语言模型,采用7T训练tokens,总参数量达到389B,激活参数量为52B,上下文长度高达256K。这一消息无疑为国产大模型的竞争注入了一剂强心针。

混元Large:腾讯的重磅出击
混元Large的开源标志着腾讯在大语言模型领域的重大突破。这款模型不仅在参数规模上领先,其效果也得到了腾讯的高度认可。7T的训练tokens和389B的总参数量,使得混元Large具备了处理复杂任务的能力,尤其是在长上下文理解和生成方面。这对于需要大量背景信息和上下文支持的应用场景来说,无疑是一大优势。此外,52B的激活参数量也保证了模型在实际应用中的高效性和响应速度。

腾讯的被动局面
尽管混元Large的开源令人振奋,但在过去的一年里,腾讯在文本大模型的战场上却长时间处于被动状态。这一点从10月国内Web端AI助手的排行榜上可见一斑。腾讯的AI产品“元宝”仅排在第11位,月访问量不到200万,远远落后于百度的“文心一言”和阿里的“通义千问”。在国产AI应用的知名度方面,腾讯的“元宝”几乎难以跻身前三。

平庸的元宝:缺乏特色是硬伤
为什么同样身为BAT三巨头之一,且拥有微信这样超级入口的腾讯,会在C端市场上表现如此不堪?一个重要的原因恐怕不是“元宝”有多差,而是它过于平庸,缺乏特色。在众多国产大模型的AI产品中,“元宝”显得四平八稳,没有明显的亮点或创新点。这使得用户在选择AI助手时,更倾向于那些功能丰富、体验良好的产品。

对腾讯的启示
对于腾讯这样的巨头来说,平庸并不是一个及格的答卷。在竞争激烈的AI市场中,只有不断创新和提供独特价值,才能赢得用户的青睐。腾讯需要在以下几个方面做出努力:
强化技术创新:继续加大在AI技术研发上的投入,尤其是在自然语言处理和机器学习等领域,保持技术领先。
提升用户体验:优化产品的交互设计和用户体验,使其更加简洁易用,符合用户习惯。
打造品牌特色:在产品功能和服务上突出差异化,形成独特的品牌特色,吸引更多的用户关注和使用。
利用超级入口优势:充分发挥微信等超级入口的优势,将AI产品与社交、支付等场景深度融合,提升用户黏性。

总的来说,混元Large的开源展示了腾讯在大语言模型领域的实力和技术积累,但要在C端市场上取得突破,腾讯还需要在产品创新和用户体验上下更多功夫。随着国产大模型竞争的加剧,腾讯能否在未来的市场中占据一席之地,值得我们拭目以待。