就在刚才,量位量子位得知大模型创业六强之一智谱已经完成了最新一轮30亿人民币融资!得知大模
包括多家战投和国有资产、型创君联资本在内的业强新投资者继续跟进投资。
这是量位近三个月来的智谱第二轮融资。
九月,得知大模中关村科学城公司宣布投资前200亿估值智谱也是型创国内估值超过200亿元的大型创业企业。
量子位不完全统计,业强智谱官方披露的量位融资情况如下:
2021年披露完成A轮融资1亿元以上,达晨财智、得知大模华控基金、型创将门风险投资等联合投资;2022年宣布获得数亿元B轮融资,业强君联资本与启明风险投资联合领导投资;2023年披露,量位君联资本、得知大模美团、型创蚂蚁、阿里、腾讯、小米、金山、顺为、Boss直聘、美好未来、红杉、高淳等。

与此同时,智谱很少披露商业化记录,这也是它的原因首次公开。
具体数据如下:
到目前为止,智谱今年的商业化收入增长了100%以上。
bigmodel智谱开放平台.cn,API年收入同比增长30倍以上。
Tokens平均日消耗量增长150倍,其中付费Tokens增长40倍以上。
MaaS平台拥有70万企业和开发者用户,付费客户数量增长了20多倍。
C端产品智谱清言拥有2500多万用户,第三季度清言开始在线支付功能,ARR(年常性收入)收入超过1000万。
所以问题来了——吸了这么多金子&商业化记录相当丰富的智谱,下一步该怎么办?
进一步研发智谱基座大模型模型
智谱透露,本轮融资将用于智谱基础大模型的进一步研发:
从回答问题到解决复杂的推理和多模态任务,更好地支持行业的生态发展。
由量子位主办的行业峰会刚刚结束——MEET 智谱COOO张帆刚刚在2025智能未来大会上透露了一些信息。
OpenAI发布了AGI目标能力的分类,智谱也有自己的理解。

智谱将AGI分为五个等级:
第一级是语言,智谱“做得很好”。
第二级这是对复杂问题的解决方案。我们可以看到o1的能力。模型的应用类似于从“大脑系统1”转变为“系统2”,从简单直观的答案转变为深度思考和拆卸。
第三级当你开始使用工具来回答复杂的问题时,你不仅可以直接深入思考,还可以继续与外部世界互动来获取信息。例如,独立的智能主体不仅可以通过API,还可以操作手机、个人电脑甚至汽车界面来获取信息。
第四级实现自学。
第五级没有明确的定义,但方向是超越人类,人工智能将有能力探索科学规律、世界起源等最终问题。
张帆说,智谱正在不断探索和丰富模型的能力,从最初的语言能力,到L2复杂问题的能力,到工具能力和GLM-zero的第四级试图解决GLM-能力,如操作系统。
下面就来系统盘点一下智谱的探索路线。
端到端多模态和Agent布局初见规模
Sora爆发后,多模态模型竞相出现,现在深度推理模型成为顶流,端侧大模型和Agent技术成为新的趋势。
梳理一下,智谱的每一步都没有落下。
首先,对标Sora的视频生成模型CogVideoX、GLM-4-Voice和标准GPT-4o的端到端语音模型GLM-4-VideoCall。
最近逐渐清晰的Agent和端边领域的布局——
AutoGLM/智能体产品GLM-PC、先后发布了适合高通骁龙旗舰芯片的端侧大模型。
其中,与OpenAI不同,智谱一贯的标准之一是持续开源。
通过查看智能光谱的早期GLM报告,我们会发现“我们邀请您加入其开放社区,促进大规模预培训模式的发展”一词。该公司一直延续着“以开源的方式与开发者和行业用户交朋友”的习惯。
根据目前的数据,ChatGLM等20多个模型已获得15万GitHub星标,开源模型全球下载量为3000万。

以下是今年智谱技术发布的时间轴:
11月,AutoGLM升级版发布,可独立执行50多步长步操作或跨app执行任务,开启“全自动”互联网新体验,支持基于浏览器的数十个网站的无人驾驶。
基于智谱多模型CogAgent,11月发布GLM-PC内测,探索“无人驾驶”PC。可以代替用户参加视频会议、处理文档、搜索网页、总结、远程定期操作。
11月,CogVideoX升级视频模型,支持10s时间和4k、60帧超高清图像质量,任何尺寸,更好的人体动作和物理世界模拟。CogVideoX v1.5-5B、CogVideoX v1.5-5B-I2V同期开源。
10月,GLM-4-Voice端到端情感语音模型发布,推出清言app,可以理解情感,有情感表达和情感共鸣,可以自助调节语速,支持多语言和方言,延迟较低,可以随时中断。
10月,AutoGLM内部测试版发布。您可以在不受API调用限制的情况下模拟人类操作手机,只需接收简单的文本/语音指令。
10月,与三星、高通宣布合作,共同打造AI产品和端侧多模态交互大模型。
8月,实时推理大模型GLM-4发布跨文本音频和视频模式-Videocall,实现人工智能和人的实时视频通话。各种带摄像头端侧设备,包括手机,可以通过API接口无缝部署。
8月,新一代基座大模型GLM-4-Plus发布,语言理解、指令遵循、长文本处理等性能全面提高。
7月,视频生成模型“清晰阴影”正式在清晰的电脑端、移动应用端和小程序端推出,提供文本生成视频和图像生成视频的服务。6秒的视频生成可以在30秒内完成,真正恢复物理世界中的运动过程。
6月,GLM-4-9B模型开源,支持100万Tokens长文本和26种语言,基于GLM的视觉模型GLM-4V-9B首次开源,多模态能力堪比GPT-4V。
1月,新一代基座大模型GLM-4发布,整体性能较上一代大幅提升,支持上下文较长,模态能力较强,推理速度较快,并发支持较高,大大降低了推理成本。
随着年底的临近,大模型创业新年的风暴即将出现。

来源:量子位

Copyright@2003-2019 168.com All rights reserved. 千峰万壑网 版权所有