导读:寒武纪工作人员表示,公司产品本身可以覆盖到人工智能领域内较多的应用。云端产品主要客户覆盖到互联网厂商以及金融领域的头部公司,边缘端主要为智能物联网厂商。ChatGPT涉及到的具体业务主要落到客户的终端应用上。
在AIGC领域,具有超大规模、超多参数量的多模态大型神经网络将引领人工智能的深度发展,对于芯片的算力需求大幅度提升。以ChatGPT为例,其通过连接大量真实语料库来训练模型,需要大算力进行支持。
寒武纪工作人员表示,公司产品本身可以覆盖到人工智能领域内较多的应用。云端产品主要客户覆盖到互联网厂商以及金融领域的头部公司,边缘端主要为智能物联网厂商。ChatGPT涉及到的具体业务主要落到客户的终端应用上。
2023年开年,在科技圈、资本圈,ChatGPT热度飙升,这款聊天机器人程序上线仅2个月,就获得了上亿活跃用户。
智能芯片是针对人工智能领域设计的芯片,为人工智能应用提供所需的基础算力,是支撑智能产业发展的核心物质载体。1月30日~2月7日,AI芯片提供商寒武纪股价累计涨幅超20%。2月7日,寒武纪股价一度冲高涨近10%。
自2020年上市以来,寒武纪一直奔袭在烧钱研发的路上。AIGC(AIGeneratedContent,人工智能生产内容)赛道的爆发无疑是AI芯片企业的机会,但也可能带来挑战。
寒武纪此前披露的2022年业绩预告显示,公司2022年营业收入略有增长,但归属净利润预计持续亏损,预亏10.35亿~12.65亿元,与2021年同期相比,亏损扩大25.46%~53.34%。
深度学习对算力需求空前提高
寒武纪主营业务是各类云服务器、边缘计算设备、终端设备中人工智能芯片的研发、设计和销售,主要产品为云端智能芯片及加速卡、训练整机、边缘智能芯片及加速卡、处理器IP以及上述产品的配套基础系统软件,产品覆盖无人机、语音识别、智能驾驶、图像识别等多个领域。
在AIGC领域,具有超大规模、超多参数量的多模态大型神经网络将引领人工智能的深度发展,对于芯片的算力需求大幅度提升。以ChatGPT为例,其通过连接大量真实语料库来训练模型,需要大算力进行支持。
华泰证券研报显示,根据OpenAI测算,自2012年以来,全球头部AI模型训练算力需求3~4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍。摩尔定律中,物理算力每18~24个月翻一倍。可见,AI深度学习正在逼近现有芯片的算力极限,也对芯片设计厂商提出了更高要求。
去年6月30日,寒武纪披露定增计划,拟定增募资26.5亿元加码AI芯片等领域。据寒武纪今日(2月7日)最新披露的《2022年向特定对象发行A股股票募集说明书(申报稿)》,募资金额有所缩水,降为16.7亿元,但募投项目投资总额不变。
根据寒武纪的安排,先进工艺平台用于突破研发具有更高能效、更高集成度等特性的高端智能芯片,缩短与国外顶尖企业之间的差距;稳定工艺平台用于为公司边缘智能芯片产品提供更为可控的开发周期、更为可靠的性能支撑、更为可控的制造成本。未来,公司将面向边缘端智能应用场景差异化的算力需求,提供不同算力档位的边缘芯片产品,以覆盖更多场景的边缘市场。
人工智能新兴场景依赖于下一代通用型智能处理器的强有力算力支持,在SoC架构、软硬件(算法-处理器)协同设计、处理器性能与功能验证等技术上根据人工智能新兴场景特点进行针对性开发与优化。
今日(2月7日),《每日经济新闻》记者也以投资者身份致电寒武纪董秘办。工作人员表示,公司产品本身可以覆盖到人工智能领域内较多的应用。云端产品主要客户覆盖到互联网厂商以及金融领域的头部公司,边缘端主要为智能物联网厂商。ChatGPT涉及到的具体业务主要落到客户的终端应用上。
芯片产品尚存差距
作为有着大量复杂计算需求的AI模型,这些产品最终离不开AI芯片强大的计算能力。
此前,人工智能龙头云从科技(SH688327,股价32.50元,市值240.72亿元)也表示,国内(AIGC)整个技术领域里,算力与数据量方面与美国相比尚不存在差异,芯片方面的差距还是存在的,公司也希望与国外头部企业进行交流与合作。
寒武纪董秘办工作人员也表示:“目前公司新推出的产品与国外厂商如AMD、英伟达等旗舰产品相比,仍有一定差距,不仅仅是算力这单一维度上的比较,在某些应用场景下或者某些测算模型下,结果也会有差异。”
可以预见,随着ChatGPT等AIGC产品不断升级,AI芯片销售额将水涨船高。而英伟达、AMD、英特尔等凭借高端芯片的市场占有率有望获得更高的增量份额。花旗集团分析师AtifMalik预估,ChatGPT可能会在未来12个月内为英伟达带来30亿美元至110亿美元的销售额。
当然,AI芯片设计商也有机会分一杯羹。但单打独斗的国产AI芯片厂商,当面对高端芯片的市场需求持续高涨时,拼命追赶却多少显得势单力薄。从2017年到2022年前三季度,寒武纪始终未能实现盈利,同时不断投入大量研发资金。
训练的过程需要消耗大量资金。以2020年推出的GPT-3模型为例,AlchemyAPI创始人ElliotTurner推测训练GPT-3的成本可能“接近1200万美元”。LambdaLabs使用价格最低的GPU云估算GPT-3的训练成本至少为460万美元。并且以上估算为训练最终模型的成本,未计入前期调整参数配置时的训练成本。
2月7日,腾讯科技撰文《OpenAI给科技行业敲响警钟,中国必须要有自主“大模型”》中的内容或许能向以寒武纪为代表的AI芯片设计商们提供一些启示:
“系统芯片异构计算时代,能够号召拥有数据的机构参与预训练,然后与拥有芯片计算架构的公司深度合作,这样芯片的制造水平未必是最好,但芯片训练的模型是最好的,最后整体SOC芯片的系统输出能力是最强的,依然有机会胜出。”