AI芯片厂商Cerebras CEO:DeepSeek引发企业客户对其AI芯片需求暴增

   2025-02-04 19

据《财富》杂志官网近日报道称,主要面向人工智能(AI)推理任务应用的晶圆级AI芯片厂商Cerebras Systems宣布,其旗下晶圆级AI芯片(应该是指WSE-3)执行700亿个参数的DeepSeek-R1中型模型的速度,要比当前最快的GPU还要快57倍。

AI芯片厂商Cerebras CEO:DeepSeek引发企业客户对其AI芯片需求暴增

Cerebras Systems CEO Andrew Feldman受访时表示,企业客户对中国AI大模型厂商DeepSeek最新推出的R1推理模型极为热情。他说DeepSeek-R1发布十天后, 我们迎接了暴增的需求。

根据官方资料显示,WSE-3依然是采用了一整张12英寸晶圆来制作,基于台积电5nm制程,芯片面积为46225平方毫米,拥有的晶体管数量达到了4万亿个,拥有90万个AI核心,44GB片上SRAM,整体的内存带宽为21PB/s,结构带宽高达214PB/s。使得WSE-3具有125 FP16 PetaFLOPS的峰值性能,相比上一代的WSE-2提升了1倍。

AI芯片厂商Cerebras CEO:DeepSeek引发企业客户对其AI芯片需求暴增

DeepSeek-R1推理模型以极低训练成本,就获得了性能媲美OpenAI 等竞争对手的最先进的推理模型的性能,对现有技术路线具有颠覆性,并且DeepSeek还将该模型进行了开源,这也使得全球的科技厂商都能够快速利用该模型来构建自己的AI应用,相关AI芯片厂商也能够快速的针对该模型进行适配和优化,以充分利用AI芯片的性能,即便是英伟达AI GPU以外的AI芯片也能从中获益。

为示范Cerebras的AI服务器执行DeepSeek-R1速度,Andrew Feldman现场指示模型以Python语言撰写国际象棋游戏,只花1.5秒便可完成,相比之下OpenAI最新发布的 o1-mini 推理模型却要花22秒才能用传统GPU完成相同任务。但因OpenAI模型属封闭系统,无法直接在Cerebras硬件测试,故难完全对等的进行比较。

AI芯片厂商Cerebras CEO:DeepSeek引发企业客户对其AI芯片需求暴增

不过,Andrew Feldman仍强调,数学与程序任务,DeepSeek-R1表现较OpenAI-o1优异。对些类型任务, 你能更快获得精确答案。

但由于R1是中国的大模型技术厂商DeepSeek所开发,因此也引发了欧美各国基于政治因素而以隐私安全等问题为由进行发难。美国国会已着手立法,拟全面禁止来自中国的先进AI模型。美国国防部、国会、海军、NASA以及德克萨斯州已相继禁止在政府官方设备上使用DeepSeek模型。

Andrew Feldman也表示,DeepSeek推出的基于其AI大模型的AI聊天应用是全世界最受欢迎的APP,若直接使用,数据势必会被传回中国。因此,他要大家 别这么做 ,建议选择美国企业托管的大型语言模型(LLM),例如Cerebras、Perplexity等业者。

虽然Feldman坦言DeepSeek确实有些潜在风险,但使用者只需保持基本判断力即可。他比喻 当你用电锯时,应穿戴钢头靴和护目镜。但不代表不应用电锯,而是要谨慎使用。


特别提示:本信息由相关企业自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。
举报 收藏 评论 0
相关行情
推荐行情
点击排行
浙ICP备2021030705号-9