• 发文
  • 评论
  • 微博
  • 空间
  • 微信

AI芯天下丨热点丨“网红”芯片Groq让英伟达蒸发5600亿

Ai芯天下 2024-02-27 10:29 发布于广东 发文

前言:

鉴于ChatGPT的广泛应用,引发了AI算力需求的迅猛增长,使得英伟达的AI芯片供不应求,出现大规模短缺。如今,英伟达似乎在面对更多挑战。

作者 | 方文三

图片来源 |  网 络 

比英伟达GPU快10倍的LPU

近两天,一家名为Groq的美国人工智能公司受到了广泛关注,其主要原因在于其自主研发的LPU芯片在人工智能推理技术上取得了突破。

通过优化架构和减少内存瓶颈,Groq的LPU芯片在大模型处理方面展现出高效率和低延迟的特点,速度远超英伟达GPU,每秒生成速度接近500 tokens,而GPT-4仅40 tokens。

因此,Groq LPU被誉为[史上最快的大模型技术]。

Groq LPU的工作原理与英伟达的GPU不同,它采用了名为时序指令集计算机(Temporal Instruction Set Computer)架构,使用存储器为静态随机存取存储器(SRAM),其速度比GPU所用的高带宽存储器(HBM)快约20倍。

据Groq在2024年1月的第一个公开基准测试,由Groq LPU驱动的Meta Llama 2-70B模型,推理性能比其他顶级云计算供应商快18倍。

artificialanalysis.ai给出的测评结果也显示,Groq的吞吐量速度称得上是[遥遥领先]。

总结起来,Groq的架构建立在小内存,大算力上,因此有限的被处理的内容对应着极高的算力,导致其速度非常快。

有分析人士称,在A100和H100相对紧缺的时代,LPU或许会成为大模型开发商的新选择。

Grop部署起来甚至比英伟达要贵

当初Groq以其闪电般的速度令AI行业为之震撼。

然而,在震撼之余,许多业界人士核算后发现,这种速度背后的代价可能过于高昂。

Groq的LPU芯片摒弃了HBM,仅依赖SRAM进行计算。

尽管这种方式确实带来了令人瞩目的计算速度,但其成本效益问题却备受质疑。

值得关注的是,尽管Groq在速度上表现出色,但其背后的成本却相当高昂。

若以未来三年运行成本计算,Groq的硬件采购成本高达1144万美元,而运营成本至少为76.2万美元。

据此估算,在同等吞吐量下,Groq的硬件成本约为H100的40倍,能耗成本则是10倍。

若考虑运营三年,Groq硬件的购买成本为114.4万美元,运营成本为76.2万。

另一方面,对于一个8卡的H100盒子,硬件购买成本为30万美元,运营成本约为7.2万或稍低。

由于Groq内存容量相对较小(230MB),在运行Llama-270b模型时,需配备305张Groq卡才能满足需求,而使用H100仅需8张卡。

因此,从当前价格来看,在同等吞吐量下,Groq的硬件成本是H100的40倍,能耗成本是10倍。

换言之,Groq的高速性能是建立在有限的单卡吞吐能力基础之上的。

为实现与H100相同的吞吐量,Groq需采用更多张显卡。

在此背景下,[速度]成为了Groq的一把双刃剑。

Groq喊话[三年内赶超英伟达]

近期,一位自称为Groq员工的用户在与网络用户互动时表示,Groq致力于成为最快速的大规模模型硬件,并誓言在三年内超越英伟达。

然而,截至2月20日美股收盘,英伟达股价单日跌幅达4.35%,创下去年10月以来最大单日跌幅,市值一夜之间缩水780亿美元(约合5600亿元人民币)。

尽管Groq速度迅猛,但价格较高,目前尚不能与英伟达抗衡。SRAM技术面积大、功耗高,早已以IP内核形式集成至系统级芯片(SoC),而非单独应用,其未来发展潜力远不及HBM(高带宽内存)。

在单位容量价格、性能及功耗方面,英伟达GPU所采用的HBM技术均优于SRAM。

从技术和性能角度看,Groq目前尚无法撼动英伟达的地位。

原因在于,英伟达GPU产品具有通用性,而Groq产品为ASIC(专用集成电路),并非通用产品,而是定制产品。

换言之,任何人工智能算法均可使用英伟达的H200,但仅Mixtral和Llama2能采用Groq的LPU。

欲使用Groq产品,大模型公司需先明确需求、指定规格,然后进行功能验证,最终生产出的产品方可投入使用。

英伟达财报再次印证了其在人工智能浪潮中成为最大赢家的地位。

英伟达于北京时间2月22日发布截至2024年1月28日的四季度业绩报告。

报告显示,公司季度营收创纪录达到221亿美元,远超英伟达自身及华尔街预期,同比增长265%。

全年营收同样创下新高,达到609亿美元,同比增长126%。

英伟达预计本季度营收将进一步攀升至240亿美元。财报发布后,其股价盘后一度涨超10%。

结尾:

Groq架构的特点是小内存和大算力,适合频繁数据搬运的场景,速度快但单卡吞吐能力有限,需要更多卡来保证同等吞吐量,速度既是优势也是劣势。

此外,由于GPU的生态极为发达,其中英伟达的GPU不仅性能强大,在性能卓越的同时,还聚集了大量用户和丰富的生态环境。

相比之下,Groq 目前仅能为少数大型模型提供服务,想要在低延迟领域建立持续优势,需要拓宽服务范围并进一步减少总体成本。

部分资料参考:钛媒体AGI:《一夜蒸发5600亿,英伟达真的危险了?》,硅星人Pro:《每秒500token的[网红]芯片Groq让人惊叹》,字母榜:《奥特曼孙正义,你们一起上吧,我黄仁勋何惧》,创头条:《全新AI芯片来了,速度10倍于GPU!英伟达要被干翻了吗?》,电子发烧友网:《刷屏的Groq芯片,速度远超英伟达GPU》,甲子光年:《AI芯片黑马Groq走红,英伟达又多了一个挑战者》

声明:本文为OFweek维科号作者发布,不代表OFweek维科号立场。如有侵权或其他问题,请及时联系我们举报。
2
评论

评论

    相关阅读

    暂无数据

    已认证
    Ai芯天下

    2023年度影响力创作者...

    举报文章问题

    ×
    • 营销广告
    • 重复、旧闻
    • 格式问题
    • 低俗
    • 标题夸张
    • 与事实不符
    • 疑似抄袭
    • 我有话要说
    确定 取消

    举报评论问题

    ×
    • 淫秽色情
    • 营销广告
    • 恶意攻击谩骂
    • 我要吐槽
    确定 取消

    用户登录×

    请输入用户名/手机/邮箱

    请输入密码