2月20日消息,美国人工智能初创公司groq最新推出的面向云端大模型的推理芯片引发了业内的广泛关注。其最具特色之处在于,采用了全新的tensor streaming architecture (tsa) 架构,以及拥有超高带宽的sram,从而使得其对于大模型的推理速度提高了10倍以上,甚至超越了英伟达的gpu。
推理速度是英伟达gpu的10倍,功耗仅1/10
据介绍,groq的大模型推理芯片是全球首个lpu(language processing unit)方案,是一款基于全新的tsa 架构的tensor streaming processor (tsp) 芯片,旨在提高机器学习和人工智能等计算密集型工作负载的性能。
虽然groq的lpu并没有采用更本高昂的尖端制程工艺,而是选择了14nm制程,但是凭借自研的tsa 架构,groq lpu 芯片具有高度的并行处理能力,可以同时处理数百万个数据流,并该芯片还集成了230mb容量的sram来替代dram,以保证内存带宽,其片上内存带宽高达80tb/s。
根据官方的数据显示,groq的lpu芯片的性能表现相当出色,可以提供高达1000 tops (tera operations per second) 的计算能力,并且在某些机器学习模型上的性能表现可以比常规的 gpu 和 tpu 提升10到100倍。
groq表示,基于其lpu芯片的云服务器在llama2或mistreal模型在计算和响应速度上远超基于nvidia ai gpu的chatgpt,其每秒可以生成高达500个 token。相比之下,目前chatgpt-3.5的公开版本每秒只能生成大约40个token。由于chatgpt-3.5主要是基于nvidia的gpu,也就是说,groq lpu芯片的响应速度达到了nvidia gpu的10倍以上。groq表示,相对于其他云平台厂商的大模型推理性能,基于其lpu芯片的云服务器的大模型推理性能最终实现了比其他云平台厂商快18倍。
另外,在能耗方面,英伟达gpu需要大约10到30焦耳才能生成响应中的tokens,而groq lpu芯片仅需1到3焦耳,在推理速度大幅提升10倍的同时,其能耗成本仅有英伟达gpu的十分之一,这等于是性价比提高了100倍。
groq公司在演示中展示了其芯片的强大性能,支持mistral ai的mixtral8x7b smoe,以及meta的llama2的7b和70b等多种模型,支持使用4096字节的上下文长度,并可直接体验demo。不仅如此,groq还喊话各大公司,扬言在三年内超越英伟达。目前该公司的lpu推理芯片在第三方网站上的售价为2万多美元,低于nvidia h100的2.5-3万美元。
资料显示,groq 是一家成立于2016年人工智能硬件初创公司,核心团队来源于谷歌最初的张量处理单元(tpu)工程团队。groq 创始人兼ceo jonathan ross是谷歌tpu项目的核心研发人员。该公司硬件工程副总裁jim miller 曾是亚马逊云计算服务aws设计算力硬件的负责人,还曾在英特尔领导了所有 pentium ii 工程。目前该公司筹集了超过 6200 万美元。
为何采用大容量sram?
groq lpu芯片与大多数其他初创公司和现有的ai处理器有着截然不同的时序指令集计算机(temporal instruction set computer)架构,它被设计为一个强大的单线程流处理器,配备了专门设计的指令集,旨在利用张量操作和张量移动,使机器学习模型能够更有效地执行。该架构的独特之处在于执行单元、片内的sram内存和其他执行单元之间的交互。它无需像使用hbm(高带宽内存)的gpu那样频繁地从内存中加载数据。
groq 的神奇之处不仅在于硬件,还在于软件。软件定义的硬件在这里发挥着重要作用。groq 的软件将张量流模型或其他深度学习模型编译成独立的指令流,并提前进行高度协调和编排。编排来自编译器。它提前确定并计划整个执行,从而实现非常确定的计算。“这种确定性来自于我们的编译器静态调度所有指令单元的事实。这使我们无需进行任何激进的推测即可公开指令级并行性。芯片上没有分支目标缓冲区或缓存代理,”groq 的首席架构师 dennis abts 解释道。groq lpu芯片为了追求性能最大化,因此添加了更多sram内存和执行块。
sram全名为“静态随机存取存储器”(static random-access memory)是随机存取存储器的一种。所谓的“静态”,是指这种存储器只要保持通电,里面储存的数据就可以恒常保持。相对之下,动态随机存取存储器(dram)里面所储存的数据则需要周期性地更新。自sram推出60多年来,其一直是低延迟和高可靠性应用的首选存储器,
事实上,对于 ai/ml 应用来说,sram 不仅仅具有其自身的优势。“sram 对于 ai 至关重要,尤其是嵌入式 sram,它是性能最高的存储器,可以将其直接与高密度逻辑核心集成在一起。目前sram也是被诸多cpu集成在片内(更靠近cpu计算单元),作为cpu的高速缓存,使得cpu可以更直接、更快速的从sram中获取重要的数据,无需去dram当中读取。只不过,当前旗舰级cpu当中的sram容量最多也仅有几十个mb。
groq之所以选择使用大容量的 sram来替代dram 内存的原因主要有以下几点:
1、sram 内存的访问速度比 dram 内存快得多,这意味着 lpu 芯片更快速地处理数据,从而提高计算性能。
2、sram 内存没有 dram 内存的刷新延迟,这意味着lpu芯片也可以更高效地处理数据,减少延迟带来的影响。
3、sram 内存的功耗比 dram 内存低,这意味着lpu芯片可以更有效地管理能耗,从而提高效率。
但是,对于sram来说,其也有着一些劣势:
1、面积更大:在逻辑晶体管随着cmos工艺持续微缩的同时,sram的微缩却十分的困难。事实上,早在 20nm时代,sram 就无法随着逻辑晶体管的微缩相应地微缩。
2、容量小:sram 的容量比 dram 小得多,这是因为每个bit的数据需要更多的晶体管来存储,再加上sram的微缩非常困难,使得相同面积下,sram容量远低于dram等存储器。这也使得sram在面对需要存储大量数据时的应用受到了限制。
3、成本高:sram 的成本比 dram要高得多,再加上相同容量下,sram需要更多的晶体管来存储数据,这也使得其成本更高。
总的来说,虽然sram 在尺寸、容量和成本等方面具有一些劣势,这些劣势限制了其在某些应用中的应用,但是 sram 的访问速度比 dram 快得多,这使得它在某些计算密集型应用中表现得非常出色。groq lpu 芯片采用的大容量 sram 内存可以提供更高的带宽(高达80tb/s)、更低的功耗和更低的延迟,从而提高机器学习和人工智能等计算密集型工作负载的效率。
那么,与目前ai gpu当中所搭载的 hbm 内存相比,groq lpu 芯片集成的 sram 内存又有何优势和劣势呢?
groq lpu 芯片的 sram 内存容量虽然有230mb,但是相比之下ai gpu 中的 hbm 容量通常都有数十gb(比如nvidia h100,其集成了80gb hbm),这也意味着lpu 芯片可能无法处理更大的数据集和更复杂的模型。相同容量下,sram的成本也比hbm更高。 不过,与hbm 相比,groq lpu 芯片的所集成的 sram 的仍然有着带宽更快(nvidia h100的hbm带宽仅3tb/s)、功耗更低、延迟更低的优势。
能否替代nvidia h00?
虽然groq公布的数据似乎表明,其lpu芯片的推理速度达到了nvidia gpu的10倍以上,并且能耗成本仅是它十分之一,等于是性价比提高了100倍。但是,groq并且明确指出其比较的是nvidia的哪款gpu产品。由于目前nvidia最主流的ai gpu是h100,因此,我们就拿nvidia h100来与groq lpu来做比较。
由于groq lpu只有230mb的片上sram来作为内存,因此,如果要运行llama-2 70b模型,即使将llama 2 70b量化到int8精度,仍然需要70gb左右的内存,即使完全忽略内存消耗,也需要305张groq lpu加速卡才够用。如果考虑到内存消耗,可能需要572张groq lpu加速卡。官方数据显示,groq lpu的平均功耗为185w,即使不计算外围设备的功耗,572张groq lpu加速卡的总功耗也高达105.8kw。假设一张groq lpu加速卡的价格为2万美元,因此,购买572张卡的成本高达1144万美元(规模采购价格应该可以更低)。
根据人工智能科学家贾扬清分享的数据显示,目前,数据中心每月每千瓦的平均价格约为20美元,这意味着572张groq lpu加速卡每年的电费为105.8*200*12=25.4万美元。
贾扬清还表示,使用4张nvidia h100加速卡就可以实现572张groq lpu一半的性能,这意味着一个8张h100的服务器的性能大致相当于572张groq lpu。而8张h100加速卡的标称最大功率为10kw(实际上约为8-9千瓦),因此一年电费为仅24000美元或略低。现在一个8张h100加速卡的服务器的价格约为30万美元。
显然,相比较之下,在运行相同的int8精度的llama-2 70b模型时,nvidia h00的实际性价比要远高于groq lpu。
即使我们以fp16精度的llama-2 7b模型来比较,其最低需要14gb的内存来运行,需要约70张groq lpu加速卡才能够部署,按照单卡fp16算力188tflops计算,其总算力将达到约13.2pflops。这么强的算力只是用来推理llama-2 7b模型属实有些浪费。相比之下,单个nvidia h100加速卡,其集成的80gb hmb就足够部署5个fp16精度的llama-2 7b模型,而h100在fp16算力约为2pflops。即使要达到70张groq lpu加速卡相同的算力,只需要一台8卡nvidia h100服务器就能够达到。
单从硬件成本上来计算,70张groq lpu加速卡成本约140万美元,一个8张h100加速卡的服务器的价格约为30万美元,显然,对于运行fp16精度的llama-2 7b模型来说,采用nvidia h100的性价比也是远高于groq lpu。
当然,这并不是说groq lpu相对于nvidia h100来说毫无优势,正如前面所介绍的那样,groq lpu的主要优势在于其采用了大容量的sram内存,拥有80tb/s的超高的内存带宽,使得其非常适合于较小的模型且需要频繁从内存访问数据的应用场景。当然,其缺点则在于sram的内存容量较小,要运行大模型,就需要更多的groq lpu。那么,groq lpu能否进一步提升其sram内存容量来弥补这一缺点呢?答案当然是可以,但是,这将会带来groq lpu面积和成本的大幅增加,并且也会带来功耗方面的问题。或许未来groq可能会考虑,加入hbm/dram来提升 lpu的适应性。
编辑:芯智讯-浪客剑