乐天堂fun88

欢迎光临北京软件和信息服务业协会官方网站
推理性能提升10倍,成本下降一半!第四范式发布大模型推理加速卡、推理框架
发布日期:2024-03-20    来源:第四范式    分享到:

为破解大模型推理中GPU显存瓶颈,第四范式发布了大模型推理框架SLXLLM以及硬件版本的推理加速卡4Paradigm Sage LLM Accelerator(简称SLX)。通过多任务共享存储及处理优化技术,大模型推理性能提升10倍;在模型效果无损情况下,同样使用8张24G显存GPU对6B/7B大模型进行FP16推理,可部署的模型数量从8增至16,GPU利用率从55%最高提升至100%,推理成本仅为原来的一半。值得一提的是,该能力也将集成在4Paradigm Sage AIOS 5.0中,推动大模型落地应用。

1710901160347.jpg

当前,业界公认的大模型推理主要瓶颈之一是GPU显存瓶颈。同算力一样,显存是衡量GPU性能的关键指标之一,用于存储计算结果、模型参数等数据。在大模型推理的过程中,往往因为显存受限,导致GPU的算力无法被“全部激活”用于推理过程,GPU算力利用率较低,大模型推理成本居高不下。

1710901170101.jpg

为此,第四范式发布了大模型推理框架SLXLLM以及推理加速卡SLX,在二者联合优化下,在文本生成类场景中,大模型推理性能提升10倍。例如在使用4张80G GPU对72B大模型进行推理测试中,相较于使用vLLM,第四范式使用SLXLLM+SLX的方案,可同时运行任务数量从4增至40。此外,推理加速卡SLX也可兼容TGI、FastLLM、vLLM等主流大模型推理框架,大模型推理性能提升约1-8倍。

你知道你的Internet Explorer是过时了吗?

为了得到我们网站最好的体验效果,我们建议您升级到最新版本的Internet Explorer或选择另一个web浏览器.一个列表最流行的web浏览器在下面可以找到.