由MLPerf联合创始人支持的AILLM提供商将赌注押在成熟的AMDInstinctMIGPU上
随着过去一年左右对企业级大型语言模型(LLM)的需求激增,Lamini开启了由AMDInstinctMIGPU提供支持的LLMSuperstation的大门。
该公司声称,去年在生产环境中,甚至在ChatGPT推出之前,它就已经在100多个AMD本能GPU上秘密运行了LLM。凭借其LLMSuperstation,它为更多潜在客户在其基础设施上运行他们的模型打开了大门。
这些平台由AMDInstinctMI210和MI250加速器提供支持,而不是行业领先的NvidiaH100GPU。Lamini打趣道,通过选择AMDGPU,企业“可以不再担心52周的交货时间”。
尽管Nvidia的GPU(包括H100和A100)是最常用于为ChatGPT等LLM提供动力的GPU,但AMD自己的硬件具有可比性。
为您推荐的视频...
例如,InstinctMI250可为AI工作负载提供高达362teraflops的计算能力,而MI250X则可提供383teraflops的计算能力。相比之下,根据TechRadarPro姊妹网站Tom'sHardware的说法,NvidiaA100GPU提供高达312teraflops的计算能力。
Lamini首席技术官、MLPerf联合创始人GregDiamos表示:“使用Lamini软件,ROCm已在LLM方面实现了与CUDA相同的软件。我们选择InstinctMI250作为Lamini的基础,因为它运行我们客户所使用的最大模型。需求并集成微调优化。
“我们使用MI250上的大HBM容量(128GB)来运行更大的模型,而软件复杂性比A100集群更低。”
标签: