IBM AI推理加速器Spyre即将正式商用

z17和LinuxONE5将在10月28日支持Spyre,Power11则预计12月初实现兼容。

IBM宣布其AI推理加速器Spyre将于本季度正式投入商业使用。根据规划,z17和LinuxONE5将在10月28日支持Spyre,而Power11则将在12月初实现兼容。

Spyre加速器采用PCIe AIC卡形态,单卡功耗为75瓦,集成32个加速核心,基于5纳米工艺制造,晶体管数量达到256亿。在部署能力方面,z17与LinuxONE 5单台设备最高可支持48张Spyre加速卡,Power11系统则可集成16张附加卡。

IBM指出,Spyre的推出使企业能够在本地环境中高效运行多模态AI推理任务,在提升业务处理效率的同时,确保关键数据、交易流程及核心应用的安全可控。

Spyre基于三星5nm制造,拥有256亿个晶体管

据介绍,Spyre基于三星5LPE 制程工艺制造,核心面积为330平方毫米,整合了256亿个晶体管,是一款专门构建的企业级AI 芯片,为复杂的AI 模型和生成式AI用例提供可扩展的功能。其拥有32个加速器核心,被整合在75W 功耗的PCIe 扩展卡上,多个Spyre芯片可以通过PCIe 连接到IBM Z 的I/O 子系统。

5nm制程工艺的采用,使得Spyre加速器在性能和功耗之间取得了理想的平衡。更小的晶体管尺寸意味着更高的集成度,从而在更小的空间内实现更强大的计算能力。这对于需要处理海量数据的AI应用来说至关重要。此外,较低的功耗也降低了运营成本,并减少了对散热系统的需求。这种技术进步,也预示着未来AI加速器在性能和能效方面将持续提升。

该产品核心优势在于支持多模态AI推理任务的本地化部署。企业客户无需将核心数据上传至云端,即可在自有数据中心完成图像识别、自然语言处理等复杂AI运算,有效保障交易数据、应用程序等关键信息的安全性。

Spyre的应用场景

如今,IT环境正在从传统的逻辑工作流程转变为代理人工智能推理。AI代理需要低延迟推理和实时系统响应,大型机和服务器需要在不影响吞吐量的情况下运行人工智能模型以及最苛刻的企业工作负载。

Spyre加速器通过本地AI加速提供快速、安全的处理,企业能够大规模利用人工智能,同时保留IBM Z、LinuxONE和Power系统上的数据。在大型机系统中,结合用于IBM Z和LinuxONE的Telum II处理器,Spyre提供了增强的安全性、低延迟和高事务速率处理能力。利用这种先进的硬件和软件堆栈,企业可以使用Spyre扩展多个AI模型,以支持高级欺诈检测和零售自动化等商业预测用例。

同时,在基于IBM Power的服务器上,Spyre客户可以利用一系列AI服务,为企业工作流程实现端到端的AI。客户只需点击一下即可从目录中安装AI服务。Spyre Accelerator for Power与片上加速器(MMA)相结合,还可以加速生成AI的数据转换,为深度过程集成提供高吞吐量。此外,它的提示大小为128,可以在一小时内接收800多万份文档进行知识库集成。这种性能与IBM软件栈、安全性、可扩展性和能效相结合,支持客户将生成式人工智能框架集成到企业工作负载中。

IBM基础设施首席运营官兼IBM系统总经理Barry Baker表示:“我们的一个关键优先事项是推进基础设施建设,以满足新兴人工智能工作负载的需求,借助Spyre Accelerator,我们正在扩展系统的功能,以支持多模型人工智能,包括生成和代理人工智能。这项创新使客户能够以毫不妥协的安全性、弹性和效率扩展其支持人工智能的关键任务工作负载,同时释放其企业数据的价值。”

想要获取半导体产业的前沿洞见、技术速递、趋势解析,关注我们!