OpenStack 用于人工智能:面向下一代工作负载的可扩展、开放基础设施
人工智能工作负载的基础设施需求在复杂性和规模上都在迅速增长。OpenStack 在满足这些需求方面的优势不仅在于其成熟、模块化的代码库,还在于其开放、社区驱动的开发模式。与专有平台不同,OpenStack 由部署和在生产环境中运行它的同一社区进行设计。这使得能够快速迭代和实施新兴功能,例如多租户 GPU 调度、NUMA 感知放置以及用于分布式 LLM 编排的代理到代理协议支持,而无需等待供应商控制的路线图。随着人工智能工作负载变得越来越密集且对延迟越来越敏感,OpenStack 继续提供强大的虚拟化和基础设施抽象层,能够通过 Nova、Neutron、Cinder 和 Ironic 等服务支持高吞吐量、异构计算环境。其成熟的可扩展性和可扩展性使其非常适合下一代人工智能和 HPC 工作负载。
OpenStack 社区合作发布了一份白皮书,阐述了使用 OpenStack 支持人工智能工作负载的架构和技术影响:Open Infrastructure for AI:OpenStack 在下一代云中的作用。
OpenInfra for AI 工作组成立,旨在揭示架构并分享使用案例,说明 OpenStack 和其他 OpenInfra 项目(StarlingX、Kata Containers 和 Zuul)如何被用于支持人工智能工作负载。参与者代表着支持 OpenInfra 基金会的全球 OpenStack 供应商、运营商和开发人员生态系统。该小组还定期举办“展示与讲解”会议,展示支持人工智能用例的实际云环境。该小组计划在未来发布更多关于其他 OpenInfra 项目如何支持人工智能的资源。要参与该工作组,请订阅公共邮件列表!
订阅OpenStack新闻
及时了解OpenStack和Open Infrastructure社区的最新动态。








