在2025红帽全球峰会上,红帽宣布推出红帽AI推理服务器、红帽AI第三方验证模型,以及对Llama Stack和模型上下文协议(MCP)API的集成,同时对红帽AI产品组合进行了重要更新,持续为企业AI提供更多选择。
通过这些新进展,红帽进一步增强企业加速AI采用所需的能力,并在混合云环境中推动生成式AI(Gen AI)的生产部署,为客户带来更多选择与信心。
根据Forrester的研究,开源软件将成为加速企业AI发展的关键动力。随着AI格局日益复杂和动态变化,红帽AI推理服务器与第三方验证模型,为企业提供了高效的模型推理能力,和一套经测试、在红帽AI平台上优化性能的AI模型组合。
结合Llama Stack和模型上下文协议(MCP)等生成式AI(gen AI)智能体开发新API的集成,红帽正致力于简化部署复杂性,帮助IT主管、数据科学家和开发者以更高的控制力与效率推动AI项目落地。
红帽AI推理服务器:在混合云中高效推理
红帽AI第三方验证模型:经过测试和优化
通过Hugging Face提供的红帽AI第三方验证模型,使企业更容易找到适合其业务需求的AI模型。红帽不仅提供一套经验证的模型,还提供部署指导,增强客户对模型性能和结果可复现性的信心。
部分模型经由红帽进一步优化,采用模型压缩技术以缩小模型体积、提升推理速度,从而减少资源消耗和运营成本。持续的模型验证流程也帮助客户在生成式AI创新方面保持领先。
Llama Stack与MCP:用于AI应用与智能体开发的标准化API
红帽AI正集成由Meta最初开发的Llama Stack以及Anthropic提出的MCP(模型上下文协议),为用户提供构建与部署AI应用和智能体的标准化API。Llama Stack目前已在红帽AI中作为开发者预览版提供,支持通过统一API访问vLLM推理、RAG(检索增强生成)、模型评估、防护机制和多种类型的智能体,可适配任意生成式AI模型。MCP提供了标准接口,使模型能够与外部工具连接,在智能体工作流中对接API、插件和数据源。
红帽OpenShift AI 2.20:面向规模化AI模型的能力增强
新版红帽OpenShift AI(v2.20)进一步增强了对生成式和预测型AI模型在构建、训练、部署与监控方面的能力,主要新增包括:
优化模型目录(技术预览):可通过Web控制台快速访问红帽及第三方经验证模型,并在OpenShift AI集群上部署与管理其生命周期。
分布式训练能力:通过KubeFlow Training Operator调度并执行InstructLab模型调优及其他基于PyTorch的训练任务,支持GPU跨节点分布式执行,配合RDMA网络提升性能并优化资源利用率。
特征存储(技术预览):基于Kubeflow Feast项目,提供集中式存储与管理训练与推理数据的能力,优化数据流转,提升模型准确率与复用性。
红帽企业Linux AI 1.5:大型语言模型开发平台新版本
红帽企业Linux AI 1.5版本为大型语言模型(LLM)提供新的开发、测试和运行功能,关键更新包括:
上线Google Cloud Marketplace:继AWS与Azure后进一步扩展公有云部署选项,简化在Google Cloud上的AI工作负载部署与管理。
多语言能力增强:借助InstructLab支持西班牙语、德语、法语和意大利语等语言的原生定制,并可引入用户自有“教师模型”,提升特定语言和场景下的训练控制力。未来还将支持日语、印地语与韩语。
红帽AI InstructLab on IBM Cloud正式上线:这一新云服务进一步简化模型定制流程,提升可扩展性与用户体验,使企业更轻松、自主地利用自身独特数据进行训练与部署。
红帽AI愿景:任意模型,任意加速器,任意云
AI的未来应当充满无限机遇,而不应受到基础设施孤岛的限制。红帽认为,未来,企业可以在任意云环境中的任意加速器上部署任意模型,提供卓越且更加一致的用户体验,而无需高昂的成本。为了释放生成式AI投资的真正潜力,企业需要一个通用推理平台——一个用以推动当下以及未来数年中,更加无缝、更高性能AI创新的标准。