加速AI推理,红帽搞了个“圈子”

数字经济观察网 韬哥
生成式AI在企业中落地的过程,一定会遇到诸多挑战,但是IT基础设施不应该成为其前进道路上的“拦路虎”,以前以AI训练为主的时代不行,现在大规模AI推理兴起时更不可以。

生成式AI在企业中落地的过程,一定会遇到诸多挑战,但是IT基础设施不应该成为其前进道路上的“拦路虎”,以前以AI训练为主的时代不行,现在大规模AI推理兴起时更不可以。

作为开源基础设施提供商,红帽公司在生成式AI时代与时俱进,以长远的战略眼光重新审视IT基础设施的定位。红帽公司以开源之力,结合混合云的灵活性,为任何模型、任何加速器、任意云的落地应用提供统一的基础设施,为用户带来快速、一致、低成本的模型推理体验。

AI是真正的势能

在当前AI热度持续走高的情势下,仍旧出现了一些不和谐的声音。有人将AI比作当年的加密货币,认为其很可能是昙花一现。红帽首席技术官兼全球工程高级副总裁Chris Wright指出:“所有突破性技术都会经历‘炒作曲线’,但AI已经在解决切实的、数据驱动的问题,比如需求预测、代码生成、欺诈检测等。AI从一开始就直击应用的痛点,而且迭代速度前所未见。”

相对于其他热门技术和领域,人们对于AI的前景有着更清晰的视野和认知。AI可能是过去20年来最深刻的IT变革,其影响甚至超越了云计算。ChatGPT仅用两个月就突破了1亿用户,软件史上没有任何产品的扩散速度如此之快。如今,缺乏AI技能的大学毕业生很快就会被边缘化,忽视生成式AI的企业则会折损生产力。事实证明,AI的普及速度堪比早期的电子商务,并且横跨所有行业。这是真正的势能,绝非炒作。

在亚太市场,AI应用更加值得期待,尤其是印度、中国和东南亚市场正在出现AI井喷。金融、电信、政府等行业的创新旺盛。许多客户在AI部署方面优先选择了红帽平台,原因很简单,就是“平台自由”。具体而言,就是从小规模起步,然后快速扩展,可以随时满足应用所需。红帽最新发布的OpenShift Virtualization、RHEL镜像模式(image mode)以及其开箱即用的特性等,让部署更容易。客户可以选择适合自己的平台,即使客户身处远离大型科技中心的地区,也能获得一致、安全、可靠的平台体验。

“我们成立了面向亚太的共创团队。当地ISV的工程师与红帽的专家并肩开发,然后将产品交由系统集成商负责交付给最终用户。”红帽合作伙伴生态系统成功高级副总裁Stefanie Chiras介绍说,“新推出的RHEL Partner Validation计划的关键内容是,ISV可以自行在RHEL上完成验证,并承诺提供第三方支持,之后再决定是否申请完整认证。在节奏迅猛的亚太市场上,这一计划为伙伴打通了快速上市的通道,同时也向客户保证产品可以在RHEL上运行,红帽公司则提供全程背书。”

举生态之力共赢AI推理

今天,人们不仅关注大模型如何训练,更关注AI如何在企业中落地,为用户创造新的价值。将AI模型转化为可操作洞察和用户体验的引擎,这就是AI推理的重要性所在。Gartner预测,到2028年,80%以上的数据中心工作负载加速器将专门部署用于推理,而不是训练。随着推理模型日益复杂和规模不断扩大,它对资源需求的持续攀升有可能限制集中式推理的可行性,使得AI创新因成本过高和延迟过长而陷入瓶颈。为了更好地支持AI推理,基础设施需要做出什么改变?

红帽总裁兼首席执行官Matt Hicks表示,红帽的使命是为客户提供真正的选择和灵活性。红帽交付的每一层,无论是Linux、容器,还是自动化,都保持开放且值得信赖,让用户能够放心运行、调整并持续创新。红帽公司最新宣布,启动开源项目LLM-D,赋能大规模分布式生成式AI推理。LLM-D采用原生Kubernetes架构,基于vLLM的分布式推理和智能AI感知网络路由,利用突破性的大规模生成式AI推理技术,让强大的大语言模型(LLM)推理云能够满足最苛刻的生产服务级目标(SLO)。

LLM-D是一个前瞻性项目,它能增强vLLM的能力,从而超越单台服务器的限制,为AI推理解锁大规模生产。使用Kubernetes久经考验的编排能力,LLM-D将先进的推理能力集成到现有的企业IT基础设施中。该统一平台使IT团队能够满足关键业务工作负载的各种服务需求,同时部署创新技术,以最大程度地提高效率,并显著降低与高性能AI加速器相关的总体拥有成本。

该开源项目获得了包括AI模型提供商、AI加速器先驱和主要AI云平台在内的红帽生态伙伴的支持。CoreWeave、Google Cloud、IBM Research和NVIDIA是该项目的创始贡献者,AMD、思科、Hugging Face、英特尔、Lambda和Mistral AI是项目的合作伙伴。

红帽合作伙伴生态系统成功高级副总裁Stefanie Chiras表示,生态合作一直写在红帽的基因里。回顾发展历史,红帽从上游社区做起,随后将成果延伸到ISV、系统集成商以及云服务商。如今,RHEL与OpenShift已经可以在AWS、Azure、Google Cloud、IBM Cloud那里直接订购,Ansible Automation Platform通过红帽与IBM的渠道销售。AI时代的到来,让这种合作更加紧密,并且凸显了用户选择优先。红帽和云厂商以及其他合作伙伴集成,确保客户能够轻松获取其产品。红帽始终把客户的选择权放在核心位置,并与主要的Hyperscaler实现无缝集成。

开源只是一张入场券,背后依靠的是强大的社区力量。“LLM-D社区的成立再次印证了这一点。红帽与众多伙伴共同宣布了这一项目。只有在共同创建并持续维护的前提下,开放才真正有意义。”红帽高级副总裁兼首席产品官Ashesh Badani如是说。

在2025红帽全球峰会上,红帽发布了多项创新。全新的Red Hat AI Inference Server(内置vLLM)首发即支持Google Cloud TPU,以及Intel、AMD的硬件。

红帽高级副总裁兼首席营收官Andrew Brown介绍说,在亚太地区,Red Hat AI Inference Server吸引了许多新客户。在这一平台上,任何模型、任何连接器、任何云都可以运行。

与安全同行

无论是对于开源软件的发展,还是AI的落地,安全都是绕不开的一个话题。如何打消用户的顾虑呢?“早期开源曾被质疑稳健性与安全性,但其透明度最终扭转了局面。任何人都能审计代码并修复漏洞。这也是为什么今天大多数加密标准都是开放的。”红帽首席技术官兼全球工程高级副总裁Chris Wright谈到,“如今在AI领域,‘开放’这一原则仍在发挥作用。模型基于海量数据训练后,以工件(artifact)形式发布,常用OSI兼容许可证,允许用户微调、修改权重并再次分发。无论许可证开放还是专有,核心安全议题一致,包括防止输出敏感或有害内容等。学术界和社区对这些问题的研究非常活跃,加速了相关解决方案的演进。”

一年前,几乎每次客户会议都会以一句“AI安全吗?”开场。现在,关于安全的讨论从明确的业务用例开始,随后会谈到合规与防护。推动这种转变的,是企业实战经验的日益丰富,而不是向封闭模型的回归。事实上,开放将继续带来更快速、更优质的安全改进,而非相反。

红帽提供广泛的产品组合,涵盖混合云基础架构、应用服务、云原生应用开发和自动化解决方案,能够在任何基础架构上快速交付IT服务,经济高效,且深受全球企业的信赖。

让企业可以在任意云环境中的任意加速器上部署任意模型,并提供卓越且更加一致的用户体验,真正释放生成式AI投资的潜力,这就是红帽的新目标、新作为。

请扫码关注数字化经济观察网
责编:左右
参与评论
文明上网,理性发言!请遵守新闻评论服务协议
0/200