6 月 10 日-11 日,重磅由云原生核算基金会(CNCF)和 Linux 基金会联合主办的露脸 KubeCon+CloudNativeCon China 2025,在我国香港隆重举行 。驱动作为全球云原生与开源尖端会议 ,云原原生跃迁大会会聚了来自全球的技能交融开源开发者、技能首领、重磅企业代表及终端用户 ,露脸深度评论云原生与 AI 交融的驱动最新进展与未来趋势 ,一起见证了这一技能盛宴。云原原生跃迁
作为全球云原生技能与开源生态建设的技能交融前锋,华为携 10 多位大咖和技能专家深度参加本次大会,重磅带来了 3 场 Keynote 主题讲演及 10 多个技能分会场的露脸同享 。 ,驱动全方位展现了在云原生与 AI 交融范畴的云原原生跃迁打破性效果。
开源生态引领 AI 年代技能跃迁。技能交融
开源作为加快立异协同的重要范式,会聚全球才智、缩短立异周期 、催化更多立异运用落地,也为下一轮技能革新发明指数级价值 。
会上,华为首席开源联络官、CNCF 基金会董事任旭东。带来。《Towards Clouds of AI Clusters》。的 Keynote 主题讲演,同享了 AI 年代的算力集群技能演进趋势 ,华为在异构集群办理 、超大规划集群调度、云边协同 AI 等范畴的运用实践等 。
任旭东表明,当时企业在办理 AI 作业负载时,仍面对严峻应战 ,尤其是在大模型练习 、推理中对算力规划和集群协同的极高要求。集群并行核算提高算力规划将是企业打破算力瓶颈、完成大模型落地的必经之路。
为呼应上述需求,华为从硬件驱动到集群资源调度完成算力设备的一致办理,支撑 HyperNode 与多集群拓扑感知调度 ,并对 PyTorch/TensorFlow/MindSpore 等干流结构 、大言语模型(LLMs)及智能体开发场景供给一致支撑的全栈开源基础设施处理计划。
“经过 openEuler、Volcano、Karmada 、KubeEdge 、openFuyao 五大项目,华为完成了从操作体系到渠道层的全栈开源打通与落地 ,协助企业完成 AI 集群内优化 、跨集群协同和云边协同 ,然后破解人工智能开展算力基础设施上面对的困局。”。
Volcano+Karmada 驱动。
B站亿级月活云原生 AI 调度跃迁 。
华为如此原生开源负责人 ,CNCF 技能监督委员会副主席王泽锋。联合。 BiliBili 资深开发工程师许龙。,宣布。《Bilibili 构建高效云原生 AI 渠道的实践之路》 。的 Keynote 主题讲演,深入评论视频网站人工智能作业负载调度优化途径。
Bilibili 具有上亿月活用户 ,环绕视频事务掩盖查找引荐 、图画处理、视频编解码等多种运用场景。在 AI 技能深度浸透视频处理 、模型练习等场景的当下,B站面对负载多样性 、多集群办理等算力应战 ,构建了以 Volcano 和 Karmada 为中心的调度结构 :单集群侧经过 Volcano 完成 Workload 一致调度 ,引进等价类调度与 JobSet 目标优化功用;多集群层用 Karmada 支撑在线使命联邦调度 ,自研轻量体系处理离线高吞吐需求。结合 GPU 同享调度 、编解码混合等三种方式 ,在提高资源运用率的一起 ,为B站 AI 运用落地供给了高效的云原生算力支撑 。
Volcano 助力科大讯飞完成 AI 基础设施打破,
赢得 CNCF 最终用户事例 。
会上 ,华为如此原生团队高级工程师常旭征。联合。科大讯飞渠道架构师董江 。,宣布。《Scaling Model Training with Volcano: iFlytek's Kubernetes Breakthrough》。的 Keynote 主题讲演,同享根据 Volcano 的云原生 AI 练习资源调度优化计划 。
科大讯飞在大规划模型练习中凭借 Volcano 完成要害打破 :经过构建根据 Volcano 的一致核算渠道 ,集成 AirFlow / Spark 等传统使命结构 ,以行列机制处理多租户资源公正分配问题 ,一起运用 Gang 调度、Binpack 算法及拓扑感知战略,将 GPU 运用率提高 40% 以上 ,毛病恢复时刻缩短 70% ,资源搅扰率下降 50%,保证事务稳定性和资源运用灵活性 。