日前,F5 宣布推出 BIG-IP Next for Kubernetes,这是一项全新的创新 AI 应用交付和应用安全解决方案,旨在为服务提供商和大型企业提供集中控制点,以加速、保护和简化流入和流出大型人工智能(AI)基础设施的数据流量。
据介绍,该解决方案利用高性能NVIDIA BlueField-3 DPU提升对大型 AI 部署至关重要的数据中心流量效率。通过对网络、流量管理和安全性的集成视图,用户将能够最大化数据中心资源的利用率,同时实现最佳的 AI 应用性能。
F5 BIG-IP Next for Kubernetes 是专门为 Kubernetes 环境设计的解决方案,并已在大型电信云和 5G 基础设施中得到验证。通过 BIG-IP Next for Kubernetes,该技术现可提供针对领先 AI 用例的定制化服务,例如推理、检索增强生成(RAG)以及无缝的数据管理和存储。与 NVIDIA BlueField-3 DPU 的集成最小化了硬件占用空间,实现了细粒度的多租户,同时实现能源消耗优化,并提供高性能的网络、安全和流量管理。F5 BIG-IP Next for Kubernetes 具有以下特性:
简化云规模 AI 服务的交付:BIG-IP Next for Kubernetes 可与客户的前端网络无缝集成,显著降低延迟,同时提供高性能的负载均衡,以处理上亿参数 AI 模型及高达万亿次运维操作的海量数据需求。
加强对 AI 部署的控制:该解决方案为现代 AI 网络提供了集中集成点,具有丰富的可观测性和细粒度信息。BIG-IP Next for Kubernetes 支持 HTTP 之外的多项 L7 协议,确保在极高性能下实现增强的入站和出站控制。
保护全新 AI 环境:客户可完全自动化 AI 训练和推理端点发现和安全功能。BIG-IP Next for Kubernetes 还可将 AI 应用与针对性的威胁进行隔离,加强数据完整性和主权,同时解决现代 AI 环境中至关重要的加密能力。
F5 与 NVIDIA 技术的集成将允许移动和固定线路电信服务提供商能够轻松过渡至云原生 Kubernetes 基础设施,以满足供应商日益增长的将服务功能适应至云原生网络功能(CNFs)模型的需求。F5 BIG-IP Next for Kubernetes 通过将数据密集型任务卸载至 BlueField-3 DPU,以释放 CPU 资源用于创收应用。该解决方案对于虚拟化 RAN(vRAN)或 MSO 的 DAA 以及核心网络中的 5G 尤为有益,并为未来释放 6G 通信潜力奠定基础。
“服务提供商和企业需要加速计算,以安全高效地在大规模云上交付高性能的 AI 应用。”NVIDIA 人工智能网络和安全合作伙伴高级总监 Ash Bhalgat 说道。
F5 首席技术官兼人工智能官 Kunal Anand 表示,“AI 的普及催生了对先进半导体和技术的空前需求。目前各大企业正在构建 AI 工厂,即为大规模训练 AI 模型及提供推理所需的强大处理能力而设计的高度优化环境,其速度惊人且具备最低延迟。而 F5 强大的应用交付和安全服务与 NVIDIA 的全栈加速计算形成了强大的生态系统。该集成解决方案覆盖从硬件加速层到应用界面的整个 AI 工作负载堆栈,为客户提供了增强的可观察性、精细化控制和性能优化。”
据悉,搭载 NVIDIA BlueField-3 DPU 的 F5 BIG-IP Next for Kubernetes 将于 2024 年 11 月上市。
评论