最近,英伟达在 CUDA 11.6 的用户许可中明确表示,禁止使用转换层在其他硬件平台上运行基于 CUDA 的软件。这一举动,立马引来了 AI 圈的震动和各大媒体关注。
CUDA 的全称是计算统一设备架构(Compute Unified Device Architecture),是英伟达开发的一种异构编程语言,它为通用程序提供了调用 GPU 的接口。简单来说,CUDA 能够加快神经网络模型的预测速度,高效且毫不费力地处理大量数据,以执行实时、高需求的任务。
面对高性能、实时输出的需求时,CUDA 是大公司的首选解决方案,它也为大公司们带来了巨大收益。例如,特斯拉和其他汽车行业巨头利用 CUDA 来训练自动驾驶汽车,Netflix 利用 CUDA 的功能来增强自己的推荐引擎……英伟达也靠着 CUDA 绑定了数百万 AI 开发者,吸引着大型云计算公司采购它的 GPU。
事实证明 CUDA 和英伟达硬件的结合非常高效,大批程序都依赖这种结合。不过,随着更有性价比的硬件问世,越来越多的用户倾向于在其他与英伟达存在竞争关系的平台上运行 CUDA 程序。而这对于英伟达来说,无疑是对其技术和市场地位的叫嚣挑战。
为了确保自己在 GPU 计算领域的竞争优势,英伟达只好“背弃”人类命运共同体使命,“喊话”竞争对手:不许在你们自家硬件上用我的 CUDA 了!
业内人士分析,这一招应该是针对 Intel 、AMD 都有参与的 ZLUDA 等第三方项目,以及登临科技 GPU+、沐曦科技等中国厂商的兼容方案。
总体来说,这次警告代表着英伟达对兼容 CUDA 的一种态度。目前,英伟达只是在 CUDA 11.6 协议中增加了警告条款,并未采取实际行动,但也不排除未来采取进一步措施的可能。
评论 1 条评论