写点什么

微软发布两款自研 5nm 芯片,AI 和云计算两大市场都想要!网友:科技巨头从来不做选择题

  • 2023-11-16
    北京
  • 本文字数:2864 字

    阅读完需:约 9 分钟

微软发布两款自研5nm芯片,AI和云计算两大市场都想要!网友:科技巨头从来不做选择题

微软发布两款自研芯片,面向 AI 和云计算

 

当地时间 11 月 15 日,微软在西雅图召开的 Ignite 大会上发布了两款芯片,一款面向 AI,一款面向云计算。

 

微软发布的这款名为 Maia 100 的人工智能芯片,旨在与英伟达备受追捧的 AI 图形处理单元展开竞争。第二款则是 Cobalt 100 Arm 芯片,面向通用计算任务并将与英特尔处理器争夺市场。

 

微软公司表示,Maia 100 是 Maia AI 加速器系列中的首款产品。它采用的是台积电 5 纳米制程工艺,拥有 1050 亿个晶体管,比 AMD 挑战英伟达的 AI 芯片 MI300X 的 1530 亿个晶体管少约 30%。

 

此外,Maia 支持微软首次实现低于 8 位数据类型(MX 数据类型),“这样可以让微软与其他合作伙伴共同设计硬件和软件,”微软公司副总裁 Rani Borkar 说道。“这有助于我们支持更快的模型训练和推理时间。”

 

微软是包括 AMD、Arm、Intel、Meta、Nvidia 和 Qualcomm 等在内的一个联盟的成员,该联盟正在标准化人工智能模型的下一代数据格式。

 

在本场发布会上,微软发布的另一款芯片产品同样备受瞩目。Cobalt 100 是一款 64 位处理器,也同样采用的是台积电 5 纳米工艺,芯片上有 128 个计算核心,与 Azure 一直使用的其他基于 Arm 架构的芯片相比,它的功耗降低了 40%。微软表示,一部分 Cobalt 芯片已经为 Microsoft Teams 和 Azure SQL 等程序提供支持。

 

值得注意的是,Maia 100 和 Cobalt 100 这两款芯片由每秒 200 GB 的网络供电,可提供每秒 12.5 GB 的数据吞吐量。

“我们和其他芯片厂商是互补,而非竞争”

 

微软正处于部署的早期阶段,因此微软目前暂时不愿意向外界发布确切的两款芯片的规范或性能基准。也就是说,外界很难准确地去解读 Maia 与英伟达流行的 H100 GPU、最近发布的 H200、甚至 AMD 最新的 MI300X 相比如何。

 

Borkar 表示,微软不想讨论谁的芯片更好,而是强调了与英伟达和 AMD 的合作关系对于 Azure 人工智能云的未来仍然非常关键。“在云运行的规模上,优化和集成堆栈的每一层、最大限度地提高性能、实现供应链多样化以及坦白地为我们的客户提供基础设施选择非常重要,”Borkar 如是说。

 

供应链的多元化对微软来说非常重要,特别是当英伟达目前是人工智能服务器芯片的主要供应商并且各公司一直在竞相购买这些芯片时。据估计,OpenAI 需要超过 3 万个英伟达旧版 A100 GPU 才能实现 ChatGPT 的商业化,因此微软自己的芯片可以帮助其客户降低 AI 成本。微软还为自己的 Azure 云工作负载开发了这些芯片,而不是像英伟达、AMD、英特尔和高通那样出售给其他公司。

 

“我认为我们和其他芯片厂商更多的是互补,而不是与他们竞争,”Borkar 坚持说。“今天,我们的云计算中既有英特尔也有 AMD,同样,在人工智能方面,我们今天已经有了英伟达,我们也将宣布采用 AMD。这些合作伙伴对我们的基础设施非常重要,我们真的希望为我们的客户提供选择。”

科技巨头,全都拥有“造芯梦”

 

资金充实的各大科技企业都在为客户提供愈发丰富的云基础设施选项,帮助受众更灵活地运行应用程序。阿里巴巴、亚马逊和谷歌多年以来一直秉持这项战略。根据一项估算,截至今年 10 月底,微软手中共掌握约 1440 亿美元现金,且过去一年其云市场份额已经达到 21.5%,仅次于亚马逊。

 

微软公司副总裁 Rani Borkar 在接受外媒采访时表示,运行在 Cobalt 芯片之上的虚拟机实例将在 2024 年通过微软 Azure 云实现商业化,但她没有提供 Maia 100 芯片的具体上市时间表。

 

作为全球头部云供应商之一,微软是最后一家为云和人工智能提供定制芯片的公司。2016 年,谷歌公布了其初代 AI 张量处理单元(TPU);亚马逊云科技则先是在 2018 年发布了其 Graviton Arm 芯片与 Inferentia AI 处理器,随后于 2020 年推出了用于模型训练的 Trainium。

 

面对 GPU 资源的严重短缺,云服务商的特殊 AI 芯片有望满足客户需求。但与英伟达或者 AMD 不同,微软及其云计算同行的盈利模式,并不是向客户出售搭载其芯片的服务器硬件

 

Borkar 解释称,微软方面在 AI 计算芯片的设计过程中充分听取了客户反馈。

 

Borkar 还提到,微软目前正在测试 Maia 100 如何满足自家 Bing 搜索引擎上的 AI 聊天机器人(原名 Bing Chat,现已更名为 Copilot)、GitHub Copilot 编码助手以及 GPT-3.5-Turbo(由微软支持的 OpenAI 大语言模型)等需求。凭借海量互联网信息作为训练素材,OpenAI 的语言模型已经可以生成电子邮件、总结文档并根据人类询问快速生成答案。

 

其中 GPT-3.5-Turbo 模型正是 OpenAI ChatGPT 智能助手的底层技术,这款产品自去年推出之后迅速蹿红。短时间内,各家公司纷纷行动起来,在自家软件中引入类似的聊天功能,这也大大增加了市场对于 GPU 资源的整体需求。

 

英伟达公司首席财务官 Colette Kress 在今年 9 月于纽约召开的 Evercore 大会上表示,“我们一直在与各家供应商开展全面合作,希望改善我们的供应能力并支持更多客户、满足市场需求。”

 

此前,OpenAI 就一直借助 Azure 上的英伟达 GPU 进行模型训练。

 

除了设计 Maia 芯片之外,微软还公布了名为 Sidekicks 的定制化液冷硬件,可安装在与 Maia 服务器相邻的机架中为其降温,其工作原理就像汽车或高档游戏 PC 中的散热器一样,用于冷却 Maia 芯片的表面。一位发言人表示,微软无需任何改造即可将 Maia 服务器机架与 Sidekick 液冷机架安放到位。

 

相比之下,GPU 往往无法充分利用本就有限的数据中心物理空间。服务器初创公司 Oxide Computer 联合创始人兼 CEO Steve Tuck 坦言,由于无法像普通服务器那样从上到下填满机架,该公司有时会将一些装有 GPU 的服务器像“孤儿”般安放在机架底部以防止过热。Tuck 还强调,有时甚至需要单独添加冷却系统来降低运行温度。

 

根据之前亚马逊应用自研芯片的经验,微软的 Cobalt 处理器普及速度可能会比 Maia AI 芯片更快。微软目前正在 Cobalt 上测试其 Teams 应用程序及 Azure SQL 数据库服务的运行情况。微软表示,到目前为止其性能表现比 Azure 原先的 Arm 芯片(由初创公司 Ampere 提供)高出 40%。

 

过去一年半以来,随着 GPU 价格与存款利率的持续走高,许多企业都在寻求改善云支出的可行方法。对于 AWS 客户来说,Graviton 就是理想的选项之一。AWS 副总裁 Dave Brown 表示,AWS 的前百大客户目前都在使用基于 Arm 架构的芯片,此举能够将性价比提升 40%。

 

但必须承认,从 GPU 迁移至 AWS Trainium AI 芯片的难度,恐怕要比从英特尔至强转向 Graviton 更为复杂。每种 AI 模型都有自己的特性和需求,技术人员已经成功让各类工具在 Arm 架构上顺利运行,但定制化 AI 芯片仍是一片有待探索的新世界。不过 Brown 相信随着时间推移,越来越多的组织都会意识到 Trainium 芯片相较于传统 GPU 的显著性价比优势。

 

Borkar 指出,“我们已经与生态系统中的众多合作伙伴共享了技术规范,相信新的芯片将为全体 Azure 客户带来收益。”

 

参考链接:

https://www.cnbc.com/2023/11/15/microsoft-reveals-maia-ai-processor-and-cobalt-arm-based-chip.html

https://www.theverge.com/2023/11/15/23960345/microsoft-cpu-gpu-ai-chips-azure-maia-cobalt-specifications-cloud-infrastructure

https://news.microsoft.com/source/features/ai/in-house-chips-silicon-to-service-to-meet-ai-demand/

https://www.ft.com/content/f9721f50-6dc8-4604-b164-aed592bd2152

2023-11-16 17:286246
用户头像
李冬梅 加V:busulishang4668

发布了 960 篇内容, 共 559.2 次阅读, 收获喜欢 1119 次。

关注

评论

发布
暂无评论
发现更多内容

深入解析 C 语言中的 for 循环、break 和 continue

小万哥

程序人生 编程语言 软件工程 C/C++ 后端开发

【并发编程】CopyOnWriteArrayList详解与原理

小明Java问道之路

多功能屏幕录像机:Mac FoneLab Screen Recorder 激活中文

胖墩儿不胖y

录屏工具 Mac软件 屏幕录屏软件

Vue 发布 3.4 「灌篮高手」版本

南城FE

JavaScript Vue 前端开发

Linux升级指南:保持系统安全和高效运行

不在线第一只蜗牛

Linux 架构 运维 前端

年底离职潮来了!来聊聊程序员的离职跳槽

伤感汤姆布利柏

程序员 涨薪 离职 跳槽

基于E3PO平台设计的一种自适应360°视频传输方案

Geek-yan

AI技术进展和总结

destiny

云原生安全:保护云端应用的新策略与挑战

范艺笙冉

探索AI的无限可能:从概念到实践

future

作为铭文跨链赛道龙头,SoBit 有何突出之处?

BlockChain先知

2023,我所见到的智能中国

脑极体

AI

强大的数据恢复推荐:Aiseesoft Data Recovery中文最新

mac大玩家j

数据恢复软件 Mac软件 恢复数据软件

画图技术之流程图正交连线算法

爱吃小舅的鱼

流程图

元旦攻略已送达 小艺陪你开启“跨年”模式

最新动态

元旦出游季,让这些华为APP成为你的旅途好帮手

最新动态

Java线程池ThreadPoolExecutor源码解析

快乐非自愿限量之名

Java 前端

阿里云瑶池数据库2023年度精彩时刻回顾

阿里云瑶池数据库

数据库 阿里云 云原生 年终总结

漫谈人工智能在各行业的应用以及促进和发展

迷彩

人工智能 AI 发展趋势 AIGC

人工智能与教育:机遇与挑战

啊川..

AI赋能金融创新:技术驱动的未来金融革命

EquatorCoco

人工智能 金融 AI赋能

风起云涌的2023年,异彩纷呈的AI世界

白日梦

AI 大模型

BMF 框架:多媒体处理的强大利器

RoSofteg

BMF

Web3的未来:DePIN项目引领物理基础设施的去中心化革命

TechubNews

为什么市场称SoBit 是铭文跨链赛道真正的龙头?

石头财经

定了!12月31日19时30分,来华为视频看2023-2024湖南卫视芒果TV跨年晚会

最新动态

Solana主流钱包盘点和评测:Phantom,Bitget钱包,Ledger等

股市老人

物联网时序数据库 IoTDB 荣获清华校友三创大赛 AI 大数据赛道种子组一等奖

Apache IoTDB

2023 IoTDB Summit:天谋科技 CTO 乔嘉林《IoTDB 企业版 V1.3: 时序数据管理一站式解决方案》

Apache IoTDB

数划云实力入选中国信通院“2023央国企数字化产业赋能图谱”

数划云

2023年各社区的数据

坚果

坚果派、

微软发布两款自研5nm芯片,AI和云计算两大市场都想要!网友:科技巨头从来不做选择题_芯片&算力_李冬梅_InfoQ精选文章