写点什么

谷歌、英伟达联手打造 AI 超级计算机架构,Agent 业态初显且已商业化,谷歌的基础设施太全面了 | Google Next 2024

  • 2024-04-10
    北京
  • 本文字数:3130 字

    阅读完需:约 10 分钟

大小:1.52M时长:08:50
谷歌、英伟达联手打造AI超级计算机架构,Agent业态初显且已商业化,谷歌的基础设施太全面了 | Google Next 2024

省流版:基础软件相当能打,新的 TPU v5p 支持下的 AI 超级计算机架构足以应对最严苛的生成式 AI 大语言模型和场景。Agent 已经商业化,单就用例本身(视频智能生成、智能办公等等)国内均有类似形态的产品,没有“WoW”的感觉,但与国内同样产品相比,谷歌的用例精细化能力相当高,足以应对企业级场景的需求。

 

美国时间 4 月 9 日,Google Cloud Next ’24 在拉斯维加斯正式召开。 Google Cloud CEO Thomas Kurian 等带来了主题为「即刻踏上云端新旅程」的开幕演讲。

在会议开始之前,媒体及分析师们均十分期待谷歌本次大会上与生成式 AI 相关的发布,包括今年引起巨大讨论的 Gemini 系列,以及 vertexAI、硬件层面的更新等,包括是否会与英伟达最新发布的芯片合作等。


事实证明,谷歌已经围绕生成式 AI 构建起一整套的成熟架构,这是属于 AI 时代的超级计算架构。Thomas Kurian 表示自上次 Cloud Next 大会以来,谷歌已经进行了一千多次的产品更新,并声称这是世界上增长最快的云提供商。Alphabet 首席执行官 Sundar Pichai 特别赞扬了 Gemini 系列为各地企业提供了很多发展机会。与此同时,本届大会展示了谷歌已经构筑起的生成式 AI 全景图。

基础设施看谷歌,联手英伟达,AI Hypercomputer 超级能打

一系列芯片更新...

为了支持当今企业中采用的日益强大的生成式人工智能模型,谷歌宣布全面推出迄今为止最强大、可扩展的张量处理单元- TPU v5p,其设计目的只有一个——训练和运行最苛刻的生成式 AI 模型。

 

TPU v5p 旨在提供巨大的计算能力,单个 Pod 包含 8,960 个协同运行的芯片,这是 TPU v4 Pod 数量的两倍多。谷歌方面表示,TPU v5p 提供了令人印象深刻的性能提升,每秒浮点运算次数增加了一倍,每芯片的高带宽内存增加了三倍,从而大大提高了整体吞吐量。为了使客户能够训练和服务在大规模 TPU 集群上运行的 AI 模型,谷歌在 Google Kubernetes Engine 上添加了对 TPU v5p 虚拟机的支持,Google Kubernetes Engine 是其用于运行软件容器的云托管服务。

如预期,谷歌与英伟达联手,用户可以使用英伟达的最新硬件在 Google Cloud 上训练其生成式 AI 模型。除了 TPU 系列之外,它还通过新的 A3 系列虚拟机提供对 Nvidia H100 GPU 的访问。A3 Mega VM 将从下个月开始全面上市,其主要优势之一是支持“机密计算”,这是指即使在处理最敏感的数据时也可以保护其免受未经授权的访问的技术。

 

这是一个极其关键的发展,这为生成式 AI 模型提供了一种方法来访问以前被认为处理风险太大的数据,而数据安全随着生成式 AI 的爆火而愈发重要。

 

“Character.AI 正在使用 Google Cloud 的 Tensor 处理器单元和在 Nvidia H100 Tensor Core GPU 上运行的 A3 VM 来更快、更高效地训练和推断 LLM,”Character Technologies Inc.首席执行官 Noam Shazeer 表示。“在强大的人工智能优先基础设施上运行的 GPU 和 TPU 的可选性使 Google Cloud 成为我们显而易见的选择,因为我们需要扩展规模,为数百万用户提供新的特性和功能。”

与此同时,谷歌官宣了其宏伟计划-AI Hypercomputer,面向生成式 AI 时代的超级计算机架构,提供端到端的基础设施,从硬件到软件的一切服务,并宣布了 Google Axion 处理器,这是谷歌首款专为数据中心设计的基于 Arm 的定制 CPU。Axion 提供业界领先的性能和能源效率,并将于今年晚些时候向 Google Cloud 客户提供。

更令人兴奋的是谷歌将在今年晚些时候推出的产品。尽管没有透露具体时间,但谷歌方面确认计划将英伟达最近宣布但尚未发布的Blackwell GPU 引入其 AI 超级计算机架构。谷歌方面表示, Blackwell GPU 将提供两种配置,虚拟机由 HGX B200 和 GB200 NVL72 GPU 提供支持。前者是为最苛刻的人工智能工作负载而设计的,而后者则有望支持实时大语言模型推理和万亿参数规模模型的大规模训练的新时代。

Gemini 1.5 Pro 正式发布公共预览版

Gemini 1.5 Pro 的预览版发布只能说中规中矩,毕竟该系列在今年 2 月份就已经面世,这个模型最大的特点就是创下了最长上下文窗口的纪录。

 

根据官方披露,Gemini 1.5 Pro 将上下文窗口容量提到了 100 万 token(极限为 1000 万 token),远远超出了 Gemini 1.0 最初的 32000 个 token,此前的 SOTA 模型也才将上下文窗口容量提高到了 20 万 token。

 

这意味着 Gemini 1.5 Pro 可以自如地处理 22 小时的录音、超过十倍的完整的 1440 页的书(587,287 字)《战争与和平》,以及四万多行代码、三小时的视频。

 

凭借超长上下文理解能力,Gemini 1.5 Pro 得到了很多用户的认可。很多测试过 Gemini 1.5 Pro 的人更是直言,这个模型被低估了。如今预览版正式推出,期待后续广大开发者的反馈。

 

Kurian 现场介绍了众多可能的用例,并强调通过系列新增功能,谷歌云仍然是唯一提供广泛使用的第一方(Gemini 系列)和第三方模型(主要指 vertexAI 上面的模型)服务的云服务商。

Google Search 升级

通过使用新的提示管理工具对模型进行更精细的调整,包括解释为什么某些提示比其他提示效果更好等,可以进一步提高搜索结果的质量,显著降低产生幻觉的可能性。

 

这些现均已在 Vertex AI 上提供,Vertex AI 是 Google Cloud 的平台,用于定制和全面管理各种领先的人工智能模型。如今,超过 100 万开发人员正在使用谷歌的生成式 AI 工具,包括 AI Studio 和 Vertex AI。此外,通过 Vertex AI,客户现在可以通过两种新方式增强和基础他们的模型——将模型输出连接到可验证的信息源。第一个是 Google Search,它提供高质量的信息以提高响应的准确性。第二个是用户自己的数据和事实来源,例如 Workday 或 Salesforce 等企业应用程序以及 BigQuery 等 Google Cloud 数据库。

 

生成式 AI 时代,基础设施是一切创新的基础,极其重要,而单看这一部分,谷歌还是相当全面,超级能打。

Agent、Agent、Agent,已经商业化

会议现场,谷歌公布了系列 Agent 用例,比如 Custom Agent、Code Agent。可能是国内应用市场的繁荣导致平常“吃得太好”,这部分用例并没有让笔者有“Wow”的感觉,但单从 Demo 来看,谷歌公布出来的场景效果确实足够精细,这种精细指的是“足以在企业场景中落地”,极其重要的是谷歌已经将这些商业化了,每一个用例都跟着一个客户故事。


为了有效创建下一代 Agent,谷歌宣布了新的 Vertex AI Agent Builder,其提供了一个更简单的流程来训练、编辑和启动相关工具,包括相关控制能力和基础响应。

 

今年初,国内外对 Agent 寄予厚望,这被认为是生成式 AI 最有可能变现的一条路。如今看来,谷歌已经实现了,奔驰、沃尔玛等企业均在利用谷歌提供的 Agent,而主会场的后半程几乎都被 Agent 所占据。

 

由于这部分用例较多,且大部分国内感知有限(比如 Google Workspace),就不一一列举,着重聊下 Data Agents 和 Code Agents。

视频生成、剪辑相关用例

 

Data Agents 类似的产品形态,国内其实也有一些简单的尝试,通过在数据库或者数据平台上添加一些基本功能,让用户可以通过自然语言的方式与“业务数据”做交互。谷歌基于 BigQuery 做了 Data Agents 方面的尝试,沃尔玛执行副总裁 Suresh Kumar 也通过视频表示已经利用该功能来创造新的见解和个性化体验。


Code Agent 也显示出了人工智能将为代码编写带来巨大变化。Gemini Code Assist 获得了强大关注,谷歌现在正在将其扩展到 Gitlab、Github、本地和外部。谷歌表示,Gemini 1.5 Pro 即将加入 Code Assist,为编码带来 100 万 tokens,“彻底改变”编码。Gemini Cloud Assist 还可跨应用程序框架工作,让业务更顺畅、更轻松地推出和扩展。

 

国内外的智能编码工具不少,大部分目前是集成在 IDE 中使用,Agent 这种形态确实比较领先。早前,笔者从国内头部编码工具厂商那里了解到,其也将在今年下半年推出 Agent 版本,或许是国内目前来看比较有希望的节点。


面向生成式 AI 时代,谷歌的每一层架构都做好了准备。Kurian 提到:“我们正处于行业的关键时刻,我们正在重塑基础设施以支持人工智能新时代”。

 

“我们正在共同构建一种新的云方式。”



2024-04-10 03:006268
用户头像
赵钰莹 极客邦科技 总编辑

发布了 883 篇内容, 共 648.1 次阅读, 收获喜欢 2680 次。

关注

评论

发布
暂无评论
发现更多内容

细数下,FinClip 6月都干了啥

FinClip

云脉芯联加入龙蜥社区,共建网络“芯”生态

OpenAnolis小助手

开源 芯片 龙蜥社区 CLA 云脉芯联

ACM MM 2022 | 腾讯优图11篇论文入选,含盲超分辨率算法等研究方向

科技热闻

这么强?!Erda MySQL Migrator:持续集成的数据库版本控制

尔达Erda

数据库 程序员 开发者 云原生 MySQL 运维

2022 开放原子全球开源峰会 OpenAnolis 分论坛携干货来袭!

kk-OSC

centos 开源 龙蜥操作系统 开放原子全球开源峰会 OpenAnolis

GQM 概述:构建研发效能度量体系的根本方法

思码逸研发效能

研发效能 创新方法 效能度量

构建工业软件开源工具链,2022 开放原子全球开源峰会开源工业软件论坛即将开幕

kk-OSC

开源 开放原子全球开源峰会 开源工业软件

音视频通话前的网络及设备检测该如何操作?

ZEGO即构

音视频开发 通话检测

内部排序——交换排序

乔乔

7月月更

工作中养成的工作习惯与给老板的汇报

松子(李博源)

大数据 个人成长 高效 高效率 工作总结

【LeetCode】单词替换Java题解

Albert

LeetCode 7月月更

工程师世界的《原则》,Quora创始人豆瓣9.2分神作!

博文视点Broadview

中文拼写纠错:怎样改善模型对 multi-typo 的纠正效果?

澜舟孟子开源社区

人工智能 自然语言处理 nlp 文本生成 文本纠错

观测云产品更新|新增查看器显示列多种快捷操作;新增 Pipeline 一键获取样本测试数据;新增场景自定义查看器文本分析模式等

观测云

【7.1-7.8】写作社区精彩技术博文回顾

InfoQ写作社区官方

优质创作周报

升哲科技入选《中国企业家》2022年度“新锐100”企业

SENSORO

一体化实时HTAP数据库StoneDB,如何替换MySQL并实现近百倍分析性能的提升

StoneDB

云原生 #数据库 HTAP 大数据 开源 #开源

小白 0-1 学习 app 开发,从配置到 helloword

YonBuilder低代码开发平台

跨平台 安卓 低代码开发 多端开发

共建开源人才生态,2022 开放原子全球开源峰会聚焦 “产学研用”

kk-OSC

开源 数字化 产学研用 开放原子全球开源峰会

SpEL快速上手及实践

转转技术团队

Java spring 后端

走进天太|加速智能生产力落地 让机器人随处可见

科技之家

关于TCP与UDP你应该知道的

是乃德也是Ned

7月月更

一文搞懂Python上下文管理器

曲鸟

Python 7月月更 上下文管理器

东方甄选品控翻车,如何通过智能协同的供应链建设建开启可持续商业模式?

数商云

数字化转型 供应链 企业数字化

wallys/DR8072V01/IPQ8072A networking SBC supports dual 10GbE, WiFi 6

wallys-wifi6

公有云计费套路多?这里有一份破招详解

焱融科技

帮助文档——助客户快速了解您的产品如何使用

Baklib

搭建帮助中心,推动SaaS企业发展

Baklib

SaaS 客户服务 帮助中心 文档管理

新书上市 | 20年行业实践,一线工程师的必读之作

图灵教育

软件设计

Flink 引擎在快手的深度优化与生产实践

Apache Flink

大数据 flink 编程 流计算 实时计算

【计算讲谈社】第五讲|不止能上路,更能做好服务:自动驾驶产品规模化的问题定义

大咖说

人工智能 自动驾驶 阿里云 科技

谷歌、英伟达联手打造AI超级计算机架构,Agent业态初显且已商业化,谷歌的基础设施太全面了 | Google Next 2024_Google_赵钰莹_InfoQ精选文章