产品战略专家梁宁确认出席AICon北京站,分享AI时代下的商业逻辑与产品需求 了解详情
写点什么

AIGC 军备竞赛开启,但训练大模型存在的问题却无解?

  • 2023-02-27
    北京
  • 本文字数:1957 字

    阅读完需:约 6 分钟

AIGC军备竞赛开启,但训练大模型存在的问题却无解?

生成式人工智能繁荣的背后,是令人恐惧的碳排放量。


今年二月初,谷歌和微软先后宣布了对其搜索引擎进行重大变革。这两家科技巨头都在构建或购买生成式人工智能工具上投入了大量资金,这些工具利用大型语言模型来理解并回应复杂问题。现在他们正尝试将这些工具整合到搜索中,期望能够为用户带来更加丰富和精准的使用体验。中国的搜索引擎公司百度已经宣布,他们也会跟进。


但是,人们对新工具的欣喜若狂,却隐藏了一个不可告人的秘密。为了打造高性能、人工智能驱动的搜索引擎,这场竞赛将会要求大量的计算能力,同时也会导致科技公司的能耗和碳排放量的大幅增长。


英国萨里大学(University of Surrey)网络安全教授艾伦·伍德沃德(Alan Woodward)表示:“我们已经投入了大量的人力物力来进行索引和搜索互联网内容,但要将人工智能纳入其中,就必须要有多重方法。这要求具备数据处理、存储和高效检索的功能。无论何时,只要我们看到一个在线处理过程的改变,我们就会发现,对于大型处理中心,需要的电能和制冷资源都会有很大的增长。我想,这是一个很好的步骤。”


训练大型语言模型(Large Language Model,LLM),例如那些支撑 OpenAI 的 ChatGPT 的模型,它将为微软增强版必应搜索引擎和谷歌的同类产品 Bard 提供强大的支持,这就意味着可以分析并处理海量数据,这也是为何它们通常都是拥有可观资源的宫锁所开发的原因。


“训练这些模型需要大量的计算能力,”西班牙科鲁尼亚大学(University of Coruña)的计算机科学家卡洛斯·戈麦斯-罗德里格斯(Carlos Gómez-Rodríguez)说,“目前,只有大型科技公司才能训练它们。”


尽管 OpenAI 和谷歌都没有透露其产品的计算成本费用,但是第三方的研究者分析认为,ChatGPT 部分基于的 GPT-3 的训练所耗费的功率为 1287 兆瓦,所产生的的碳排放量超过 550 吨,相当于一个人在纽约和旧金山之间往返 550 次的碳排放量。


戈麦斯-罗德里格斯说:“这并没有那么糟糕,但你必须考虑到这个事实:你不仅要训练它,还要执行它,为数百万用户提供服务。”


将 ChatGPT 作为独立产品使用,与将其整合到每天处理约 5 亿次搜索的必应中,也是有很大区别的。据瑞银估计,ChatGPT 每天约有 1300 万用户。


加拿大数据中心公司 QScale 的联合创始人马丁·布沙尔(Martin Bouchard)认为,根据他对微软和谷歌搜索计划的解读,在这一过程中加入生成式人工智能至少需要“每次搜索至少四到五倍的计算”。他指出,ChatGPT 目前在 2021 年底停止对世界的理解,作为削减计算需求的尝试的一部分。


为了满足搜索引擎用户的需求,这种情况必须改变。“如果他们要经常重新训练模型,并添加更多的参数和东西,那就是一个完全不同的规模的事情了。”他说。


这就要求在硬件方面投入大量的资金。“当前的数据中心以及我们现有的基础设施都无法与生成式人工智能进行竞赛,”布沙尔说,“这太过分了。”


根据国际能源署(International Energy Agency)的数据,数据中心的温室气体排放量已经占到全球总排放量的 1% 左右。由于对云计算的需求不断增加,这个数据会有所增加,但是运营搜索业务的公司已承诺要降低他们在全球变暖的净贡献。


戈麦斯-罗德里格斯表示:“这肯定没有运输业或纺织业那么糟糕。但是,人工智能对碳排放的影响很大。”


微软承诺到 2050 年实现负碳排放。该公司计划在今年购买价值 150 万公吨的碳信用额度。谷歌已承诺到 2030 年在全业务和全产业链上达到净零排放。OpenAI 和微软均未对此承诺置评。


将人工智能整合到搜索中的环境足迹和能源成本,可以通过将数据中心转移到更的能源来源,以及通过重新设计神经网络以提高效率,减少所谓的“推理时间”(一种算法处理新数据所需的计算能力)来降低。


“我们必须研究如何减少这种大型模型所需的推理时间,”该谢菲尔德大学(University of Sheffield)自然语言处理讲师纳菲斯·萨达特·穆萨维(Nafise Sadat Moosavi)表示。“现在是专注于效率方面的好时机。”


谷歌发言人简·帕克(Jane Park)告诉 WIRED,谷歌最初发布的 Bard 版本是由一个更轻量级的大型语言模型驱动的。


“我们还发表了研究报告,详细介绍了最先进的语言模型的能源成本,包括较早和较大的 LaMDA 版本,”帕克说。“我们的研究结果表明,将高效模型、处理器和数据中心与能源相结合,可以将机器学习系统的碳足迹降低 1000 倍。”


问题在于,对于谷歌来说,要想提高一点搜索准确率,就必须要增加更多的计算量和不必要的麻烦,这是否值得。但穆萨维说,尽管重视 LLM 所产生的能耗和碳排放的总量是非常重要的,但是还是要有一些观点。


“这对最终用户来说真是太好了,”她说,“因为以前的大型语言模型并不是所有人都能使用的。”


作者简介:

Chris Stokel-Walker,自由撰稿人、WIRED 撰稿人。


原文链接:

https://www.wired.com/story/the-generative-ai-search-race-has-a-dirty-secret/

2023-02-27 18:092576

评论

发布
暂无评论
发现更多内容

打造技术人创作利器:Typora+PicGo+Github+Jsdelivr 组合拳

Viktor

创作 GitHub Pages 工具软件

大作业(二)

Binary

架构师是什么?

ES_her0

28天写作 3月日更

区块链+金融落地应用详解

CECBC

金融

雄岸科技区块链布局价值待考

CECBC

区块链 科技

【笔记】第七周 第 2 课

Geek_娴子

《精通比特币》学习笔记(第九章)

棉花糖

区块链 学习 3月日更

Wireshark数据包分析学习笔记Day11

穿过生命散发芬芳

Wireshark 数据包分析 3月日更

通过使用终端(iTerm2&Oh my ZSH)来提高您的生产率 John 易筋 ARTS 打卡 Week 41

John(易筋)

ARTS 打卡计划 iterm2 myzsh

又一款Nginx 管理可视化神器!通过界面完成配置监控,一条龙!

Java小咖秀

nginx 运维 后端

如何使用标准稳压器输出几百毫伏极低直流电压?

不脱发的程序猿

28天写作 电路设计 3月日更 电源电路 标准稳压器

爱赢才会拼——目标梯度效应

Justin

心理学 28天写作 游戏设计

区块链+版权:NFT出圈,善用技术能否“破心中贼”?

CECBC

数字技术

HR14问

我是程序员小贱

面试 3月日更

ARTS - week 2

steve_lee

简述软件不可用性及解决办法

跳蚤

Zookeeper.02 - API

insight

zookeeper 3月日更

多应用集中落地,四川区块链产业爆发增长

CECBC

区块链

基于 SparkMLlib 智能课堂教学评价系统-系统设计(三)

大数据技术指南

大数据 spark 智能时代 28天写作 3月日更

Elasticsearch 写入流程 Making Changes Persistent

escray

elastic 28天写作 死磕Elasticsearch 60天通过Elastic认证考试 3月日更

Vue3源码 | 深入理解响应式系统下篇-effect

梁龙先森

源码分析 大前端 Vue3

场景化面试:Kafka 为何有如此高的吞吐量和性能

面试官问

kafka 零拷贝 PageCache

「架构师训练营 4 期」 第十周 - 001&2

凯迪

架构师训练营 4 期

GO GC知识点整理

非晓为骁

垃圾回收 GC算法 Go 语言

(28DW-S8-Day22) 《流程型组织》学习笔记:金字塔

mtfelix

28天写作

滚雪球学 Python 之作用域下的 global 和 nonlocal 关键字

梦想橡皮擦

28天写作 3月日更

我的Java转Go之路

roseduan

Java 转行 Go web Go 语言

数据采集之Flume采集及点击流模型详解

五分钟学大数据

大数据 28天写作 3月日更 flume 点击流模型

《精通比特币》学习笔记(第十章)

棉花糖

区块链 学习 3月日更

软件工程任务排期方法

steve_lee

大作业(一)

Binary

AIGC军备竞赛开启,但训练大模型存在的问题却无解?_文化 & 方法_Chris Stokel-Walker_InfoQ精选文章