NVIDIA 初创加速计划,免费加速您的创业启动 了解详情
写点什么

为了 10 亿美元,OpenAI 不惜“出卖”了自己的灵魂?

  • 2022-02-17
  • 本文字数:3642 字

    阅读完需:约 12 分钟

为了10亿美元,OpenAI不惜“出卖”了自己的灵魂?

GPT-3 和 Codex 背后的这家公司并不像他们宣传的那样开放。


一旦染上了铜臭味,最崇高的理想也会腐化堕落。


OpenAI 成立于 2015 年,是一家非营利性公司,其主旨是努力在安全的前提下创建通用人工智能(AGI)并让全人类共同受益。



“作为一个非营利组织,我们的目标是为每个人,而不是股东创造价值。”果真如此吗?


2019 年,OpenAI 成为一家名为 OpenAI LP 的营利性公司,由一家名为 OpenAI Inc 的母公司控制。这是一种“利润上限”结构,将投资回报限制在原始金额的 100 倍。如果你投资 1000 万美元,最多你会得到 10 亿美元,具体数字可能有所不同。


这次变化的几个月后,微软对其注资 10 亿美元。OpenAI 与微软的合作关系细节没有公开,但前者允许后者将部分技术商业化,正如我们在 GPT-3 和 Codex 上看到的那样。


OpenAI 自认为是引领人类走向更美好未来的最强大力量之一,现在它却被继续追求这一目标所需的资金征服了。我们能否相信他们会信守诺言,继续专注于构建能够造福全人类的人工智能呢?

金钱永远占上风


OpenAI 是一个人工智能研究实验室。但它的野心太大了,相比之下它所获得的资源简直是微不足道。仅仅是训练 GPT-3 就估计花费了他们 1200 万美元,这还只是训练而已。除了那些到最后肯定会要求某种形式的回报的巨头,这个世界上他们去哪儿能找来这么多钱呢?当他们意识到自己需要投资时,微软早就等在门外了,许诺给他们提供云计算服务,代价就是以当时未公开的某种晦涩方式获得将他们的系统商业化的许可。


麻省理工科技评论 AI 记者 Karen Hao 进行了调查,以寻找一些关于 OpenAI 的问题的答案。在一篇精彩的文章https://www.technologyreview.com/2020/02/17/844721/ai-openai-moonshot-elon-musk-sam-altman-greg-brockman-messy-secretive-reality/)中,她揭露了 OpenAI 在他们的论述中的不一致之处。为什么一家以确保所有人都能拥有更美好未来为目标的公司突然决定,“为了保持存在感”,他们突然需要大量私人资金?从非营利到营利的转变引发了公众舆论甚至公司内部的疯狂批评。


艾伦人工智能研究所所长 Oren Etzioni 也收到了这一消息,他对此表示质疑:“我不同意非营利组织无法取得竞争优势的观点。如果规模更大、资金更充足的企业永远获胜,那么 IBM 今天仍将是第一大科技巨头。”曾经在 ViceNews 撰稿的 Caroline Haskins 不相信 OpenAI 会信守承诺,忠于他们的使命:“我们从来不曾依靠风险投资家来改善人类的福祉。”


OpenAI 决定将重点放在由更大的计算机和大量数据驱动的规模更大的神经网络上。他们需要钱,很多钱,才能继续在这条道路上走下去。但是,正如 Etzioni 所说,这并不是在 AI 中实现最先进成果的唯一途径。有时你需要创造性地思考新的想法,而不是“在旧池塘里拼命撒网”。

OpenAI 是怎样成为这个故事中的反派的?

GPT-2 和 GPT-3,“危险的”语言生成器


2019 年初,已经是一家营利性公司的 OpenAI 发布了 GPT-2,这是一种强大的语言模型,能够生成媲美人类级别的文本。研究人员认为 GPT-2 在当时是一个巨大的飞跃,甚至发布它都是非常危险的。他们担心它会被用来“传播假新闻、垃圾邮件和虚假信息”。然而,不久之后,他们在发现“没有强有力的滥用证据”后决定分享该模型。


罗格斯大学教授 Britt Paris 表示,“OpenAI 似乎正试图利用围绕人工智能的恐慌来为自己牟利。”许多人将围绕 GPT-2 的担忧声视为一种宣传策略。他们认为该系统并不像 OpenAI 声称的那样强大。然而,从营销的角度来看,他们的确可以用这种方法吸引媒体的注意力,并给 GPT-2 带来他们想要的炒作声浪。OpenAI 否认了这些指控,但舆论对他们的回应并不满意。


如果 GPT-2 没有他们宣称的那么强大,那为什么要试图让它看起来比实际更危险呢?如果它真的有那么强大,为什么仅仅因为他们“没有发现滥用的有力证据”而完全公开它?无论真相是哪一个,他们似乎都没有遵守自己的道德标准。


2020 年 6 月,GPT-3(GPT-2 的继任者)通过一个 API 发布了。OpenAI 似乎认为新系统——比 GPT-2 大 100 倍,更强大,因此本质上更危险——足够安全,可以与世界分享。他们设置了一个候补名单来逐个审查每个访问请求,但他们仍然无法控制系统最终的使用目的。


他们甚至承认,如果产品落入坏人之手,可能会发生一些问题。从潜在的滥用应用程序——包括“错误信息、垃圾邮件、网络钓鱼、滥用法律和政府程序、欺诈性学术论文写作和社会工程借口”——到加强性别、种族和宗教的偏见,都有可能。


他们意识到这些问题是存在的,但仍决定允许用户对系统进行试验。为什么要通过 API 发布它,而不是把模型开源呢?。好吧,OpenAI 说原因之一是“为[他们的]正在进行的人工智能研究、安全和政策努力买单。”


总结一下:“负责”保护我们免受有害人工智能侵害的公司决定让人们使用一个能够搞出来虚假信息和危险偏见的系统,这样他们就可以支付昂贵的维护费用。对我来说,这听起来不是很像“对所有人都有价值”。


理所当然,社交媒体上很快就出现了关于 GPT-3 可能造成的潜在损害的激烈讨论。Facebook 人工智能负责人 Jerome Pesenti 写了一条推文,在推文中举了一个例子:


“我希望 OpenAI 更加开放,不那么耸人听闻。他们只需将[GPT-2 和 GPT-3]开源用于研究目的,尤其是在 #responsibleAI 方面,同时承认两者都没有准备好投入生产,”他说。


为了展示 GPT-3 的独特性,Liam Porr 让这一系统写了一篇主题为提高生产力的文章。他向订阅者分享了这篇文章,但没有透露背后使用的技术。这篇文章在 HackerNews 上排名第一。如果 Porr 这样一名加州大学伯克利分校的学生就能用人工智能编写的文章欺骗所有人,那么一群怀有恶意的人会做什么?


一种可能性是传播假新闻,另一种可能性是传播与其他人工撰写的文章无法可靠区分的假新闻。这正是 GPT-3 的能力,也被 OpenAI 认可——甚至强调了——:


“人类检测 GPT-3175B 生成的较长文章时,平均准确率仅略高于 52%。这表明,对于长度约为 500 字的新闻文章,GPT-3 依旧可以生成人类难以区分的文章。”

Codex 和 Copilot,触犯法律


2021 年,他们也做了类似的事情。


2021 年 7 月,GitHub、微软和 OpenAI 发布了 Copilot,这是一个建立在 Codex 之上的人工智能系统,旨在成为人工智能结对编程程序员。撇开对劳动力的潜在威胁不谈,它受到了强烈批评,因为该系统是用来自公共 GitHub 存储库的开源代码盲目训练的。


GitHub 首席执行官 Nat Friedman 在 HackerNews 中分享了这一消息,引发了对使用 Copilot 的法律影响的担忧。一位用户指出了一些未解决的问题:


“很多问题:


——AI 生成的代码属于我还是 GitHub?——生成的代码属于什么许可证?——如果生成的代码成为侵权的原因,谁来承担责任或采取法律行动?”知名开源开发者 Armin Ronacher 在 Twitter 上分享了一个 Copilot 抄袭大量受版权保护代码的例子:https://t.co/hs8JRVQ7xJ


另一位用户的回应:“我们有直接证据表明 GitHub[Copilot]直接复制了 GPL 的代码块,证明这是在商业环境中使用的非常危险的工具。”


再深入一点,即使 Copilot 没有逐字复制代码,也会出现一个道德问题:像 GitHub 或 OpenAI 这样的公司可以在数千名开发人员生成的开源代码上训练这些系统,然后再对那些开发人员出售这些系统的使用权吗?


对此,程序员兼游戏设计师 Evelyn Woods 表示:“感觉就像是骑脸嘲讽开源世界。”

我们应该把希望寄托在 OpenAI 上吗?


OpenAI 现在的真正意图是什么?他们是否与微软的利益紧密相连,以至于忘记了“造福人类”的初衷?或者他们真的认为他们拥有最好的工具和思想来解释这条道路,即使这意味着他们要将灵魂出卖给一家大型科技公司?我们是愿意让 OpenAI 按照他们的意愿构建未来,还是应该让我们的理想更加多样化,更重要的是,将它们与财务利润区分开来?


OpenAI 是走向更复杂的人工智能形式的道路上的主导力量之一,但还有其他非常有能力的、不受货币束缚的机构也在做相关工作。他们可能无法舒适地躺着赚钱,这可能就是我们应该更加关注这些人工作的原因所在。


归根结底,大型科技公司的首要任务不是怀抱着科学好奇心去探索通用人工智能,也不是构建最安全、最负责任、最合乎道德的人工智能。他们的首要任务——这本身并不违法——是赚钱。道德上的可疑之处在于,他们会不惜一切代价去做这件事,即使这意味着要走我们大多数人都会避开的某些阴暗路线也无所谓。


即使是 OpenAI 的联合创始人埃隆·马斯克也同意这些批评意见:


最后的想法

话虽如此,我仍然相信 OpenAI 员工的确将他们最初的使命作为他们的主要驱动力。但他们不应该忘记,目的并不总是证明手段是正当的。崇高的理想可能会因这些肮脏的手段而受到伤害。


我们想要通用人工智能(AGI)吗?从科学上讲,答案肯定不是否定的。科学好奇心是没有限制的。但是,我们永远都应该评估潜在的危险。核聚变是奇妙的现象,但核聚变炸弹不是。


我们不惜一切代价想要 AGI 吗?现在,从道德上讲,答案不可能是肯定的。这就是我们应该关注的地方,因为我们在快速推进这些技术时所遇到的很多紧迫问题将迟早影响我们所有人的利益。而那些只关心眼前利益的人们,无论是 OpenAI 还是其他任何人,都需要对这种后果负有很大的责任。


原文链接:https://onezero.medium.com/openai-sold-its-soul-for-1-billion-cf35ff9e8cd4

公众号推荐:

跳进 AI 的奇妙世界,一起探索未来工作的新风貌!想要深入了解 AI 如何成为产业创新的新引擎?好奇哪些城市正成为 AI 人才的新磁场?《中国生成式 AI 开发者洞察 2024》由 InfoQ 研究中心精心打造,为你深度解锁生成式 AI 领域的最新开发者动态。无论你是资深研发者,还是对生成式 AI 充满好奇的新手,这份报告都是你不可错过的知识宝典。欢迎大家扫码关注「AI前线」公众号,回复「开发者洞察」领取。

2022-02-17 10:474476
用户头像
刘燕 InfoQ高级技术编辑

发布了 1112 篇内容, 共 494.2 次阅读, 收获喜欢 1967 次。

关注

评论 1 条评论

发布
用户头像
感觉100倍的投资回报已经很高了,很难触顶将利润放入非营利部分
2023-07-15 19:32 · 美国
回复
没有更多了
发现更多内容

在线常用crontab表达式大全验证解析

入门小站

工具

模块三作业

河马先生

架构实战营

程序员如何快速成长为IT精英

孙叫兽

程序员 成长 IT职场

数据对AI的重要性:采访首席数据官Rick McFarland - LexisNexis Legal & Professional

WorkPlus

阅读

如何对抗信息茧房?

caiyongji

程序员 信息茧房

坐下来谈谈如何写好一份简历?

童欧巴

面试 大前端 简历

带你走进“华为链”

华为云开发者联盟

区块链 高性能 华为链 自研区块链平台 自主可控

TensorFlow Recommenders: Quickstart

毛显新

深度学习 tensorflow 推荐系统 keras

Linux之top命令

入门小站

Linux

Java集合源码总结分析

区块链去中心化钱包开发|开发去中心化钱包

Geek_23f0c3

钱包系统开发 去中心化交易所系统开发 去中心化钱包 去中心化交易所

如何在二三线城市月薪过万(一)看完这篇后端简历优化,包你面试不断

小鲍侃java

面试 后端

模块三

Winston

云图说 | 华为云医疗智能体,智联大健康,AI药物研发

华为云开发者联盟

AI 药物研发 医疗智能体

今晚拿下PHP反序列化的一系列操作

网络安全学海

php 网络安全 信息安全 渗透测试 漏洞分析

音视频延时和抖动问题分析和解决

hanaper

全是蓝光,太狠了!

Jackpop

Python OpenCV 图像处理之直方图相关知识细节,学点细的

梦想橡皮擦

7月日更

教你如何成为解决问题的高手

孙叫兽

高手 解决问题

CloudQuery 首次开放API,v1.4.1将开放「部门导入」和「用户导入」

BinTools图尔兹

数据库 OpenAPI 数据库管控

泰国Ascend Money用开源软件加快应用交付

WorkPlus

阅读

网络攻防学习笔记 Day89

穿过生命散发芬芳

网络攻防 7月日更

Druid 如何开启查询日志

HoneyMoose

第三届WICC北京落幕 展现开发者服务生态与建设新方向

融云 RongCloud

安装 Druid 安装的时候提示 JAVA 版本的问题

HoneyMoose

充满科技感的农业,是年轻人的『菜』吗?

百度大脑

人工智能

男人要慢,SQL要快:记一次慢SQL优化

艾小仙

AI论文解读丨融合视觉、语义、关系多模态信息的文档版面分析架构VSR

华为云开发者联盟

语义 视觉 多模态信息 文档版式 VSR

讲的是切片,但好像又不只是切片?

Gopher指北

Go 语言

Windows Service 小品

喵叔

7月日更

腾讯被罚了!!!

Jackpop

为了10亿美元,OpenAI不惜“出卖”了自己的灵魂?_AI&大模型_Alberto Romero_InfoQ精选文章