写点什么

史上最强 NLP 模型不开源惹众怒,马斯克亲自回应

  • 2019-02-19
  • 本文字数:3494 字

    阅读完需:约 11 分钟

史上最强NLP模型不开源惹众怒,马斯克亲自回应

上周,OpenAI 推出的新通用语言模型 GPT 2.0 引起了一场风暴。该模型被称为“史上最强通用 NLP 模型”,可以生成连贯的文本段落,刷新了 7 大数据集基准,并且能在未经预训练的情况下,完成阅读理解、问答、机器翻译等多项不同的语言建模任务。

然而,由于 OpenAI 没有将之开源的计划,很快被技术社区声讨。这股讨论的浪潮延续至今,讨论的重心从不开源的决定是否正确,转移到模型本身是否被过誉,直至今天,有人质疑这条新闻引发病毒式传播可能只是一场秀。

GPT 2.0 不开放引发社区声讨

近日,由非营利性人工智能研究公司 OpenAI 创建的一种新语言模型 GPT 2.0 正在酝酿一场风暴,在技术社区和社交网络引起了广泛讨论。让人哭笑不得是, OpenAI 称,因为这个文本生成器性能太好了,他们担忧这项技术会被滥用,因此决定暂不将该模型开源。


随后,整个世界为之疯狂,这条新闻成为了媒体上最热门的消息,一时间各种报道蜂拥而来。


这些报道包括 OpenAI 将其私有化的做法激怒了社区中的一些人,指责这违背了该公司开放其研究的承诺。


在过去的几天里,社区中的一些著名研究人员抨击了 OpenAI。其中巴伊兰大学计算机科学系高级讲师 Yoav Goldberg,加州大学伯克利分校助理教授 Ben Recht 以戏谑的口吻批判,英伟达机器学习研究院主任 Anima Anandkumar 则发表了更为严厉的批评,指责实验室使用“太危险而无法发布”的说法只不过是吸引媒体关注的诱饵。



这里说明一下,我们的实验室在语言理解方面取得了重大突破,但是我们担心它会被滥用,所以决定将其分割,只发布其中的“ACL”。感谢团队的贡献。



PS:目前论文还在 arxiv 审核中,这或者是因为终版 pdf 太大,或者 arxiv 和 OpenAI 一样,认为所有 AI/ML 研究发布太过危险。



这就是一个非黑即白的问题。你们在利用媒体炒作语言模型。关于这个话题的研究有很多。你们声称研究结果效果惊人却只让记者了解个中详情。应该有知情权的是研究人员而不是记者。


但也有人持更加宽容的态度,称此举是一个“新的道德标准”,可以在可能的滥用发生之前进行充分思考。


OpenAI 的政策主管 Jack Clark 回应称,该组织的首要任务是“杜绝恶意或滥用该技术”,“取得平衡非常艰难”,不开放数据、模型和源代码是因为担心有人利用该技术假冒他人或制造假新闻。

马斯克回应争议,重申已离开 OpenAI


随着 OpenAI 陷入口水仗,OpenAI 的资助者之一埃隆·马斯克(Elon Musk)也陷入了争议之中。对此,马斯克坚决表示“这锅我不背!”在今天的一条推文中,他表示“没有参与 OpenAI 公司事务已超过一年”,目前它专注于特斯拉和 SpaceX 的管理。他表示,由于与 OpenAI 团队在一些问题上意见不合,他与该公司已经“和平分手”,疑似回应与 GPT 2.0 相关的争议。


看到这里,GPT 2.0 引发的争议还真是不少。那么,除了上面的热闹之外,我们透过现象看本质,真正应该关心的是这些问题:GPT 2.0 是什么?GPT 2.0 是否被过度赞誉?以及这条新闻的火热是否只是一场炒作?

问题 1:GPT 2.0 是什么?

首先,GPT 2.0 是什么?这个模型是否真的有那么神奇?


简单来说,为进行推理,语言模型将概率分配给单词序列。 通常,他们通过链规则表达这种概率,作为每个单词概率的乘积,以其前因



为条件。或者,人们可以向后训练语言模型,从后向前预测每一个词。 在训练语言模型之后,通常 1)使用它从左到右迭代解码来生成文本,或者 2)将其微调到一些下游监督学习任务。


训练大型神经网络语言模型并随后将它们应用于下游任务已经成为当代 NLP 研究一项非常耗费资源的任务。


在 2018 年的 NAACL,AllenNLP 发布了 ELMo(https://allennlp.org/elmo),这是一个由 10 亿字 benchmark 训练的大规模前向和后向语言模型组成的系统。他们证明了该模型可用于在许多下游任务中实现最优性能。


随后,谷歌研究人员发布了 BERT(https://ai.googleblog.com/2018/11/open-sourcing-bert-state-of-art-pre.html),这是一个使用 Transformer 架构,与语言建模目标略有不同的填空学习目标模型。


如果你从事 NLP 领域的工作,在过去一年中可能听到“ELMo”和“BERT”的次数比听到自己的名字还多。在 NLP 文献中,由于这些技术的普及,它们已成为名副其实的停用词。


AI 前线注: 停用词 Stop Words,是指在信息检索中,为节省存储空间和提高搜索效率,在处理自然语言数据(或文本)之前或之后会自动过滤掉某些字或词。


12 月,Google 的 Magenta 团队研究深度学习的创新性应用,将 Transformer 架构应用于“语言建模”任务,生成了音乐而不是文本(https://magenta.tensorflow.org/music-transformer)。成果的连贯性非常可喜。


快退到周四:OpenAI 在一个名为 WebText 的大型新数据集上训练了一个大型语言模型,该数据集包含爬取自 4500 万个链接的数据。研究人员构建了一个有趣的数据集,使用现在标准的工具,生成了令人印象深刻的模型。经过在许多下游零射击学习任务上进行评估,该模型通常优于以前的方法。同样值得注意的是,与 Music Transformer 的结果一样,生成的样本似乎比以前的结果更连贯。这样的结果很有趣,但并不令人惊讶。


它们代表着 NLP 向前迈出的一步,整个社区已经走上了这条道路。

问题 2:GPT 2.0 是否被过誉?

其实,GPT 2.0 虽然一夜爆红,但却不是一日之功,GPT 比 BERT 还更早出现,但却没有像 BERT 一样一出世就受到广泛的关注。



本质上来说,GPT 2.0 的大框架其实还是 GPT 1.0 的框架,但是把第二阶段的 Finetuning 做有监督地下游 NLP 任务,换成了无监督地做下游任务,最大的改进就在于把 Transformer 模型参数扩容,参数规模达 15 亿,这个规模前所未有。有关 GPT 2.0 和 GPT 1.0 更详细的信息,请参考《效果逆天的通用语言模型GPT 2.0来了!它告诉了我们什么?》


总的来说,GPT 2.0 作为语言模型,用来生成自然语言句子或者段落的能力特别强,这从 OpenAI 官博上放出的生成示例就可以看出:


“回收对世界不利。这对环境有害,对我们的健康有害,对经济不利。我不是在开玩笑。回收利用对环境不利。它对地球具有破坏性,是全球变暖的主要原因。回收利用对我们的健康不利。它导致肥胖和心脏病和癌症等疾病。回收利用对我们的经济不利。它增加了产品的成本,反过来又提高了产品的价格。回收利用对我们国家不利。我们为拥有世界上最先进和最有效的回收系统的特权付出了巨大的代价。回收浪费了大量时间、精力、金钱和资源。“


回收对世界有益,几乎每个人都同意这个观点,但是 GPT 2.0 反其道而行,难怪 OpenAI 担心发布模型会导致这项技术被滥用。



GPT-2在Winograd Schema,LAMBADA和其他语言建模任务上达到了最先进的水平。


在前面提到的文章中,新浪微博资深算法专家张俊林表示,对于 GPT 2.0 的改进方向来说,如何加入情节约束,产生特别好的生成文章,这是个很有前途的方向。而在这点上,GPT 2.0 的贡献是给我们指出了一条路,就是 Transformer+ 刷数据量,省心省力费机器的一条路。另外,Transformer 之前在语言模型上通常做不过 RNN,虽然有后续研究表明它可以达到 RNN 类似的效果,但是 GPT 2.0 无疑进一步突破了这个障碍,为 Transformer 的进一步攻城略地打下了坚实的基础。


从这一角度来说,GPT 2.0 的性能不能被认为是过度赞誉。

问题 3:OpenAI 是否在炒作?

那么,OpenAI 不公开数据和源码究竟是不是如上文 Anima Anandkumar 所说是一场炒作呢?一方面,OpenAI 经常谈到他们对“AI”技术落入坏人手中的担忧,结合这个模型生成的假文章,他们的担忧似乎合理。另一方面,OpenAI 向来喜欢哗众取宠,经常通过官博将不成熟的工作推向公众视野以博取关注。


这些例子包括诱导《纽约时报》报道了其本质上平平无奇的发现,即如果强化学习用了错误的目标函数,就学不到让你满意的策略(https://www.nytimes.com/2017/08/13/technology/artificial-intelligence-safety-training.html)。


毕竟,这些重大故事与 OpenAI 博客上的新闻稿一脉相承,OpenAI 可能会故意策划了这么一出,让媒体大肆报道。


实际上,这项工作似乎是主流 NLP 研究的中间阶段,这是一项很好的工作,也很可能会被公布,在未来一两个月内,同样强大的 NLP 实验室可能会出现同样的成果。


也许,这篇博客会在媒体上形成病毒式传播与当今新闻的供需生产模式有关,按需生产的新闻已经非常常见,官方 PR 博客已经成为新闻生产的可靠消息源,从而广为传播。


但笔者认为,即使是使用了一些 PR 的手段,也掩盖不了 GPT 2.0 出色的语言生成性能,一项好的研究成果首先应该被人所知,才能发挥应有的作用,而不是默默躲在黑暗的角落等待被发掘。


参考链接:


http://approximatelycorrect.com/2019/02/17/openai-trains-language-model-mass-hysteria-ensues/

延伸阅读

《效果逆天的通用语言模型GPT 2.0来了!它告诉了我们什么?》


更多内容,请关注 AI 前线。



2019-02-19 07:554802
用户头像

发布了 42 篇内容, 共 14.5 次阅读, 收获喜欢 53 次。

关注

评论

发布
暂无评论
发现更多内容

QLab Pro v5.4.1激活版 mac演出控制软件 广泛应用于戏剧、舞蹈、歌剧和其他现场表演

Rose

Ample Sound Ample Guitar PF 吉他原声多类型音频工具

Rose

哪里有好用的mac硬盘测速工具?试试Blackmagic Disk Speed Test免费版

Rose

Adobe ai 2024中文破解版资源 mac/win

Rose

数据迁移到 Django 模型表:详尽指南

我再BUG界嘎嘎乱杀

Python django 数据迁移

蓝易云 - javaee springMVC数字类型转换之通过注解的方式

百度搜索:蓝易云

云计算 服务器 云服务器 Spring MVC Java EE

AI 驱动的视频增强工具Topaz Video AI for mac v5.1.4注册激活版

Rose

好用的保护电池健康的小工具 AlDente Pro for Mac v1.27激活版

Rose

获取欧洲杯赛程数据的有效方法,以及如何开发体育直播平台

软件开发-梦幻运营部

热仿真分析服务 散热仿真分析代做

Geek_2d6073

Navicat Premium 17 轻松地管理和维护数据库,提高数据处理效率。

Rose

AutoCAD 2024 mac破解版 附cad2024注册机

Rose

YouTube mac(YouTube客户端)v1.22中文激活版

Rose

【重磅】华为云盘古大模型5.0,正式发布!

华为云开发者联盟

华为云 华为云开发者联盟 华为开发者大会 华为云盘古大模型 企业号2024年6月PK榜

Photomator for mac 强大的色彩调整功能、对 650 多种 RAW 图像格式的支持

Rose

如何通过京东API优雅地获取商品评论数据

Noah

云行 | 天翼云中国行走进甘肃,智绘数字陇原新图景!

科技热闻

GitHub飙升!京东认证的“Python编程入门三剑客”究竟好在哪?

我再BUG界嘎嘎乱杀

Python 编程 入门 开发语言 零基础

蓝易云 - 6元一年的云服务器

百度搜索:蓝易云

Linux 运维 服务器 云服务器 托管

史上最强NLP模型不开源惹众怒,马斯克亲自回应_开源_陈利鑫_InfoQ精选文章