写点什么

最强假新闻生成器 GPT-2 终于开源完整版本,15 亿参数模型全部公开

  • 2019-11-06
  • 本文字数:2765 字

    阅读完需:约 9 分钟

最强假新闻生成器GPT-2终于开源完整版本,15亿参数模型全部公开

时隔九个月,GPT-2 的阶段性开放终于进入尾声。北京时间 11 月 6 日,OpenAI 正式放出 GPT-2 最后一个部分的完整代码——包含 15 亿参数的最大版本。

按照 OpenAI 方面的说法:公开完整版本确实与模型滥用的调查结果有关。虽然经过多方求证发现,GPT-2 存在被极端组织恶意使用的可能,但是目前没有证据直接证明 GPT-2 已经遭到了滥用。

“最强 NLP 模型”GPT-2 完整开源

经历了被追捧为“最强 NLP 模型”、因为不开源遭到全网吐槽、宣布部分开源等一系列大事件之后,今天,OpenAI 终于公开了 GPT-2 最大最完整的15亿参数版本


照例先放上开源地址:https://github.com/openai/gpt-2


在此之前,OpenAI 已经发布了三种 GPT-2 模型:“小型的”1.24 亿参数模型(有 500MB 在磁盘上 ),“中型的”3.55 亿参数模型(有 1.5GB 在磁盘上 ),以及 7.74 亿参数模型(有 3GB 在磁盘上 )。


作为 GPT-2 分段发布中的最后一轮,此次公开的完整 GPT-2 包含 15 亿条参数,其中包含用于检测 GPT-2 模型输出的全部代码及模型权重。OpenAI 在官方博客上表示:


自今年 8 月以来,我们一直遵循初始分段发布计划,通过越来越大的语言模型帮助社区获取准确度更高的可测试案例。我们希望这一测试案例能够帮助开发人员构建起功能更强大的后续模型,同时也积极与 AI 社区就发布责任问题开展对话。


除此之外,OpenAI 还公布了有关 GPT-2 的一些新发现,其中包含了公众最为关心的滥用等问题。

有关 GPT-2 的新发现

  1. 人们发现 GPT-2 的输出质量令人信服。


作为合作伙伴,康奈尔大学的研究人员对 GPT-2 使用受众进行了调查,希望根据不同规模的模型版本为 GPT-2 生成文本进行质量评分。人们给 1.5B 模型给出的“可信度得分”为 6.91 分(满分 10 分),略高于此前的 774M 模型版本(6.72 分),同时大大高于更早的 335M 模型版本(6.07 分)。正因为评分逐步提升,OpenAI 才决定发布最终的 1.5B 模型,将完整的 GPT-2 展现在公众面前。


  1. GPT-2 经过微调后可能被滥用。


作为合作伙伴,米德尔伯里国际研究中心下辖的恐怖主义、极端主义与反恐中心(CTEC)研究人员们发现,极端主义团队可对 GPT-2 进行滥用,特别是结合四种意识形态立场对模型做出微调,分别为:白人至上主义、马克思主义、圣战伊斯兰主义以及无政府主义。


CTEC 的研究结果显示,微调后的模型足以为这些意识形态快速生成综合性宣传素材。他们还证明,尽管合成输出结果相当具有迷惑性,但基于 ML 的检测方法仍可帮助专家分辨出由 GPT-2 生成的伪造消息。


  1. 检测难度颇高。


OpenAI 认为,对基于内容的合成文本进行检测将是一项长期挑战。为了测试机器学习方法是否有助于解决这个难题,研究者进行了内部检测研究,并开发出一种检测模型。面对由 GPT-2 1.5B 生成的文本,这套模型能够带来 95%的检测成功率。(注 1)


具体来讲,OpenAI 选择立足 RoBERTaBASSE(1.25 亿条参数)与 RoBERTaLARGE(3.55 亿条参数)建立起序列分类器,并通过微调使其获得对 GPT-2 1.5B 模型与 WebText(用于训练 GPT-2 模型的数据集)输出结果的分类能力。


OpenAI 认为,对于单项检测而言,这样的准确率还无法令人满足,必须同时结合基于元数据的方法、人为判断以及常识教育才能进一步提高效果。为此,OpenAI 选择发布完整版模型,希望协助各方共同研究对合成文本的检测方法。当然,OpenAI 方面也承认全面发布同时也会让恶意人士有机会进一步提高检测逃避能力。


此外,OpenAI 发现,检测准确率在很大程度上取决于训练及测试中使用的具体采样方法,但同时,在使用多种采样技术进行训练时,检测结果将更加可靠。如下图所示,规模越大的模型,其输出结果越是难以分类。但是,利用这部分输出进行训练,则可提升检测结果的准确率与可靠性。OpenAI 预计这种趋势将长期存在,随着模型规模的增大,检测难度也将同步提升。



各模型版本检测准确率(核样本)


  1. 到目前为止,尚未发现明确的滥用迹象。


尽管 OpenAI 的研究人员已经围绕 GPT-2 在大规模生成垃圾邮件与网络钓鱼信息等高批量/低收益操作方面的潜力进行了讨论,但截至目前并未发现任何明确的代码、文档或者其他滥用实证。他们认为,随着合成许可证生成器在输出质量上的持续提升,遭到滥用的可能性确实会同步提高,同时也承认,OpenAI 无法及时发现所有潜在威胁,而有动机的参与者也不太可能发布自己的微调语言模型。


  1. 在偏见研究方面,需要建立标准。


语言模型永远存在偏见。对于 AI 研究界而言,为此类偏见制定出研究方法、开展讨论并加以解决已经成为一项重要但难以克服的挑战。OpenAI 通过以下两种方式尝试解决偏见难题:


  • 发布模型卡(注 2)

  • 这一模型卡以 Mitchell 等人提出的“用于模型报告的模型卡”理论为基础。

  • 我们同时在 GitHub 上发布模型代码,希望帮助大家对语言模型(例如 GPT-2)存在的固有问题建立理解。

  • 对 GPT-2 中存在的某些偏见做出内部定性评估:我们利用评估结果通过模型卡对 GPT-2 在性别、种族以及宗教方面的偏见作出探究。当然,这些调查并不全面,还需要配合其他偏见分析框架。

下一计划

OpenAI 在博客中表示:


过去九个月以来,我们在 GPT-2 开发方面的经验,帮助我们为 AI 模型负责任发布工作中存在的挑战与机遇建立起宝贵的见解。我们也参与到 Partnership on AI 的“机器学习负责任发布规范”项目当中,希望通过合作关系与研究界的同行们共同讨论,为解决模型发布问题贡献力量。

讨论仍在继续:GPT-2 好用吗?安全吗?

HackerNews 网站上,有关 GPT-2 的讨论一直没有停止。在 15 亿参数版本发布后,更多参与者加入了话题讨论


中。


目前的讨论者分为两个主要阵营:

尝鲜派:GPT-2 好用吗?在哪儿用?

这一类讨论者主要在研究 GPT-2 的实用性,一些开发者也附上了自己的做的测试模型,感兴趣的读者可以前去体验:


http://textsynth.org/


https://talktotransformer.com/


当然也有一些讨论者提出:GPT-2 开放代码的可读性较差,有不少意义不明的内容,在生成文本的时候,甚至会出现一些常识性的错误等等。这些问题让部分讨论者质疑 OpenAI 放出的有可能是微调过的“阉割版”。

激辩派:GPT-2 安全吗?

这一派讨论者主要将目光聚焦在 GPT-2 的安全性上。毕竟官方也已经承认:确实存在安全隐患。大部分讨论者的观点都认为:GPT-2 完全开放后,必然会引发一阵滥用风潮。其中不乏一些激进人士的观点。


AI 前线早先发布的一篇文章中,作者曾对 GPT-2 的威胁论进行过探究,他认为 GPT-2 被滥用的可能性遭到了过分夸张。当然,作者当时测试用的也并非是完整版本,不知道在使用过完整版一段时间后,他的看法会不会有所改变。

注释

  1. 具体来讲,OpenAI 立足 RoBERTaBASSE(1.25 亿条参数)与 RoBERTaLARGE(3.55 亿条参数)建立起序列分类器,并通过微调使其获得对 GPT-2 1.5B 模型与 WebText(用于训练 GPT-2 模型的数据集)输出结果的分类能力。

  2. 这一型卡以 Mitchell 等人提出的“用于模型报告的模型卡”理论为基础。


2019-11-06 15:135303
用户头像
陈思 InfoQ编辑

发布了 576 篇内容, 共 279.9 次阅读, 收获喜欢 1301 次。

关注

评论

发布
暂无评论
发现更多内容

漫画:Integer 竟然有 6 种比较方式?

王磊

Java 编程 漫画 java编程 漫画编程

架构师训练营第五周作业 设计分布式缓存系统

Melo

极客大学架构师训练营

重学 Java 设计模式:实战模版模式「模拟爬虫各类电商商品,生成营销推广海报场景」

小傅哥

Java 设计模式 小傅哥 重构 代码规范

ES5、ES6中继承的几种写法

Manito

Java

一致性哈希实现

娄江国

极客大学架构师训练营

架构师训练营第 5 周作业——一致性Hash算法

在野

极客大学架构师训练营

第5周作业

田振宇

小师妹学JVM之:JVM中的Safepoints

程序那些事

Java JVM 小师妹 性能调优 签约计划第二季

Tomcat 架构原理解析到架构设计借鉴

码哥字节

Tomccat 「Java 25周年」

视读——沟通的艺术,看入人里,看出人外(第一章)

废材姑娘

读书笔记 视觉笔记

架构师训练第五周

Hanson

缓存、一致性哈希和负载均衡总结(训练营第五课)

看山是山

缓存 极客大学架构师训练营 一致性hash

高性能系统设计

dapaul

极客大学架构师训练营

第五次作业

王锟

架构师课程第五周总结

dongge

可变对象和不可变对象

Leetao

Python Python基础知识

华为厦门DevCloud创新中心正式揭牌,“上云用数赋智”新助力

Geek_116789

B站Up主自制秃头生成器,一键get张东升同款发型,网友:秃的太过真实

程序员生活志

程序员 B站 隐秘的角落 张东升 秃头生成器

【第九课 + 第十课】技术选型:缓存架构 + 消息队列与异步架构

Aldaron

一致性hash算法及java实现(转载,学习了)

王锟

嗯?阿里为啥不用 ZooKeeper 做服务发现?

Java小咖秀

zookeeper 分布式 技术人生

IOTA架构实战:大数据即时多维查询引擎构建【视频】

易观大数据

大数据 架构模式 查询引擎 数据算法

实现一致性哈希算法

Aldaron

架构师训练营:第五周作业-一致性 hash实现

zcj

极客大学架构师训练营

面试官:为什么 HashMap 的加载因子是0.75?

哪吒来踢毽子

hashmap

golang实现基于虚拟节点的一致性hash算法

朱月俊

分布式缓存总结

朱月俊

架构师训练营第五周作业 一致性哈希

sunnywhy

架构师训练营-第五周-命题作业

sljoai

极客大学架构师训练营 第五周

真懂Spring的@Configuration配置类?你可能自我感觉太良好

YourBatman

Spring Boot Spring Framework @Configuration Spring配置类

架构师训练第五周一致性Hash

Hanson

最强假新闻生成器GPT-2终于开源完整版本,15亿参数模型全部公开_AI&大模型_OpenAI官博_InfoQ精选文章