写点什么

机器学习是科学还是“炼金术”?

  • 2021-07-31
  • 本文字数:2377 字

    阅读完需:约 8 分钟

机器学习是科学还是“炼金术”?

在实证领域,科学的严谨性是从假设开始塑造的。


业界对机器学习研究的科学严谨性的质疑声越来越多了。


在 2017 年 NIPS 会议上的一场演讲中,当时就职于谷歌 AI 的 Ali Rahimi 和 Ben Recht 认为 ML 已经成为了一种炼金术,也就是说从业者使用的方法在实践中表现很好,但在理论层面上对这些方法的理解却相当欠缺。类似地,Keras 深度学习库的作者 Francois Chollet 认为当今的 ML 从业者都有“货物崇拜”的思想,人们依赖的都是“民间传说和魔法咒语”。


炼金术、货物崇拜、魔法咒语。对于一个发展如此迅速、在现实世界应用越来越广泛的领域来说,这些都是值得关注的批判意见。而且正是这种广泛应用的局面让 Rahimi 和 Recht 感到忧心忡忡:


如果你构建的是照片共享服务,那么就算用的是炼金术也无所谓。但我们现在正在构建的系统会管理医疗保健和政见发表等事务。我希望我们世界的系统应该建立在严格、可靠、可验证的知识基础上,而不是用什么炼金术来充数。


机器学习是一个实证领域:我们根本没有什么理论可以解释为什么某些方法行之有效,而其他方法却行不通,我们甚至不清楚这样的理论是否会存在。但缺乏理论这一事实本身实际上并不是主要问题。即使在实证研究领域,我们也可以用科学严谨的方式取得进展。


我认为科学和炼金术之间的关键区别始于从业者分配给科学假设的角色。

先做假设


ML 从业者需要面对庞大的复杂性,从数据集采样和清理到特征工程,再到模型选择和超参数调整,都涉及非常复杂的过程。对这些部分一点点做调整,然后(通常在测试集上)看看哪种参数组合的效果最好,已成为行业中的常用手段。


但仅靠微调是不足以形成一门科学理论的。与炼金术相比,科学研究的本质区别在于科学假设的作用:科学家首先提出一个假设,然后设计一个实验来检验该假设。然后假设要么被拒绝,要么被接受。无论是哪种结果,我们都能获得新的知识。科学方法是不会预知实验结果的。



相比之下,微调过程不是由假设驱动,而更多是由“直觉”驱动的。如果这样做的目标只是探索一种现象,那也无所谓。但如果这种微调被 HARKing 伪装成科学就很危险了。所谓 HARKing,就是在已知结果后再去提出适合这一结果的假设。


HARKing 很容易误导人,因为它不仅会愚弄研究人员,而且会愚弄整个社区。在最坏的情况下,研究人员可能会对一种算法的不同变体进行大量实验,选出达到预期结果的版本。在实践中,这意味着它击败了最新的最先进基准,然后研究人员使用 HARKing 来证明这个选择是合理的。人们一般称之为 SOTA-hacking。


当然,运行的随机实验越多,它就越有可能仅凭偶然发挥就击败任何给定的基准:这也被称为查看别处效应。更糟糕的是,SOTA-hacking 占用了很多本可用于实际创新的资源。Facebook 工程师 Mark Saroufim 在《机器学习:大停滞》中写道:


在追求一流结果的过程中,我们奖励并鼓励了作为创新者的渐进式研究人员,增加了他们的预算,让他们可以领导更多下属员工或研究生,并行进行更多渐进式研究。



SOTA-hacking


在运行实验之前就提出科学假设,是预防 HARKing 和 SOTA-hacking 的最佳保护机制。在论文“深度学习的HARK一侧”中,作者数据科学家 Oguzhan Gencoglu 及其同事甚至提倡对 ML 研究论文采用“隐藏结果(result-blind)”的提交流程:让科学家先提交他们的科学假设以及实验设计,当假设和设计被接受后他们可以继续进行实验,条件是他们必须公布结果,无论结果是证实还是排除了假设。这是一个极端、不切实际且可能不现实的解决方案,但它肯定会消除 SOTA-hacking 的风险。

ML 可以从物理学中学到什么


随着 ML 研究的发展,我相信它可以从物理学中借鉴很多有益思想。物理学的基本思想之一是先考虑一个更容易解决的小玩具问题,其结果可以在更大、更复杂的问题背景下提供有价值的见解。


这并不是说这些物理风格的实验是不该做的,但做的实验并不会很多。在 NLP 的背景下,值得注意的例子是揭示著名的 BERT 语言模型对转喻多义词或简单的输入序列顺序的敏感性的几项研究。例如,后一项研究发现,当 BERT 在 GLUE 基准任务上训练时,它对词序相对稳健。这表明大部分信号不是来自上下文,而是来自其他线索,例如关键字。


除了玩具问题,另一种强大的实证方法是消融研究。具体来说就是有意在每一次实验中忽略解决方案的一个组成部分,以将关键组成部分与没有实际影响的“花里胡哨”部分区分开来。在 NLP 的背景下,一个很好的例子是 2017 年的著名论文“你需要的只有注意力而已”,它表明语言模型中的递归在存在注意力机制的情况下是多余的。


另一个很好的例子是 2017 年的论文“神经网络架构中文本预处理的作用研究”,该论文表明,除了小写外,常见的文本预处理技术(文本清理、词干提取、词形还原)在下游 ML 中没有提供任何可衡量的模型性能改进。

从炼金术到科学


今天的很多 ML 实践给人的感觉就像炼金术一样。但是,正如我在上述例子中所提到的,即使在不存在理论的情况下,也可以通过某些实验来更深入地了解 ML 的内部运作机制,为这一领域提供更严谨的科学立足点。下面是我对 ML 从业者提出的 3 条建议:


  • 在做任何实验之前先明确你的假设。抵制 HARKing 和 SOTA-hacking 的诱惑。

  • 要有创造性:先考虑特定的玩具问题,这些问题可以用来确认或排除社区(隐含或明确)做出的假设。

  • 使用消融研究来确定 ML 解决方案的关键部分,并消除方案中“花里胡哨”的部分。


最后,我希望随着 ML 研究的发展,业界的关注点将从目前追求突破性能基准的风潮转向更基础的原理探索领域。毕竟,科学是对知识,而非胜利的追求。我同意 Rahimi 和 Recht 的观点,他们写道:


想想你在过去一年中就为了搞定一个数据集进行了多少次实验,或者做那么多实验只是为了看看一项技术是否会给你带来提升。现在你应该好好思考一下你的实验,设法对实验观察到的令人费解的现象给出合理的解释。我们以前的重心都放在了突破纪录上,以后应该多关注理论和机制了。


原文链接:


https://towardsdatascience.com/machine-learning-science-or-alchemy-655bea25b227

2021-07-31 10:002848
用户头像
刘燕 InfoQ高级技术编辑

发布了 1112 篇内容, 共 601.1 次阅读, 收获喜欢 1982 次。

关注

评论

发布
暂无评论
发现更多内容

怎么用AI完成海报设计?3个常用AI工具盘点推荐!

职场工具箱

AI 海报生成 AIGC AI绘画 效率软件

AI正在悄悄学坏?Anthropic首次披露潜意识微调的风险——慢慢学AI161

AI决策者洞察

大模型,意识

从多引擎到统一平台:去哪儿网的 StarRocks 实践

StarRocks

数据库 OLAP StarRocks 数据查询 MPP 分布式数据库

【开源项目】基于Rust实现沪深交易所流式二进制协议

歆晨技术笔记

rust 二进制 #交易所

吴恩达谈数据为中心的AI革命

qife122

人工智能 数据工程

手工电商平台如何利用AI和向量搜索优化产品描述

qife122

AI生成内容 电商优化

GPT OSS 双模型上线,百度百舸全面支持快速部署

Baidu AICLOUD

GPT 开源大模型 推理部署

使用观测云打造企业级监控告警中心

观测云

监控告警

Awesome ChatGPT Prompts - 提升AI对话体验的精选提示库

qife122

开发者工具 ChatGPT

基于生成式AI的设备维护推荐系统构建指南

qife122

知识库 生成式AI

我是如何操纵Bugcrowd平台排名的 - 漏洞挖掘技术解析

qife122

漏洞挖掘 平台安全

统一平台全面保护:NinjaOne收购Dropsuite的技术意义

qife122

数据备份 IT管理

校园里的女开发者,想当小富婆

脑极体

AI

GraphQL API漏洞挖掘实战:漏洞赏金案例分析

qife122

网络安全 graphql

基于加密数据的机器学习模型构建

qife122

同态加密 数据隐私

实时检测机器人广告点击的深度学习技术

qife122

深度学习 实时检测

Alexa语音识别技术在英语学习中的应用

qife122

语音识别 数据增强

MS10-020:SMB客户端漏洞修复与防护策略详解

qife122

网络安全 漏洞修复 防火墙配置

可信机器学习中心首批研究项目揭晓

qife122

联邦学习 隐私保护

[鸿蒙征文]鸿蒙 ArkTS AppStorage 数据同步失效:五大原因与高效解决策略

谢道韫

鸿蒙 HarmonyOS HarmonyOS NEXT

StarRocks 亮相 Cloudera 新加坡 EVOLVE25 大会,携手行业领袖探索 AI 创新未来

镜舟科技

cloudera 云原生 StarRocks 数据与 AI 湖仓分析

Meta 收购 AI 音频初创 Waveforms;物业和医疗语音公司 EliseAI 获 a16z 领投,估值 20 亿美元

声网

Fabarta个人专属智能体:三维搜索链+动态大纲重构教材开发范式

Fabarta

人工智能 智能体 agent

国产大模型Qwen3-32B完全本地化实战:LangChain + vLLM 构建企业级智能体核心引擎

测吧(北京)科技有限公司

IM即时通讯聊天系统开发源码丨IM聊天软件开发架构设计

l8l259l3365

一键上云不是梦!Apache Dubbo 发布微服务集群部署与全新控制台

阿里巴巴云原生

Apache 阿里云 微服务 云原生 dubbo

【跨国数仓迁移最佳实践5】MaxCompute近线查询解决方案助力物流电商等实时场景实现高效查询

阿里云大数据AI技术

人工智能 大数据 查询优化 批处理 数据迁移

MCP+LLM+Agent:企业AI落地的新基建设计

测吧(北京)科技有限公司

硅芯片创新如何成为某中心云服务的"秘密武器"

qife122

云计算 机器学习加速

基于某中心Bedrock的DIVA物流智能助手技术解析

qife122

人工智能 生成式AI

EMET安全工具更新:社区驱动与客户导向的技术演进

qife122

EMET 微软安全

机器学习是科学还是“炼金术”?_AI&大模型_Samuel Flender_InfoQ精选文章