本文最初发表在 Towards Data Science 博客上,经原作者 Luke Posey 授权,InfoQ 中文站翻译并分享。
随着工具和基础设施的成熟,应用人工智能不断加速发展。将这些基础设施与强大的人才库和热情、随时可获得的资本以及客户采用人工智能/机器学习的高度意愿结合起来,你就有了一些特别的东西。我们正在迈向一个新的十年,在这个十年里,人工智能/机器学习将以更快的速度为消费者和企业创造真正的价值。
定义术语
应用人工智能 :任何与将人工智能研究从实验室带到用例,以及两者之间的一切有关的事情。从基础设施和工具,到硬件,到工业中的部署面,再到模型本身,从人工智能研究的前沿到用例,都需要共同努力才能取得尖端进展。在我们这个领域中,成熟度的一个很好的检验标准,就是看一个新的进步从纸上到生产所需的时间。就在几年前,你还可以浏览该领域的一些主要进展,并努力寻找真正的用例;这种情况正迅速开始改变。
一些选择例子:
神经网络研究实现自动驾驶汽车(Tesla、Cruise、Waymo 等)。
像 BERT 和 GPT-2/3 这样的自然语言处理改进了搜索和助理(Google Search、Siri、Google Assistant、SoundHound、Clinc)。
强化学习帮助许多公司实现人工智能在工业机器人领域许下的崇高承诺(Covariant、FogHorn、Rethink)。
用于欺诈检测和消费者结果的机器学习帮助银行、信用卡和贷款机构限制欺诈和管理风险(银行、信用卡、Verifi、Ravelin、Stripe 的反欺诈部门)。
生成对抗网络可以生成新鲜的内容、逼真的面孔并提高照片质量(generated.photos、rosebud.ai、RunwayML)。
从研究到生产,需要的远不止是一个模型。要使这些东西发挥作用,需要在研究和工程两方面的努力齐头并进。它需要硬件,需要可扩展的主机,需要 DevOps,需要强大的数据科学,等等。值得庆幸的是,越来越多的初创公司正在为每个构建块构建解决方案,随着越来越多的工具开源,大公司(如 Uber 和 Netflix)也加入其中。
我们将会记住那些发明了新模型的全明星人物们,但是那些将其全部转化为生产代码的工程师们,那些为你创建下一个数据集的标注员们,以及那些声嘶力竭地反对违反安全和人权的抗议民众,都应该记住他们在这一领域所做的贡献。
为什么是现在?
我们看到人工智能用例的巨大机会正在各个行业涌现。随着工具和基础设施的成熟,任何可以编写几行代码的人,都可以获得新机会。无论是对现有市场的破坏,还是对新市场的创造,都是由采用驱动的。
我们已经看到机器学习在搜索引擎、信用卡欺诈检测、智能手机摄像头以及现代市场的激增。随着传统公司投资于使用机器学习来扩充他们的产品和流程所需的工具和团队,我们开始看到越来越多的 企业采用这一方法。
在本文中,我们不仅将介绍人工智能是如何使我们喜爱的产品和特性在数字世界中得以实现的,还将探索应用人工智能是如何改变工作流程、创造新机会,以及如何在制造业、建筑业、供应链和商业领域等解放劳动力的。我们将深入探讨这一领域的当前趋势,同时也会对事物的发展方向持某些立场。
通常,我们可以识别出由某种新技术或新事件促成的创新浪潮。在过去的十年里,我们看到了人工智能的拐点,将我们从一堆炒作变成了真正的用例,从而推动了整个行业的价值。
那么,为什么现在是人工智能/机器学习新一波价值浪潮的拐点?
工具和基础设施的成熟
规模化训练和服务的可及性
作为 API 的大型模型
继续获得风险资本、研究资助和政府利益
工具和基础设施的成熟
随着最佳实践、工具和基础设施开始成熟,可及性也在显著增加。在基础设施和工具方面,高级团队或大型开放元吗工作仍然是常态。在实际应用中,我们看到了由初级工程师、初出茅庐的统计学家和企业家创建的成功初创公司,他们愿意在泥沙中筛选,以使他们的应用发挥作用。同时,也请向那些有意参与这一波机会浪潮的 MBA 们问好。
此外,人才的涌入、更好的课程和培训计划,以及整个运动背后的大肆宣传,使得聘请一名优秀的数据科学家或机器学习工程师不再是一项外层空间的任务。正因为有了更好的工具,数据科学家和机器学习工程师才可以做得更专业、更深入,而且非常高效。而且,大多数 MVP 可以用现成的模型或者使用 Scikit-Learn、Keras 之类的美观且易于访问的库来构建。我们可以开 clf.fit()
的所有玩笑,但事实上,只需几行代码就可以构建出真正有价值的实际模型,这是一件好事。当一个领域的自身成员开始炮轰所有的“冒牌工程师”和“假数据科学家”时,他们真正想说的是“ 我很恼火,以前我需要几周才能完成的工作,现在小菜鸟只用几个小时就能做出来,岂有此理! ”
而硬件的获取,不再是一个障碍。对于有进取心的个人来说,有大量的免费计算时间可用。早期的 MVP 以前可能需要一些引导或天使的帮助,大多数非研究性的想法都可以起步,主要的障碍因素是数据的获取。这是一件 非常好的事情 。值得庆贺的是,训练模式的主要障碍不再是小众技能或访问昂贵的基础设施了。
我们目睹了围绕少数核心产品的基础设施正在全面整合。AWS、GCP 和 Azure 在这一波浪潮中显然是赢家,NVIDIA 和 Intel 的硬件占据了数据中心的主导地位。我们也看到一些公司涌入这个领域,采取更多利基方式,比如更清洁的训练+部署(参见 Paperspace 和 FloydHub)。
显然,我们都非常熟悉 TensorFlow、PyTorch、Scikit-Learn 和其他主要建模工具。在整个行业中,我们看到了对于大多数建模工作流,Jupyter 和各种克隆版本继续占据主导地位。在数据科学家繁重的工作流和机器学习工程师的工作流之间也存在明显的分歧,机器学习工程师们将时间花在 IDE 的选择上,而建模工程师则将更多的时间花在 Jupyter,以及像 Colab、Deepnote、Count 等具有特定优势的项目上。
这些工具仍然是生态系统的核心。但是在过去的五年里,最大的推动因素也许是部署和服务。Docker 和 Kubernetes 仍然是生态系统的核心,而许多工具也加入了他们自己独特的价值支柱。Kubeflow 正在迅速获得人气,而 TensorFlow 服务、MLFlow、BentoML、Cortex 和其他公司也在争夺类似的市场份额,他们试图通过使所有建模工程师能够以最小的努力使其模型投入生产。“只需几行代码即可部署模型”是许多项目的口号。易于部署对于获得客户非常重要;可扩展性和维护性是长期留住客户的关键因素。
这种创新是意料之中的,因为一般的数据科学家和不太注重工程的机器学习工程师可能不太愿意在 DevOps、容器编排、扩展等方面耗费太多的时间。而且,许多团队在组建他们最初的核心团队时,都没有雇佣大量的工程人才。因此,里程可能会有所不同。
我倾向于将机器学习的研究工作大致分为以下几个阶段来看待。过去,我们被迫自己构建许多这样的阶段,或者完全忽略某些步骤(比如混乱的版本控制、不存在的 CI、手动扩展、只有在模型被明显破坏时才进行维护等)。值得庆幸的是,许多团队正在努力简化我们的生活,几乎每一步都是如此:
数据管理、模式、数据集版本控制
模型定义、训练和评估
序列化、服务化
部署、CI/CD 和模型版本控制
监控和维护
在某些情况下,上述工作是相互独立的。但在其他情况下,同一个工具也可以处理流程中的多个步骤。例如,我们可能会看到一个用于服务的工具也可以轻松地处理序列化。在其他情况下,用于训练的库可能与序列化(pickle、joblib、dill、onnx 等)紧密集成。生态系统中有趣的部分是,工具是如何成熟到这样一个程度的,以至于你可以拥有像 BentoML 这样的全套服务工具,但如果需要的话,你也可以有很多其他选项,进行额外的定制。更多偏重于工程的团队可能不会花时间去使用 Bento、Cortex 或其他服务,这些服务是为技术含量较低的用户准备的。而我个人喜欢 BentoML 和 Cortex 这样的工具,因为它们为我们的小团队节省了大量的时间。MLOps 还有很长的路要走。
看起来我们最缺的就是监控和维护这一块。
Christopher Samiullah 很好地总结了 这一点。
很明显,这份列表非常偏向于我过去曾使用过的工具,或者我正在积极使用的工具。一些不是机器学习专用的工具被排除在外。例如,虽然 Airflow 是许多工作流的关键部分,但在这种情况下被排除在外。此外,你还将看到对 Python 生态系统的明显偏见,这可能会让一些人对此感到懊恼。我们还排除了数据库、版本控制等。显然,数据收集和清理是我们工作流的核心,但这个过程的大部分对软件工程来说并不新鲜,况且在别处的介绍比我在本文所讲的要深入得多。我们主要讨论建模工程师和机器学习工程师之外的工具,而不是数据工程师、分析师或商业智能重数据科学工作流。
作为 API 的大规模通用模型
让我们来谈谈 GPT-3 的操作。比起 GPT-3 的成果,我可能并没有那么多兴致,但对这个方法作为其他行业的典范,我却更感兴趣。
我们似乎正在为最大和最佳(通用)模型的军备竞赛做准备。这种规模的计算,对于较小的公司和初创公司来说是不现实的。更小的努力将有利于聪明的优化和研究,推翻越来越多的计算问题。两者的结合在这里似乎是明显的赢家,我预计,领先的建模工作将围绕着一小批拥有巨额资金的公司进行全面整合,这些公司负担得起所需的算力和研究资金。然后,我们将看到一些占主导地位的公司为这些模型提供服务,这些模型是空开的,无需高度专业化的数据即可工作。这些用例可以在全球范围内被各种产品使用。 让我们想象一下 。
未来应用人工智能对关键参与者的潜在整合
GPT-3 就是这种趋势可能走向的一个很好的例子。在短短的几周内,已经有几十个出色的用例使用了 Open AI API。
在整个生态系统中,我们也看到了类似的努力。这种开发模式并不仅限于自然语言处理领域。从长远来看,少数专注于软件/硬件的自动驾驶初创公司可能会让那些不想自己研发的公司赶上那些想自己研发的公司。一个公司能够在不进行研发的情况下利用这些巨大的努力,这是一个重大的胜利。预计将会看到以服务形式提供的各种模型。大规模的模型将会推动大部分创新,越来越小的蛋糕将被越来越多的小众玩家瓜分。随着模型在泛化方面越来越出色,预计对定制建模工作的依赖程度将会越来越低。而且,这些特定于业务的用例与其说是在优化模型,不如说是在收集特定于应用程序的数据集。数据主宰着我们身边的一切。
在(传统)公司的部署
许多“有围墙的花园”将会因为半私有 API 提供安全保障的缺乏而反对。对于那些能够优化大型模型、压缩模型并使不断增长的数据湖易于管理的公司来说,这是一个巨大的机遇。很难相信,传统公司都会要求部署超过 1750 亿个参数的新一代模型。但是,请不要将他们遗忘。
当我们将 PII 引入到这个混合体中,事情就开始变得特别有趣。当你提出让公司将他们的数据从其内部网络发送到某个新的、时髦的 API,却遭到那帮人指着你的脸嘲笑,千万不要对此感到惊讶。只要计算和存储仍然是一项开支,那些能够压缩模型并从较小的模型中得到类似结果的公司,将会保持自己存在的价值。训练和服务的成本将持续大幅削减,但部署成本可能仍然相当高。人工智能公司的利润率仍然低于传统的 SaaS 公司,这在很大程度上是由于这个原因。
“有趣的是,我们在人工智能公司的财务数据看到了一个出乎意料的一致模式,毛利润率往往在 50%~60% 的范围内,远低于类似 SaaS 企业的 60%~80% 以上的基准。”
—— a16z
不要低估小数据
拥有数十亿个参数的大型模型将继续受到热棒。而海量的数据集将继续推动这些被炒作的模型。在现实的工业中,较小的模型在很多用例是必不可少的。在构建边缘场景时,你将面临两个核心决策:
较小或压缩的模型(即 TensorFlow Lite)
远程连接以进行计算
我们可以使用 TensorFlow Lite 等解决方案部署到边缘设备。Hailo、Kneron 和 Perceive 等公司正在为边缘和消费设备提供更好的硬件。硬件创新的步伐可能会超过小型模型的需求。
当远程连接是一项选择时,我们总是可以考虑执行芯片外计算,尽管存在很多障碍和常见的限制,如连接问题和计算时间。在像制造业这样的环境中,这可能是可取的,因为由于过程的稳定性,连接性可能具有更高的保证。我们已经目睹,在安装远程控制系统的地方,5G 工厂如雨后春笋般涌现。无线传感器以无线方式与控制系统通信。不言而喻,远程推理将是这一转变的一部分。还有很多用例,我们可以在这些用例中提交数据、完成其他任务,并在下游任务使用我们的计算结果。让我们想一下制造业,你可以在上游拍摄产品照片,执行转换,然后在下游对产品进行质检。这显然不是自动驾驶这样的实时场景中的选项。
小数据也极具吸引力。为了成功进行概念验证,我们可能会容忍大量的 Type 1 错误,这取决于行业和用例。传感器通常也可能具有侵入性,因此,我们收集数据的时间越短越好。以 Instrumental 公司为例,该公司希望通过最少的例子来解决制造质量问题。
所以,不要低估小数据!
获得资金
风险资本,尤其是风险投资,仍然是未来创新的主要把关者。值得庆幸的是, 在资助人工智能企业的方面,渠道是敞开的。附带提一句,企业数据业务也得到了健康的发展,无论从轮数规模还是看纯轮数的量都是如此。
对于普通的构建者来说,启动机器学习业务变得越来越容易。一个粗略的登录页面,访问 GPT-3(或任何其他预训练模型),一些云计算积分,以及一两条聪明的推文,将让你得到构建和测试概念验证所需的一切。
话虽如此,任何一个还算不错的 PoC 都能很快得到风险投资的资金,因此,大多数人很快丧失自我创业并实现盈利的雄心。这样说是有充分理由的。融资的轮次结束得更快,越来越多的天使基金和微基金使种子前轮和种子轮的资金流动更快。
企业风投(Google Ventures、Salesforce Ventures、Samsung Ventures、Intel Cpital 等)在应用人工智能和一般数据科学领域也非常活跃。这也说得通,因为在企业内部开发这些东西很困难。但风投公司可以帮助母公司找到与他们投资的人工智能初创公司的协同效应。一些高管仍然认为人工智能是一个高风险的赌注,不值得为此专门建立一个组织。如果他们改变主意的话,这些对人工智能初创公司的投资不仅为他们提供了一种潜在方式,使他们可以利用自己错过的新技术,而且也可以作为一个健康的人才来源,要知道,在这一行业中,人才的获取并不总是那么容易。请看看 Intel Capital 等企业风险投资公司最近的投资, 你会发现,人工智能和一般的企业数据公司的交易流起伏不定。
跨技术的机遇
计算机视觉的进步促成了自动驾驶革命、制造业的突破,以及更多。自然语言处理的进步改善了搜索、翻译、知识理解等。我们最近才开始意识到强化学习的可能性、生成对抗网络的潜力,等等。
让我们来探讨一下特定技术方法中的一些机会。之后,我们将以特定行业的方式来探讨机会。观察初创公司可能会做出的选择,即创建一个广泛的技术解决方案与将他们的技术解决方案应用于特定行业,这是一件很有意思的事情。
这些绝不是详尽无遗的清单,甚至都不敢说已经触及了表面。然而,它们应该能够起到启发的作用,让你有一个更高层次的全景观。为简洁起见,我们有意跳过了递归神经网络(Recurrent Neural Network,RNN)、自动编码器和某些其他模型。
计算机视觉
关键技术和流行语 :卷积神经网络(CNN)、Dropout、目标检测(分类+定位)。
前沿用途 :分类、场景理解、跟踪、运动、估计、重建。
优势产业 :汽车、医药、军事、摄影。
样本公司 : Cruise、Cognex。
自然语言处理
关键技术和流行语 :GPT、BERT、DistilBERT、XLNet、RoBERTa、Transformer-XL。
前沿用途 :语音识别、文本生成、语言理解、翻译、问答系统。
优势产业 :很难想象还会有自然语言处理不能发挥某种作用的企业。(虽然我不是自然语言处理主义者!)
样本公司 :Open AI、HuggingFace。
强化学习
关键技术和流行语 :马尔科夫(Markov)决策过程、时序差分学习、蒙特卡洛(Monte Carlo)、深度强化学习、Q-学习。
前沿用途 :游戏、市场、控制、日程安排划。
优势产业(相对未使用) :机器人技术、市场与经济、工业自动化(机器人技术的主要用例)。
样本公司 :DeepMind、Open AI、Covariant。
生成式网络
关键技术和流行语 :变自编码器(Variational Autoencoders,VAE)、生成对抗网络、CycleGAN、DCGAN、cGAN、StyleGAN、生成器、鉴别器、博弈论。
优势产业 :创意与媒体、建模、摄影、视频。
样本公司 :RunwayML、Rosebud.ai、Generative.photos。
跨行业的机遇
每个行业都会从应用机器学习中获益。金融业在很大程度上解决了欺诈问题,制造业解决了一些传统控制无法解决的自动化领域迫在眉睫的问题,电子商务继续从推荐系统发展而来。所有领域的颠覆时机已成熟。下面是样本行业中一些有趣的用例和公司。
制造业
关键技术 :计算机视觉、强化学习、过程优化。
用例 :质量保证、工业自动化、流程改进、预测性维护。
样本公司 :Covariant、Instrumental、FogHorn Systems(此外,Siemens、Rockwell、Cognex 等老牌公司也在积极投资并进行自己的研发,以起到防御作用。
商业
关键技术 :推荐系统、欺诈检测、订单匹配、个性化。
用例 :质量保证、工业自动化、流程改进。
样本公司 :Amazon 的推荐王国是最明显的例子,像 Uber 这样的大型实时市场通过动态定价和路由优化实时匹配,像 Stripe 和 Square 这样的支付平台依赖于欺诈检测。
医学
关键技术 :计算机视觉、排序、递归神经网络和长短期记忆网络、强化学习。
用例 :X 射线和其他成像的分类、药物发现、基因组学、大脑图谱(还有更多!)。
样本公司 :Insitro、Sophia Genetics、Flatiron Health、Allen Institute(非营利组织)。
自动驾驶
关键技术 :计算机视觉、目标检测、语义分割/场景理解。
用例 :自动驾驶。
样本公司 :Tesla、Waymo、Cruise,还有很多公司。
建筑业
关键技术 :计算机视觉。
用例 :机械的安全、制图、可视化、自主性。
样本公司 :Intsite、Kwant、Buildot。
创意与媒体
关键技术 :自然语言处理、生成对抗网络、计算机视觉。
用例 :文本生成、视频生成、歌曲和故事写作、助理、语音生成、建模、Deepfake。
样本公司 :RunwayML、Rosebud、Persado。
军事和国家监控
关键技术 :我们不应鼓励人工智能军备竞赛。
用例 :我们不应鼓励人工智能军备竞赛。
样本公司 :我们不应鼓励人工智能军备竞赛。
能源
关键技术 :计算机视觉、强化学习、流程优化。
用例 :预测性维护、网格优化。
样本公司 :Stem、Origami、Infinite Uptime。
金融
关键技术 :自然语言处理、异常检测、传统机器学习。
用例 :自动化银行体验、欺诈检测、个性化、风险管理、财富管理、交易。
样本公司 :Ravelin、Tala、Verifi、Suplari、各大银行及其服务提供商 Quantopian。
作者介绍 :
Luke Posey,Spawner.ai 的创始人。宝洁公司前人工智能总监。现为 Dataset Daily 的专栏作者,撰写关于人工智能/机器学习、数据和其他主题的文章。
原文链接 :
https://towardsdatascience.com/the-state-of-applied-ai-41393faad013
评论