写点什么

对话式人工智能发展的真正限制是人类的耐心

  • 2022-05-05
  • 本文字数:2141 字

    阅读完需:约 7 分钟

对话式人工智能发展的真正限制是人类的耐心

从 Siri 到 Alexa 再到谷歌助手,今天我们已经被各种人工智能系统包围了。它们的设计目标只有一个:理解我们。


我们已经看到了很多惊人的进展。在一瞬间数以千亿计的计算能力帮助下,最新的人工智能技术能够以人类水平的准确性理解某些类型的文本。然而,当目标文本属于一长段对话时,系统面临的挑战就变得更加艰巨,因为它需要考虑对话上下文来解释用户的意思并决定该如何回应。不过,像 Facebook 的 BlenderBot 2.0 这样的聊天机器人似乎预示着人类与人工智能的互动会流畅自然许多。


但问题在于:我们给这些对话式人工智能机器人增加的复杂性越多,就越难满足我们对实时响应能力的期望。BlenderBot 2.0 就是一个完美的例子。因为它突破了 BlenderBot 1.0 的许多关键局限(包括缺乏长期记忆),所以 2.0 版本比它的前辈要复杂得多。因此,要让幕后起作用的机器学习(ML)响应速度更快就更难了。

对话式人工智能和聊天机器人的速度限制


要实现自然流畅的对话是没有什么秘密可言的。它需要一个让人头疼的庞大 ML 模型网络,为了确定下一步应该回答什么内容,网络中每一个模型都要解决一小块难题。一个模型可能会考虑用户的位置,另一个模型会考虑到互动的历史,还有一个模型需要考虑到过去类似回应引起的反馈——每个模型都会给系统增加以毫秒计的宝贵延迟。


换句话说,对话式人工智能的真正限制是我们的耐心。

“依赖地狱”的深度


我们对人工智能的期望在学术背景下完全是另一码事。在学术背景下,我们为了结果可以等待几个小时甚至几天;而在现实环境中,我们要求系统立即做出反应。特别是对于对话式人工智能机器人来说,每一项潜在的改进都必须考虑到降低延迟的目标来进行权衡。


这种延迟是所谓的“关键路径“的产物,关键路径是指:从输入(用户的信息)到输出(机器人的反应)所需的最短 ML 模型链条序列。这是一个来自项目管理的古老概念,但在试图避免不必要的步骤这方面,它对今天的 ML 网络来说是非常重要的。


那么,你该如何找到关键路径呢?这一切都归结为依赖关系,长期以来,这一直是常规软件开发领域的一个决定性问题。对于任何一种由很多部分相互连接而成的软件架构来说,改进其中某一个应用程序都可能迫使工程师更新整个系统。但有时,对应用 A 来说至关重要的更新却与应用 B、C 和 D 不兼容。


这就是所谓的“依赖地狱“。如果不去特别关注细节的话,机器学习的依赖关系会让我们面对的地狱更加深邃黑暗。


正常的软件依赖项是基于 API 的,它传达了一个特定应用程序的简单、离散的状态,例如电子表格中的一个单元格从红色变为绿色。API 允许工程师在某种程度上独立开发每个应用程序,同时让它们保持在同一页面上。但对于 ML 的依赖项来说,工程师则要处理抽象的概率分布才行,这意味着我们很难搞清楚一个模型的变化应该如何影响更大范围的 ML 网络。只有掌握了这些模型之间的细微关系,我们才能让对话式人工智能成为现实——更不用说实时体验了。

通过跳过步骤来节省时间

为了充分了解对话式人工智能的依赖关系,你需要将机器学习与人类的直觉相结合在一起。


举个例子,我们的一个对话式人工智能机器人旨在回应员工的各种请求,比如说他们想要一个 PowerPoint 许可证,或是对 PTO 政策有疑问。事实证明,即使是看起来很简单的问题也会把你带入依赖地狱的深处。PTO 问题的答案可能深藏在员工手册的第 53 页,而且对于加拿大的销售人员和西班牙的工程师来说可能还是不一样的。此外你还要忽略很多不相关的细节(比如员工的夏威夷度假计划),所以你有几十个专门的 ML 模型,它们还必须作为一个整体来运作。


诀窍在于确定哪些模型——也就是关键路径中的哪些步骤——是解决每个问题所必需的。第一步是自然语言理解,或 NLU,其目标是将非结构化文本转化为机器可操作的信息。我们的 NLU 是一个由许多 ML 模型组成的管道,可以纠正错别字、识别关键实体、从噪音中分离出信号、弄清用户的意图,等等。有了这些信息,我们就可以开始在下游筛选出不必要的模型。


这意味着在分析公司现有的实际解决方案之前,预测出目标问题有哪些有益解决方案。一名要求使用 PowerPoint 的员工可能会用到软件许可或申请表格,但他们几乎肯定不想要新办公室的地图。只要能充分利用来自 NLU 流程的信息,我们就可以通过所谓的“预触发“系统,预测哪些模型需要激活,哪些模型需要绕过。


鉴于这一过程中所涉及的概率分布的抽象性质,我们的预触发系统既依赖于机器学习的输入,也依赖于人类专家基于直觉制定的规则。归根结底,把时间花在有意义的地方既是一门艺术,也是一门科学。

为对话式人工智能机器人的进步留出空间

没有人知道对话式人工智能在十年后会是什么样子。然而我们所知道的是,我们现在需要优化我们的聊天机器人,为未来的进步留出空间。如果我们想获得像人类对话一样的体验,我们就必须考虑整个系统的延迟,不能毫不顾忌地增加越来越多的复杂性。


与科幻小说相反,我们在人工智能领域看到的“突破“都是对现有模型和技术的许多小的、渐进式改进累加起来的产物。优化对话式人工智能的工作并不是为了影视作品里那种效果,成果也很难在一夜之间就爆发。但是,正是这些年的不懈努力——而不是几次天才般的思想火花——让聊天机器人能够实时理解我们的意图并帮助我们。


原文链接:


https://venturebeat.com/2022/02/23/why-the-true-test-for-todays-conversational-ai-chatbots-is-time/

2022-05-05 21:463491
用户头像
刘燕 InfoQ高级技术编辑

发布了 1112 篇内容, 共 570.4 次阅读, 收获喜欢 1979 次。

关注

评论

发布
暂无评论
发现更多内容

CI-基于JMeter的性能测试

夏兮。

Jacoco统计web接口/功能测试的代码覆盖率

夏兮。

tomcat WebService JACOCO

LeetCode题解:62. 不同路径,动态规划,JavaScript,详细注释

Lee Chen

算法 大前端 LeetCode

【LeetCode】数组拆分Java题解

Albert

算法 LeetCode 2月春节不断更

第十二周学习心得

cc

DO、DTO、BO、VO、POJO区别

安琪拉的博客

系统设计

【STM32】TIM---基本定时器

AXYZdong

硬件 stm32 2月春节不断更

翻译:《实用的Python编程》01_04_Strings

codists

人工智能 爬虫 后端 数据结构与算法 Python Monad

消息队列Kafka:入门基础

正向成长

kafka

1480. 一维数组的动态和

小马哥

算法 七日更

ElasticSearch.03 - 基本原理

insight

elasticsearch 2月春节不断更

第四章作业

Deborah

开箱即用cypress

夏兮。

PO Cypress

开发利器——C语言必备实用第三方库

码哥比特

c c++ Linux 后端 框架

深度讲解背包问题:面试中每五道动态规划就有一道是背包模型 ...

宫水三叶的刷题日记

深度思考 面试 LeetCode 动态规划 数据结构与算法

今日笔记

Nydia

自动化测试中的Page Object

夏兮。

Python PO selenium

SonarQube&Gitlab-CI 实现静态代码分析

夏兮。

ci gitlab SonarQube

如何搭建自动化测试框架

夏兮。

js puppeteer automation

sonarLint与IntelliJ IDEA 集成

夏兮。

第十二周命题作业

cc

web自动化测试-puppeteer入门与实践

夏兮。

puppeteer

【活动回顾】4步2小时,搭建爆火的语音聊天室

ZEGO即构

这是我的第一次JavaScript初级技巧

我是哪吒

JavaScript 学习 程序员 大前端 2月春节不断更

C语言实用第三方库Melon开箱即用之多线程模型

码哥比特

c c++ Linux 后端 框架

日记 2021年2月16日(周二)

Changing Lin

2月春节不断更

分布式任务框架:xxl-job使用问题整理

程序员架构进阶

开源 分布式任务调度 七日更 2月春节不断更 XXL-JOB

诊所数字化:诊所老板为什么拒绝预约制?

boshi

数字化转型 医院 七日更

week12-conclusion

J

数据量大读写缓慢如何优化(5)【读缓存】

我爱娃哈哈😍

redis 缓存 架构设计实战 缓存设计

第一次异地过年有感

石君

思考 情感

对话式人工智能发展的真正限制是人类的耐心_AI&大模型_Jiang Chen_InfoQ精选文章