本文要点:
AI 产业似乎在有意无意地推动各种误导性的,偏离各个组织实际 AI 能力的广告宣传;而业界对各种术语和功能普遍存在的混乱理解则助长了这种风气。
对 AI 用途的过度夸大不仅对消费者有害,而且也伤害了那些诚实行事的企业家。
为了更好地判断 AI 在生产环境中的实际能力,人们可以做一些基础的可用性测试,也可以提出一些相关的问题。
有充分的证据表明,我们早已从公认的 AI 寒冬中复苏过来了。但我们不妨重新考虑一个经常被引用的,被看作是铁证的数据,也就是市场上由“人工智能驱动”的公司数量。鉴于声称自己是“AI 初创公司”的企业中,大约 40%并没有证据支持 AI 技术与他们的价值主张有着充分的关联,现在是时候谨慎地评估人工智能在各行各业中的潜力和实际起到的作用了。
更直截了当地说,不管是有意还是无意,有大量公司在错误地描绘 AI 在其业务模型中所扮演的角色,而且这种风气愈演愈烈。投资者、监管机构、政策制定者和消费者都必须警惕地对待这种误导行为。
为什么公司会夸大他们的 AI 用途?
人工智能初创公司在2019年获得了创纪录的266亿美元融资,在这样的背景下,自然可以理解为什么市场对机器学习工程师和数据架构师的需求激增,很多富有激情的企业家纷纷踏入这一领域了。
在好莱坞大片与传媒业轰动新闻的吹捧下,笼罩在 AI 技术头上的神秘光环持续渗透并推动了消费者的需求,即便是那些不一定了解这种技术的用户群体也不例外。
邓宁-克鲁格效应同样适用于购买 AI 产品和解决方案的用户。在一项研究中,72%的受访者自信地声称自己了解人工智能,只是他们的理解与实际情况大相径庭。只有一半的受访者知道 AI 解决方案可以让机器学习新鲜事物,而三分之一的受访者则认为 AI 永远不会像人类一样了解自己的个人喜好。尽管只有 34%的受访者认为他们在过去一年中曾与 AI 产品有过互动,但调查中关于日常生活的问题表明,实际有 84%的受访者曾在之前一年中接触过 AI 产品。
市场对人工智能和机器学习的认识及其应用方式的理解充斥着不可思议的混乱和夸大现象,这一局面实际上是在鼓励和推动利益相关者在报告和宣传材料里写满相关的技术名词,却将实际的技术实现和代码方案抛诸脑后。
只要你创办过一家初创公司,并且自己去寻找过投资支持,肯定就会知道“竞争对手宣称他们的产品现在由 AI 驱动”会带来多大的同行压力。
另一项研究调查了 2,830 家声称是“人工智能初创企业”的公司,结果发现超过 40%的企业没有提供任何证据,表明人工智能“对公司的价值主张具有任何实质性影响”。
夸大 AI 用途会有什么影响?
这种现象带来的最严重后果,是沉重打击了那些真正使用 AI 来驱动价值和实现愿景的诚信企业,让他们的努力和创造的价值化为废纸。当投资者见识过那些擅长夸张宣传的企业浪费资金的行为后,可能就不会只靠什么“通过人工智能技术获取未来竞争优势”的信念就继续投资了。此外,人性的弱点意味着,当我们看到其他人成功地通过欺诈手段筹到资金并获得客户时,我们自己也更容易同流合污。尤其当我们认为大家身处零和竞争环境中时,这种倾向就更加明显了。
不幸的是,越是花钱大手大脚的投资人,越难具备区分真正的 AI 与夸大宣传所需的知识和技能,他们在采购和投资时尤其容易盲目决策。
很多消费者将有限的资源用在那些打着 AI 标签的商品和服务上,期望从 AI 的力量中获得更多价值,他们也会是这种现象的受害者。他们可能会为商品支付过多的费用,买回家后大失所望,结果将来也不太可能再买其他类似的产品了。
正在应用 AI 的公司有哪些明显的特征?
公司在生产中使用 AI 技术的一个标志,就是将新数据实时吸纳到决策引擎中,从而实现迭代改进。一般来说,人工智能项目真正开始学习过程时基本不需要人类的参与。当然,训练数据集通常是由人类操作员收集、清理和标记的。但是,神经网络的权重设置之类的工作应该不受人类的干预。
在业务模型中实现人工智能系统是一项艰巨的任务,需要以极高的水平将资源、领域专业知识、经验和关键问题解决方案结合在一起。因此,如果组织的创始和执行团队中多是拥有高级技术学位和丰富技术经验的成员,那么至少可以说明组织拥有合适的人才来应对手头的工作。
在未来,人工智能伦理委员会和治理政策会是行业中企业的标配,但今天的情况并非如此。尽管如此,现在已经有一些公司高度依赖大规模预测引擎做出具有现实影响的决策,他们正在凭自己的远见意识到建立这样的内部委员会有多重要。因此,如果一家公司拥有这样的机构设置,这往往会是一个积极指标,证明公司内部正在将 AI 用于实际用途——不过就算没有也不能说明什么问题。
理想情况下,公司不仅会打造一支应对不断增长的 AI 需求的团队,而且在招聘新人时列举出来的职位描述和资格要求也能符合他们宣传的运营内容。
目前来看,商业应用中使用的 AI 通常是某种形式的机器学习技术,并会针对一个狭窄的领域做大量优化工作。因此,企业的底层业务模型应该存在一个明显的,可以从定量优化中显著受益的层面。就算是让 AI 辅助编写宣传文案这样的场景中,机器在工作时也会有一个明确的任务目标,比如说尽可能减少客户获取成本,或尽量提升经过明确定义的转换率等。
有哪些明显的迹象表明公司没有在应用 AI?
相比熟练地识别“真实 AI”的能力,或许更重要的是识别“虚假 AI”。例如,如果一家公司的创始人没有技术背景,却声称他们能够提供先进的技术解决方案,这就是一个典型的危险信号。重点在于,首先要明白自动化和人工智能不是一回事。而且,尽管自动化往往是一个很好的价值驱动因素,但不应将其与人工智能混为一谈。算法和其他任何基于静态或人造规则的决策工具也是如此。
历史上还有很多案例的情况是,企业创始人怀抱着崇高的理想开始推动他们的价值主张,但由于各种意外事件而被迫采取不够完美,往往也是不道德的手段。例如,臭名昭著的 Theranos 公司从投资者那里筹集到了 7 亿美元,承诺用一种新的专用设备彻底改变血液测试行业,到头来他们只是拿一些现有货架设备来伪装成新技术做测试而已;他们不顾一切做出如此鲁莽的危险行为,只是为了挽救这家公司。同样,投资者和消费者应该警惕那些筹集资金开发 AI 系统的人们,如果过了好些年都没有市场化的产品就有问题了。
历史上“土耳其机器人”(The Mechanical Turk)的成功案例证明了怀疑主义的重要性。这是一种伪造的国际象棋游戏机,发明于 18 世纪后期。它一开始被认为是自动化技术的创举,但其实是由隐藏在木箱中的人类象棋大师手动操作的仪器。虽然现在人们看到它的名字时往往想起的是亚马逊的众筹平台,但在它曾经辉煌的 84 年中,它甚至击败了拿破仑·波拿巴和本杰明·富兰克林这样的名人——如今这些事迹都已经是著名的丑闻了。
我们也应该对 21 世纪的 Turk 持怀疑态度——今天的 Turk 会是一家假装使用 AI 做出决策的公司,但实际上他们依赖的是落后的、效率较低的方法。如果一套系统在管理时总是需要人工干预,那么它就不太可能会充分利用 AI 的优势。
有传言称,很多行业的许多公司所宣传的 AI 解决方案实际上都基于更常规的分析框架。拿 Theranos 的例子来类比的话,就是一个平台声称自己使用了 AI 技术,相比竞争对手使用的随机模拟能更准确地预测天气模式,而实际上他们只是使用蒙特卡洛模拟而已,根本没有使用任何形式的 AI。
如果一家公司所做的数据分析工作是相对基本的类型,那么他们很可能根本就没有用上 AI。如果他们的确在利用某种形式的机器学习技术,那么这家公司很有可能只是在浪费资源,并没有增加任何价值。
有一些公司的确在使用 AI 技术,但这与他们的独特卖点没什么关系,这种情况更难判断。例如,如果一家公司的人工智能技术主要用于优化广告支出或 CRM 相关功能上,却很少拿它来预测天气模型,那么他们宣称自己的天气服务主要由 AI 驱动就是一种误导宣传。
令人迷惑的地方
最近,我看到有一条推文吸引了不少关注度,之后有人把它截屏到 Reddit 上,获得了更大的影响力。这则推文首先引用了一份新闻稿,其中指出:“Uber 将使用人工智能来识别醉酒的乘客。它将使用诸如当前时间、上车地点以及用户使用应用时的犹豫时间等因素来做出判断。”下面写了一句:“那不是 AI。那只是 if 语句而已。”
乍一看,这则推文似乎成功揭穿了 Uber 是如何夸大其 AI 在决策过程中的作用的。好像整篇新闻所宣传的内容只用一行简单的代码就能实现了:
但真相并没这么简单。例如,Uber 可能会使用机器学习来微调所选的每个输入参数上的权重。另外,这里可能存在一种反馈机制,驾驶员可以通过这种反馈机制来报告他们是否感到乘客处于醉酒状态,这样就可以把错误的判断迭代合并到预测引擎的更新中了。
像 Uber 这样的公司如果被揭穿他们并没有像宣传的那样使用 AI 技术,那么他们蒙受的损失应该要远远大于让人们相信自己正在使用 AI 技术(其实并没有)而产生的收益。如果我们不能直接了解某个项目的内部细节,就很难知道实际到底是哪边的情况。
不管怎样,这个故事要表达的意思是很清楚的:就算是在围绕这类技术话题做研究、撰写文章和发表评论的群体中,似乎也没有就 AI 技术的确切定义达成共识。
想要知道他们是否在使用 AI 的话,应该问什么问题?
对本文所讨论的各种判断方法感兴趣的利益方,往往可以直接向公司创始人、CTO 或产品经理提出问题。这里列举几个策略性问题,可以很好地判断公司到底是不是在真正应用 AI 技术。
我可以使用自己的数据来演示你们的产品吗?一种 AI 解决方案很容易完美地微调到特定的数据集上,或者使用人工计算来伪造类似 AI 的结果。但是,一个真正准备好投入生产的交钥匙 AI 解决方案,应该能运行在任何数据集上而无需进行重大改动。
你们使用的是什么 AI 方法/算法,为什么?这是一个非常基础的问题,诚实守信的经营者都应该能当场给出简洁的答案。一般来说,创始人面对这一问题时的犹豫和模棱两可的反应是一个不好的信号。
你们需要多少训练数据?预计多久进行一次训练?与上一个问题类似,参与 AI 产品销售或推广的员工都应该能直截了当地给出答案。
训练数据如何标记/注释?你们如何避免偏见?这一流程将如何应用于生产中收集的数据?虽然你可能会遇到一些不熟悉训练数据之间细微差别的非技术销售人员,但你在购买或投资企业解决方案之前绝对应该先得到这些问题的答案。因此,就算你问的员工没法回答这些问题,他们也应该能轻松地帮你找到可以回答它们的人。
你们给云服务安排的预算是多少?一般情况下,AI 项目的规模和范围和与其关联的云服务的成本直接相关,主要涉及计算资源及存储成本。通常来说,这会是损益表上的一大笔开支,所以如果 AI 公司不依赖 AWS 或微软 Azure 之类的云服务,那么他们至少应该能解释清楚背后的原因。
我经常能想起 Eliezer Yudkowsky 的断言,说的是“到目前为止,人工智能领域面临的最大危险是人们早早就以为自己理解了这种技术。”我认为这句话无论是在预言层面还是实践层面都是很有道理的。能够正确看待新兴技术的应用和局限性,应该被视为几乎所有利益相关者的一项关键技能。尤其考虑到我们正在从一个饱受 COVID-19 危机冲击的世界中复苏过来,而且今天伤痕累累的经济体系愈加依赖软件技术,这种技能的重要性就更不能忽视了。
作者介绍:
Lloyd Danzig 是人工智能伦理发展协会国际组织的主席和创始人,这是一个 501©(3)非营利性非政府组织,致力于确保行业以人类的长远利益为宗旨,凭借敏锐的眼光来引导 AI 的快速发展进程。他还是体育游戏咨询公司 Sharp Alpha Advisors 的创始人兼首席执行官,该公司专注于部署尖端技术。Danzig 是 The AI Experience 的联合主持人,这个播客提供了关于 AI 新闻和主题的无障碍分析。他还担任 CompTIA AI 顾问委员会的联合主席,CompTIA AI 顾问委员会是一个杰出思想领袖委员会,致力于建立行业最佳实践,在保护消费者的同时使企业受益。
原文链接:
The Road to Artificial Intelligence: a Tale of Two Advertising Approaches
评论