7 月 27 日,云+社区技术沙龙第 24 期“物联网技术与应用”圆满落幕。本期沙龙特邀请腾讯云技术专家对腾讯云全栈物联网产品进行了深度揭秘,针对腾讯云 IoT 全栈产品中的 IoT 平台、边缘计算、物联网安全、物联网操作系统、AIoT 这五个产品进行全面的技术剖析和满满干货分享。下面是邓煜平老师关于如何快速构建边缘 AI 能力,云边协同对接,以及基于边缘 AI 能力的实践案例的分享。
今天主要想跟大家分享一下我们物联网产品矩阵里面另外一个产品 AloT 产品。AloT 我想这个词大家应该在最近听得比较热。我记得在 2016 年的时候,应该那个时候有一个词不知道大家有没有听过,叫 ABC,如果关心云计算都比较了解 ABC 这三个词的含义。A 是 AI,B 是 Big Data,C 是 Cloud。它代表了当时整个业界的发展趋势,AI 和云计算的结合。自此之后,很多 AI 结合云计算的应用就展现出来了,非常丰富。我们现在基于很多声音的识别,基于自然语音的处理,甚至基于图片的处理,比如说人脸支付还有包括人脸核身,通过线上的方式来实现身份认证、电子合同签约等等。这些围绕着我们个人的一些 AI 的应用,更多地是通过调用云端 AI 的能力,来实现 AI 应用的一些场景和实践。
我印象当中应该是从 2017 年底 2018 年初的时候,AloT 这个词慢慢谈得比较多,这个也是结合物联网的发展趋势这样大的背景出现的。我们发现越来越多的 AI 会向物联网的设备进行迁移或者是结合,利用物联网的一些数据采集和搜集的技术来实现更多智能硬件和更多智能应用的一些场景,这个就是我们所谓的 AloT 词的含义。简单来说融合了 AI 和 loT 的一些产品特性,我们通过把一些 AI 和物联网的特性结合,来实现一款 AloT 的产品。
我的内容包括四个方面,一开始我会跟大家介绍 AloT 产品的特性以及我们这款产品里面应用到的技术架构,我尽量用深入浅出的语言和大家聊一下里面应用到哪些技术。这些技术我想也可以帮助大家在使用我们的产品,或者说大家自己设计其它产品的时候,我们的思路可以有所借鉴和分享。最后我们可以展示一下如何通过我们的产品快速搭建边缘 AI 能力以及我们实际解决方案的实例。
什么是 AIoT 产品及产品特性
刚刚讲 AloT 产品的出现主要是在 ABC 的场景之下,我们现在发现很多的 AI 能力正在逐渐下沉到边缘侧。为什么会有这样的情况?我们会发现智能硬件这层它的数据要上云,一般是要通过下面这层物联网物理链接层,物理链接层黄色这部分其实分为两块的接入方式,包括广域窄带和广域宽带这两种技术,例如我们谈的比较多的 NBIoT、LoRa 这是窄带的技术,还有是 4G 或者是 2G 等等这种广域的宽带接入。近场的接入通讯包括 WI-FI、蓝牙等等不同的接入方式。通过这些链接方式之后,我们的数据会进一步进到运营商的接入网、核心网。腾讯也有相应的 LPWA 网络管理的核心网,在这层的数据进行汇聚和接入。最后到云计算的机房里面,这块我们有相应的窄带信令、宽带视频的产品。再通过一些消息队列,我们对接到云上的各种组件包括存储、数据库等等,进一步再到我们云上定义的这套 AI 的推理平台,实现我们刚刚讲的声音、图像、视频等 AI 处理。
1. 传统 AI 能力实现过程中的问题
大家可以看到整个的过程从数据链接到接入层再到运营商的核心汇聚层,最后到云计算机房,这个数据链路非常长,这里面会带来两个问题。
第一个我们在调用这样一个接口的时候,整个的延时会达到数百毫秒。数百毫秒级大家应该会有一些概念,比如说举一个形象的例子,大家平时去坐公交车坐地铁,我们去刷闸机,那个时间大概是从你的卡放到闸机一直到你进去,大概响应的时间是 500 毫秒。地铁闸机它要求一分钟通过的人必须达到 40-50 人,所以说如果我们这种 AI 的一些应用,如果我们的时延过长,会影响我们的一些用户体验。这是在时延方面带来的一些缺陷。
第二个关于流量。我再举一个身边的例子,大家可能用过家用摄像头,你可以把摄像头放在家里的客厅来监控或者是智能猫眼放在门外面去监控周围有没有敏感人员,也有小店铺的店主采用智能摄像头进行防盗监控。它们往往把视频推流到云端,或者是通过手机直接观看。我们算过一天所有的视频上云大概会有 4 个 GB,会占用这么大带宽的消耗。而且往往很多的数据实际上你是不关心的,我主要想看今天发生的敏感事件,比如说在家里面宝宝有没有哭或者是宠物有没有乱抓一些东西等等,这些需要你花时间把所有录的视频去进行回看,往往这样的用户体验也不是非常好。
2. AI 能力下沉到边缘侧的优势
我们的客户需求希望把一些 AI 能力下沉到边缘层,让我们的边缘设备能够自动处理你关心的一些数据,再把你关心的数据上报到云上。这样带来了两个效果:第一个你的带宽省了很多,因为我们只是把关键的数据放到云端看。第二个即使出现一些问题比如说敏感的人员,或者说刚刚讲的这种宝宝哭了或者是戴口罩、戴帽子的敏感人员靠近你家附近的时候,我们可以通过一些事件信息的上报通知我们的用户。而不是说我们把整个的视频传到云上,这样我们需要 AI 的推理能力能够进一步的加速。
所以说在这两个背景下,我们有了这样的需求,更多的场景需要我们的 AI 能力进一步下沉到边缘侧,同时我们的场景需要快速 AI 的技术能力。尤其在我们看到的四个场景里面,包括我们的智慧工厂,它有遍布各地的生产工厂,它们通过 AI 来进行缺陷检测,还有一种产品和半成品缺陷分类处理的时候,它是需要 AI 的计算能力能够在边缘侧快速地得到执行,然后它联动后面的执行机构来完成。那么像智慧零售里面用到的,需要快速进行边缘侧推理的场景也是非常显而易见和理解。我们看到无人货柜,我们看到有些无人货柜我们只要把门打开,取出一些商品关上你走开就可以了。在这个过程中它迅速在边缘侧完成了物品的分类、人脸的识别这两个点。物品分类对应你要扣多少钱,人脸识别对应从哪个账户扣钱。如果说 AI 的计算能力过慢,也会影响用户体验。
包括我们在农牧这个领域,很多的养殖场分散在全国各地,全国各地的网络带宽条件是非常恶劣的。在这样的情况下,我们如何能够为我们的客户提供更好的、成本更低的边缘 AI 的解决方案,是值得我们去思考的。这个我到最后一页给大家分享关于农牧非常有意思的一个应用场景和案例。我们需要在边缘侧迅速识别敏感特定的人员,还有对关键事件的上报,这些都是我们在边缘侧实现一个比较好的、具备快速推理能力的非常刚性的一个需求。
3. AIoT 产品解决的问题
总结一下,我们的 AloT 产品它主要解决的问题,包括这几个方面:
第一个有更快速的数据响应,我们本地的边缘智能硬件能够完成 AI 的推理和计算,将我们原来在云端 AI 调用产生的这种数百毫秒的延迟我们能够缩短到几十毫秒甚至是几毫秒,能够带来更好的用户体验,满足客户的需求。
第二个我们能够实现更低的带宽和云存成本,也就是说我们通过本地边缘的 AI 推理,把我们的一些非结构化的数据,比如说我们的视频、图片等等我们把它转化为结构化的数据。比如说人脸的 ID 关键事件,我们把这些推送到云端。我们在云端使用的成本和我们网络带宽的消耗会相对比较少。
第三个我们希望实现更便捷的系统部署和维护。也就是说我们很多的边缘设备它里面具备的 AI 能力是可以动态扩展,我们这个设备在部署完了之后可以不定期的给它添加不同 AI 推理的模型和能力。而不是在系统一部署的时候智能硬件只能实现人脸识别,下一步我可能要实现物体的分类或者车牌的识别。那我们可以通过我们这样的系统,让它能够像安装手机一样,能够动态地更新和下载。
最后一块是我们希望为客户构建一站式的 AI 算法选择和硬件平台选择。我们的客户往往在寻找合适的 AI 算法和合适的 AI 硬件上面会花很多的精力,造成很多困扰,他需要去整合很多的资源,整合很多的算法公司,整合一些硬件公司。实际上我们希望 AloT 这个产品能够为客户一站式地把这些问题解决掉。这是我们这个产品所需要解决的问题。
4. AIoT 的技术现状
刚刚我们谈了我们的构想非常好,而且客户需求也是客观存在的,我们现在技术如何,实际上已经能够促使我们的产品达到一个可以商业化的阶段。它主要是来源于四个技术的发展。第一个大家非常了解的容器编排技术,实际上腾讯云很多的业务都是基于容器化部署的架构来进行实施的。我们将来在我们的边缘智能硬件上面采用容器化编排技术就可以实现我们不同 AI 应用的动态加载和分析。同时也可以让我们的开发者,能够使它的开发和部署运维更加快捷地融为一体。这个是我们边缘侧软件运行架构带来的一个好处。
另外一块实际上大家也知道,AI 为什么这几年这么火,其实 AI 采用的一些技术很早在 80 年代、90 年代就已经提出来了,实际上 AI 的核心原理,基于机器视觉这种深度学习的技术,简单来讲是基于统计学的一些算法。通过统计学应用到的深度卷积神经网络的一些技术,我们来实现 AI 推理。这些技术往往促进了我们芯片和我们算法架构的演变。
也就是说现在 AI 之所以能够那么火,实际上依赖于我们 AI 硬件生态不断完善和丰富。我们发现原来能够处理 AI 的芯片最早可能是显卡 GPU,或者是运算能力非常强的 CPU。到第二个阶段我们发现有一些可以基于这种半定制化的 FPGA 的芯片出现,直到最近两年实际上很多厂商都推出了专门针对 AI 算法里面用到非常多共性的神经网络卷积算法加速的 AI 芯片,来降低我们在边缘侧 AI 算法产生的功耗以及整个硬件产品的成本。在算法框架和丰富的硬件芯片助推下,实际上整个边缘硬件和边缘 AI 这样的一个能力也逐步建立起来。
最后一个是我们的物联网技术,也通过多年的发展,现在涵盖从窄带到宽带,从广域到近场,不同的技术能够方便让我们的万物互联,方便让我们的设备数据采集到云端。所以说这四个趋势,我们认为已经能够促成 AloT 应用的成熟。
5. AloT 产品主要的一些特性
AloT 产品主要的一些特性,包括我们设备的自动接入。比如说边缘的智能硬件,我们可以让我们的设备通过很简单的方式接入到管理平台里面,能够实现离线 AI 的计算。同时我们也提供了一站式丰富的算法市场,可以让我们的用户在算法市场上面去自由选择它所希望采用的算法,包括我们熟知的人脸识别、物体分类、人体识别、车牌识别、缺陷检测、动作检测等等。这些一系列的算法市场,也可以直接在算法市场上进行下载。
当这些算法下载到我们这个平台上面来以后,可以实现非常快速的二次开发,我们可以基于算法市场里面提供的这些算法 API,在边缘侧可以自己做二次开发和包装,让这些应用把 AI 计算出来的结构化数据推流上云。同时我们也可以在我们的控制台上一键部署这些应用。我们的开放平台也是支持各种不同主流的 AI 硬件平台。这个我到后面会介绍一下。
AIoT 产品的技术架构
1. AIoT 产品与其他产品的关系
这里比较简单地描述一下这个产品和其它产品的关系。实际上从这个图我们可以看到我们整个物联网 AI 的数据流图。这个是我们终端侧,中间是我们 AI 智能网关或者说硬件,这个是云上的一些组件,这边是我们在云上 AI 的技术产品。我们从这边的数据流过来,比如说刚刚结合我们的 OS 和 SDK,可以把设备侧采集的各种数据上到边缘侧的网关,通过我们的网关上传到云上的 IoT Hub,通过我们的规则引擎分发到我们相应的一些其它基础的 AI 产品里面。我们利用云上 AI 的产品,对这些数据进行处理,它的分类、打标签还有一些模型的训练等等。
我们搜集到这些数据以后,最后我们会生成一些模型文件,用这些模型文件把它通过我们的模型镜像仓库,下载到我们边缘智能硬件平台上来。我们训练出来的模型可以在我们的边缘硬件侧上面进行本地 AI 的推理。所以说整个的过程包括我们数据的采集以及模型的分发和本地的 AI 的推理流程,一共三个部分。当然我们也可以直接把我们预先训练好的模型,直接通过我们的平台下载下来,实现本地边缘 AI 能力的构建。这个是我们整个产品和其它物联网,就是今天这个演讲之前介绍的其它产品组件的一个关系,这些产品都是可以像搭积木一样,把它组合成一个整体的产品能力。
2. AIoT 产品的总体架构
这个是我们整个 AloT 产品的总体架构,虚线框是我们整个 AloT 产品的产品能力,它包括蓝色这部分是我们部署在云上的组件,绿色部分是我们边缘侧的软件协议栈。我们云上的部分分为两块,一块是应用与模型分发平台,还有一个是应用与模型发布工具。我们通过云端的控制台来控制边缘的网关或者是边缘的智能硬件,然后边缘网关和边缘智能硬件可以直接在里面集成云上推送的组件,和我们云上其它的产品,比如说 IoT Hub,比如说云上视频推流能力来进行打通。
下面分别给大家详细介绍各个部分产品的模块和设计的一些思想架构。这块是我们云端的架构还有发布工具。下面这块是我们应用与模型分发平台的整体架构。实际上它的架构基于四个模块:
一块是我们的网络代理模块,这个主要是用来和我们边缘侧的盒子进行通讯,监控边缘侧硬件设备一些权限的认证和一些设备管理的能力。基于这样一个模块,我们可以实现对设备远程的激活、设备状态的搜集、管理等等。
另外一块是我们镜像管理模块,它主要是用来支撑我们对不同的用户上传不同 AI 模型和 AI 应用去进行管理,包括用户自己上传自行开发的这种 AI 模型。我们也提供了一些公开使用的公有 AI 模型。通过这些镜像管理的模块来实现对应用的管理,以及应用可视化发布权限的管理。它是配合我们的应用与模型发布工具来完成的功能,也就是说用户可以通过我们的应用模型发布工具来实现它们 AI 应用的一些上传。
还有我们的认证授权模块,这个主要是实现了对使用控制台的一些账号管理,包括我们对一些设备进行分组,我们可以通过一个模型,把它分发到分组划分的设备里面来。同时我们可以邀请协作者管理运行在不同设备上面不同的应用。我们的权限管理分为设备的管理和对应用的管理。这个是认证授权模块的部分。
另外还有一些消息通知组件,这里就不详细的介绍。
这里面核心的点是实现了我们对不同的设备,不同的模型还有不同的人员,进行一个分组权限的管理。我们客户可以借助我们本地的应用与模型发布工具的架构,来实现对它本地镜像仓库里面 AI 模型的上传,和我们的模型镜像仓库进行打通,这个是在云端实现主要的一些产品功能。
3. 边缘设备侧里面协议栈的架构
下面介绍一下目前在边缘设备侧里面协议栈的一些架构。边缘硬件设备可以理解为就是一个智能的小网关或者是一个 AI 盒子。它的底层实际上是基于各种 AI 加速芯片的硬件平台,不管是使用 CPU、GPU 还是专门的人工神经网络加速芯片。在这样的硬件加速平台上面,我们可以支持主流的一些操作系统以及在上面基于容器引擎的架构。在这样的架构基础上,我们分为五个模块。最底下是我们的设备接入服务,实际上之前分享过边缘计算的架构,这里面架构的思路、想法是一致的。主要是完成对协议的转换,包括我们智慧建筑里面用到的协议,包括工业现场里面用到的协议等等,还有我们通用 MQTT 消息协议,以及我们宽带视频推流的一些协议等等。
这个部分是完成了网关下面管理的子设备的一些管理,比如说像摄像头这样子设备的管理。在中间主要是提供核心的服务,这些核心服务就包括这些不同服务之间的消息总线,它们数据流之间的一些交互以及不同的服务,后续继续动态加载进来的服务之间,它们服务的配置与发现。之前也分享过采用了微服务这样一套的设计架构。
再往上主要是我们的智能分析服务。这块除了一般意义而言像规则引擎、本地流数据库、时序数据库之外,最为重要的是这里面集成了 AI 的一些中间件。比如说基于 Intel 这种 AI 加速芯片里面,我们采用了 OPEN VINO 这样 AI 中间件让我们的客户非常方便基于它现有开发的模型,在上面进行一些快速的调用。那么在基于这样智能分析模块的服务之上,我们提供了两类,一个是模型应用服务。结合我们刚才讲的模型应用市场里面不同 AI 的应用和 AI 的算法模型,可以在本地化为客户输出不同的 AI 服务能力。
然后另外一块是云端的服务模块,这里面包括两个,一块是窄带信令的部分,一块是宽带推流的服务组件。与之对应的是打通了云端不同服务组件,例如视频推流组件等。
边缘侧的安全也是非常重要的,它包括硬件设备所涉及到安全的方方面面。其中像之前也有分享到的设备认证,我们采用了 TID 的设备认证协议,包括安全启动、安全存储、运行时保护等等。下图是整体的一个边缘侧协议栈的总览。
下面我就几个边缘侧的服务我快速和大家介绍一下。像这块我们刚刚讲的是基于一些动态服务的注册和发现,因为我们提到有一些服务是可以通过动态后续加载,里面核心应用的技术是用到服务注册和发现的运用。在我们的内部有一个注册中心,可以让不同的微服务之间通过查询注册中心,来获取其它服务所提供的一些 API 的接口和调用。同时注册中心也会负责不同微服务的健康检查。这个是我们在边缘侧动态服务注册上面采用的技术。
我们刚刚讲的边缘侧主要干三件事,一个是数据采集,还有一个是 AI 的推理能力,第三块把推理出来的结构化数据上云。这个部分实际上指的是数据采集。数据采集这部分我们采用了像 Telegraf 的容器化组件,我们可以用来实现对设备本地的一些关键数据的采集,包括我们 CPU 的状态,包括窄带消息、视频消息的采集,以及我们不同工业的协议,智慧建筑的协议,它们这里面不同协议以插件的方式接入到我们的数据里面。再通过这些数据,我们可以在本地的 AI 分析引擎进行处理,在云端进行可视化展示。同时我们也可以通过直接在边缘侧直接推流到我们的云端进行数据分析,这个主要是我们数据采集的框架。
第二部分刚刚讲的采集完了之后需要进行 AI 的结构化处理。我们可以看到红色框里面是 AI 模型的中间件,最下面我们可以通过我们的模型市场下载各种各样不同的模型。这些模型我们在边缘内部也采用集成了,比如说像主流的架构来支撑它把这种不同的模型,通过这种 gRPC 或者是我们在本地的 Restful API 封装,来提供给到算法容器来进行调用。
那么这个算法容器,它自身就集成了包括几部分的内容,比如说 IPC 摄像头推流的部分,包括视频的解码,解码完了之后输出的图片,我们通过调用 TF serving 的这个容器对这些图片进行人脸识别,缩放对齐。再对我们的人脸识别进行本地化的聚类。所谓的本地化聚类是指我们可以通过对同一个人他不同特征来进行聚类,最后对这个人生成一个唯一的 face ID。再把这样的一个 face ID 直接推流到云上的 IoT Hub,这个我们之前的课程也分享过了,IoT Hub 主要承载窄带通讯的能力。
我们在这个算法的基础上其实也集成了我们 AloT 宽带视频的能力。当我们发现有一些敏感事件告警上云之后,本地的调用可以调用我们的视频推流能力,直接把现场的视频推到云上进行观看。比如说可以在我们的手机通过小程序或者是在 PC 客户端来进行观看。在云上的结构化数据可以再进行二次的聚类,这样可以让不同的盒子所产生的数据进行归一化的处理。这个是我们在 AI 数据处理这部分的架构。
当然我们也提供了一个更高级的版本,我们也可以让我们的开发者基于不同的模型和架构进行自己的一些自主化的封装,这个是比较适合于对 AI 架构有一定了解的开发者来使用。不再详细展开叙述。
除了刚刚 AI 的应用之外,这部分主要是我们的数据从采集再到我们 AI 的处理,我们需要把它推到云上。云上这块我们也集成了目前两大能力,一块是刚刚也有介绍,我们本地集成的 IoT Hub SDK,可以快速让我们设备的结构化数据推送到我们的云端。同时我们也集成了我们视频的一些组件,能够在本地实现视频的推流,我们通过一些简单的配置即可获取推流 URL,将需要采集的摄像头上面传输过来的一些视频,推送到我们的云端。让我们的客户可以通过推送上来的这种视频流,再通过拉流的方式在手机端上进行呈现。这是在边缘侧集成的两部分能力,一个是窄带通讯的能力,一个是宽带视频的能力。这个是边缘侧大体的架构,从我们的核心组件到数据的采集、边缘 AI 分析以及推送上云这四个部分。
另外一个是我们边缘侧的安全,包括了边缘侧的设备认证,实际上今天下午分享的另外一个课程 TID 有详细内容,这里我就不展开讲。实际上这里我们还有一个很重要的点,模型的版权保护。因为实际上我们提供的是开放的算法生态,很多算法公司非常关心,比如说我们部署在边缘侧设备上的算法模型是不是能够得到很好的保护,而不是被随意地拷贝走。这样我们训练出来的一些模型可以很轻易的被任意复制。我们在边缘侧实际上提供了这些模型版权保护的功能。这是边缘侧安全涉及到的两部分。
另外,我们提到过一个增量分发,也就是说我们会提供给客户设备一个标准的 ISO 包,这个 ISO 包里面会集成我们从操作系统到 DOCKER 引擎以及 AI 中间件的不同组件。那么这样做的一个好处实际上是利用了 DOCKER 容器增量分发的功能,也就是说我们在分发我们新的模型的时候,由于我们边缘侧的设备盒子已经集成了这些中间件,我们在分发的时候可以极大减少分发的大小和容量,来减少它对网络带宽和分发时间所造成的影响。这个也是我们利用了 DOCKER 技术所带来的良好特性。
我们这样的产品实际上也是支撑到一些主流的 AI 加速硬件平台,我们腾讯云也会优选推荐大家一些硬件加速平台。这些加速平台实际上是可以对 AI 算力进行灵活扩展。我们 AI 的芯片可以从 2 个扩展到 4 个甚至是 8 个。你可以自由根据成本的需要,对算力的需求,对这个算力进行自由的扩展。
如何快速搭建边缘 AI 能力
我们下面简单讲一下我们这个产品的使用步骤。包括设备的注册激活,选择相应的算法模型,选择完之后来进行部署,在云端进行展示和监控。具体的使用步骤这里稍微简单展示一下,包括我们购买或选择一款边缘智能硬件设备,我们可以在网上下载提供标准的 ISO 安装包,你接入到局域网和 PC 机连通之后,它就会自动发现这个设备,并且输入我们提供的设备码,你就可以来看到这样一个设备的激活和在线状态。然后可以登陆到我们的控制台上面,去选择我们提供的十几个模型,目前我们这个产品还在内测,我们现在提供了 15 个模型供开发者使用。
选择完模型之后,我们可以把它选择安装到我们指定的设备,包括你可以自定义部署的时间,如果部署时间比较长,你可以选择定义到晚上来进行部署。当然这个是我们使用的公开算法模型,我们也可以使用你自己开发的一些 AI 模型,你不用把它发布到我们公开的模型市场,你通过一些客户端的软件可以上传你自己开发的一些模型,通过我们的控制台分发到指定设备,最后可以通过云端监控设备上面 CPU 的占用情况、运行的参数情况等等。
应用解决方案示例
最后是实际的场景展示,包括我们通过边缘侧我们可以实现,大家可以看到这个屏幕展示是我们在云端上的网页,实际上所有的数据云端上面只上传了图片以及我们推理出来的性别、年龄、区间还有我们刚刚说的通过本地聚类实现的这种到访次数的统计等等。我们可以看到右边 AI 的盒子和我们的 IPC 的摄像头都是在本地的局域网里面,它不需要把我们的视频完全推流到我们的云端。这里是我们热力图的展示,它展示我们另外一个人体识别模型的效果。
这个很有意思,是我们客户做的一个案例。我们刚刚讲了智慧养猪的一个案例。我们发现很多的养殖场分布在全国各地,它的网络环境是非常差。现在我们客户通过用边缘 AI 的能力来实现了对猪数量的自动盘点以及猪体重的自动估重,这个体重的自动估重是可以实现精确的料肉比控制,可以为我们的客户控制养殖成本,也可以节省它的人力时间。所以说我们实实在在地体会到边缘 AI 不同于传统的云端 AI 能力所达到的一些效果。这就是我今天的分享,谢谢大家。
Q:您好,我问一下因为我看到了你现在所说的基于容器,因为最早的一些产品是基于(OPEN CL),有没有技术考虑把它做成非容器的?
A:我觉得这个问题非常好,容器这个技术它实际上会依赖于一个操作系统,实际上在有一些边缘智能硬件,它目前并没有,它的计算能力有可能非常弱。我们目前这个阶段想先把基于操作系统这种方式的容器技术能够进一步的完善。因为按照我们的判断,关于这块未来的硬件发展,它一定是往计算能力越强还有功耗成本更低这个方向去走。所以第一步会采用这种方式去做。当然您刚才提到的对有一些嵌入式设备,比如说像一些智能摄像头,它可能目前这个阶段里面不一定能够去支撑跑这么复杂的系统。在这样的场景下,我们可能会采取一些其它的方式做融合。这个是我们未来的一个规划和考虑。
当然我觉得什么时候去推出,还是需要结合我们硬件的发展状态,配合我们软件的一个架构来跟上。因为按照我们现在开发的趋势,实际上算力越来越强的 CPU 也会逐渐出现,有一些计算能力比较弱的这种场景,它用到芯片的算力包括本身的 CPU 的能力包括它的成本也都逐渐往下走。我觉得最好的例子是我们的手机芯片,手机芯片由于出货量巨大,还有它技术的融合,它的芯片也融合了一些 AI 的能力,那么它的技术也在往一些智能硬件设备上去做扩展。所以具体我们什么时候采用什么样的技术路线,我觉得需要综合考虑软、硬件产业的发展态势。
Q:邓老师您好,我想问一个问题怎么平衡云端模型的计算能力和计算的准确性。我们希望我们的数据在边缘计算是达到可控而且是可靠的模型。
A:其实我想说关于模型这块,实际上我们在云端上采用的 AI 模型和边缘侧采用的 AI 模型可以是一致的,只不过说它的计算平台是不一样的。在这种可靠性来讲,我觉得更多的可能是需要综合考虑,比如说云端 AI 考虑我们的调用网络的依赖,我们给云端 AI 输入参数的大小,以及我们云端 AI 使用会造成的其它成本。当然我们的边缘 AI 也不是完全没有缺点,比如说我们为了实现边缘 AI,我们可能需要对边缘设备去做智能化升级,或者说我们把传统的摄像头统一接到边缘盒子上面,而这个盒子是带有 AI 能力的。所以说我觉得采用哪一种技术,需要综合从硬件成本、对网络的依赖、以及传输数据量三个角度去考虑,来综合评估到底我们采用哪一种方案去实现 AI 应用。
作者介绍:
邓煜平,腾讯云高级产品经理。拥有十余年从物联网芯片设计、实时操作系统开发到 SaaS 服务开发的经验与产品策划经历,对物联网安全技术、无线连接技术、AI 芯片等物联网关键技术有深入了解,尤其擅长软硬件结合的产品开发与策划工作。拥有大型物联网项目的实践经验。
本文转载自公众号云加社区(ID:QcloudCommunity)。
原文链接:
https://mp.weixin.qq.com/s/HtSEj2kFQlWgDkrCn2KwaA
评论