贾扬清正式宣布加盟阿里巴巴
仅售 99 美元!英伟达发布最小迷你 AI 计算机 Jetson Nano
阿里达摩院开发 AI“二哈”对付骚扰电话
Uber 获软银 10 亿美元投资,自动驾驶部门估值达 100 亿美元
Facebook 开源服务 27 亿人的 AI 硬件“三套件”
周志华获 IEEE 2019 年 Edward J.McCluskey 技术成就奖
机器人团队协作,用一根绳子攀爬悬崖
Facebook 为 AI 芯片构建标准容器
艾伦人工智能研究所:去偏误算法并没有想象中有用
贾扬清正式宣布加盟阿里巴巴
今天,阿里巴巴达摩院官方账号正式宣布 Caffe 之父、前 Facebook AI 架构总监贾扬清加入阿里,担任技术副总裁岗位,领导大数据计算平台的研发工作。贾扬清的个人领英显示其已于 3 月份加入阿里巴巴,至今将近一个月。
贾扬清以深度学习框架 Caffe 作者的身份闻名。清华本硕毕业后,在加州大学伯克利分校取得计算机科学博士学位,先后工作于新加坡国立大学、NEC 美国实验室、谷歌大脑,2016 年加入 Facebook 担任研究科学家,任 Facebook AI 架构总监,负责前沿 AI 平台开发及人工智能研究。
贾扬清之前曾这样评价阿里达摩院:
我在阿里有很多志同道合的朋友,比如说同在伯克利读博的 Xiaofeng Ren(以前亚马逊的首席研究员),当年一起在清华摸爬滚打的盖坤(阿里的技术大牛靖世)等等。
白驹过隙,现在更多的本土公司开始加入人才培养和科研的第一线,这对于 AI 的发展是振奋人心的好事。(倒退几年,如果我还在读研究生的话,又多了一个实习的好去处呢。)
仅售 99 美元!英伟达发布最小迷你 AI 计算机 Jetson Nano
3 月 17 日,在 GTC 2019 上,英伟达 CEO 黄仁勋发布了今年的新产品,其中最引人注意点当属人工智能计算机 Jetson Nano。这款设备可以创建数百万个智能系统,支持高分辨率传感器,可以并行处理多个传感器,并可在每个传感器流上运行多个现代神经网络。它还支持许多流行的 AI 框架,使开发人员可以轻松地将他们喜欢的模型和框架集成到产品中。
Jetson Nano 的主要参数包括:
GPU:基于 128 核 NVIDIA Maxwell? 架构的 GPU
CPU:四核 ARM?A57
视频:4K @ 30 fps(H.264 / H.265)/ 4K @ 60 fps(H.264 / H.265)编码和解码
相机:MIPI CSI-2 DPHY 通道,12x(模块)和 1x(开发人员套件)
内存:4 GB 64 位 LPDDR4; 25.6 千兆字节 / 秒
连接:千兆以太网
操作系统支持:适用于 Tegra? 的 Linux
模块尺寸:70mm x 45mm
开发者套件尺寸:100mm x 80mm
售价方面,Jetson Nano 有两个版本:面向开发人员、制造商和发烧友的 99 美元开发套件以及面向希望创建大众市场边缘系统的 129 美元版本。
此外,黄仁勋在会上还发布了图像处理芯片 CUDA-X AI,旨在加速数据科学工作负载,使数据更有用。之后,黄仁勋发布 OMNIVERSE,一个用于多工具工作流程的开放式交互式 3D 设计协作平台。此外,为了满足数据中心和云图形应用不断增长的需求,英伟达发布 RTX SERVER POD 和 RTX 服务器。同时,会上还发布了为开发人员提供 Isaac 应用程序的工具包 NVIDIA Isaac SDK,以及 Level 2+ 的自动驾驶解决方案 NVIDIA DRIVE AP2X。
阿里达摩院开发 AI“二哈”对付骚扰电话
3.15 晚会曝光了可以一年呼出 40 亿次的机器人之后数小时,阿里巴巴达摩院开发的防骚扰电话 AI“二哈”一炮而红。阿里称应该把机器人的问题交给机器人对付,当用户在手机上开通了这项服务后,在接到骚扰来电时,用户可以直接转接给机器人接听,可达到以假乱真的效果。
阿里巴巴 AI 实验室语音助手首席科学家、阿里 AI 北京研发中心负责人,前微软亚洲研究院首席研究员聂再清表示,开发“二哈”是因为其对各种骚扰电话不胜其烦。这项服务背后主要是智能聊天技术,通过深度强化学习来学习对话策略,理解用户请求,同时用强大的知识图谱制作聊天的知识点,通过跟用户对话,把知识图谱里的知识灌输给用户,同时也引导用户反馈。
在放出“二哈”工作的演示视频后,该技术便获得了不少专家的肯定。其后,阿里还在支付宝小程序和天猫精灵 App 推出开放体验。
Uber 获软银 10 亿美元投资,自动驾驶部门估值达 100 亿美元
据外媒报道,Uber 自动驾驶部门即将获得来自软银愿景基金的投资,据悉,双方的谈判已经进入了最后阶段。
如果顺利获得 10 亿美元融资,Uber 自动驾驶部门的估值可达 50-100 亿美元。
对于该消息,Uber 和软银发言人均未给出回应。
此前,Uber 自动驾驶汽车每个月的开销高达 2000 万美金,而且还发生了事故致人死亡,甚至有传闻称 Uber 曾有意彻底放弃自动驾驶。Uber 获得资金可帮助其自动驾驶部门迎来一轮跨越式发展。
Facebook 开源服务 27 亿人的 AI 硬件“三套件”
在 3 月 15 日的开放计算项目全球峰会上,Facebook 发布并开源了 3 款 AI 硬件,分别是面向训练的 Zion、面向推理的 Kings Canyon 及面向视频转码的 Mount Shasta。
其中,Zion 专为处理包括 CNN、LSTM 和 SparseNN 在内的神经网络架构的“频谱”而量身定制,包括三个部分:拥有 8 个 NUMA CPU 插槽的服务器;配备了 8 加速器芯片组,以及一个厂商中立(vendor-agnostic )的 OCP 加速器模块(OAM)。
Kings Canyon 专为推理任务而设计,共分四个部分:Kings Canyon 推理 M.2 模块;Twin Lakes 单插槽服务器;Glacier Point v2 载卡;以及 Facebook 的 Yosemite v2 机箱。同时,Facebook 还表示正在与 Esperanto、Habana、英特尔、Marvell 和高通公司合作,开发能够同时支持 INT8 和高精度 FP16 工作负载的 ASIC 芯片。
Mount Shasta 是专为视频转码而开发的 ASIC,由 Facebook 与 Broadcom、Verisilicon 合作开发。在 Facebook 的数据中心内,它将被安装在带有集成散热器的 M.2 模块上,位于可容纳多个 M.2 模块的 Glacier Point v2(GPv2)载板中。
Facebook 表示,平均而言,预计这些芯片的效率会比目前的服务器“高出许多倍”。它的目标是在 10W 功率范围内,以 60fps 速度输入流编码效率至少比 4K 高出一倍。
周志华获 IEEE 2019 年 Edward J.McCluskey 技术成就奖
3 月 16 日,IEEE 计算机学会宣布 2019 年 Edward J. McCluskey 技术成就奖花落南京大学计算机与人工智能教授周志华,以表彰他“对机器学习和数据挖掘的贡献”。值得注意的是,周志华教授是今年唯一的国内获奖者。
周志华是南京大学人工智能学院院长、南京大学计算机科学与技术系主任,同时还是 CCF 会士、常务理事、人工智能与模式识别专委主任、ACM / AAAS / AAAI / IEEE / IAPR Fellow,欧洲科学院外籍院士。此外,他还是大家熟悉的“西瓜书”《机器学习》的作者,并担任京东人工智能研究院学术委员会委员,任京东研究院南京分院总顾问。他的研究领域包括周志华教授的研究方向包括人工智能、机器学习、数据挖掘等。
Edward J. McCluskey 技术成就奖起源于 1985 年,为了奖励在过去 10-15 年间为计算机信息科学和工程领域做出突出创新贡献的人。奖项的名字来自学会第一任主席 Edward McCluskey,至今有 84 名获奖者,此前,联想 CTO 芮勇、乔治亚理工大学教授 Ling Liu、前金山软件 CEO 张宏江、2017 年图灵奖得主 David Patterson 等都是这一奖项得主。
机器人团队协作,用一根绳子攀爬悬崖
日本东京大学的研究人员创建了一支双机器人团队,通过一根绳子,机器人可以完成绘制周围环境并穿越高低起伏地形等任务,这使得空中无人驾驶飞行器可以辅助地面车辆。
无人机使用英伟达 Jetson TX2 芯片进行板载本地化、映射和导航。这架无人机配备了摄像头、飞行时间传感器和用于高度测量的激光传感器。地面车辆使用 UP Core 处理器“基于商用 Caterpillar 平台”。地面机器人运行机器人操作系统的副本,机载无人机使用该副本连接到机器人操作系统。
智能机器人用一根“笨笨”的绳索攀爬:机器人这样完成协作:无人机飞到 UGV 上方并绘制地形图,将数据传送到地面机器人,以识别周围环境。当机器人检测到障碍物时,UAV 将系绳(末端有一个抓钩)缠绕在一个高大的物体上,UGV 从固定好的绳子向上爬。
真实测试:研究人员在一个小规模的真实环境中进行测试,结果表明这套方法很奏效,但还是存在一些问题:“由于缺乏传感器,我们没有[系绳]张力控制机制,系绳需要从一开始就延长,结果,UGV 经常被绳子缠住。”
重要性:将来,我们可以想象到各种不同类型的机器人相互协作模式,发挥各自的专长作为一个整体协作,1+1 将大于 2。但这个实验表明我们还处于早期阶段,还需要解决一些问题。
阅读更多:无人机/ UGV 自主合作:无人机通过连接系绳协助 UGV 攀登悬崖 https://arxiv.org/abs/1903.04898
Facebook 为 AI 芯片构建标准容器
目前,许多人工智能组织正在考虑建立数据中心,这些数据中心由许多不同类型的服务器组成,运行 CPU、GPU、AI 定制芯片等不同类型的处理器。Facebook 希望将用于容纳 AI 加速器芯片的机箱类型标准化,并提供了 Open Compute Project(OCP)开源硬件原理图和规范——一个超大规模数据中心运营的服务器设备类型标准化方案。Open Compute Project(OCP)是 Facebook 在 2011 年 4 月发起的一個数据中心开放架构技术发展组织,目前成员包括 Intel、Red Hat、Facebook、Mozilla、Rackspace、NTT Data、百度、高盛以及 Google 等。
Facebook 提出的 OCP 加速器模块支持 12V 和 48V 输入,并且可以为模块中的芯片提供高达 350W(12V)或高达 700W(48V)的 TDP(热设计功率)。这是一个有用的特性,因为许多新的加速器芯片都需要大量的电力(任何消耗 450W 以上 TDP 服务器都需要用液体冷却)。它可以支持每个机箱内的单个或多个 ASIC,每个系统最多支持八个加速器。
设计:你可以在 Open Compute Project(OCP)更详细地了解 OCP 加速器模块 https://www.opencompute.org/wiki/Server/OAM。
重要性:随着人工智能进入工业化阶段,我们将在 AI 设备所需的基础设施上投入更多资金。标准化 AI 加速器模块的需求将变大,而这种需求可能来自于亚洲的低成本原始设计制造商(ODM),它们会需要这种标准化产品。
阅读更多:Facebook 共享加速器模块(https://code.fb.com/data-center-engineering/accelerator-modules/)。
艾伦人工智能研究所:去偏误算法并没有想象中有用
艾伦人工智能研究所的研究人员进行了一项分析,该分析对用于 debias 模型的一些算法的有效性提出质疑。他们写道:“我们认为目前的去偏误方法主要是隐藏偏见,而不是消除它”。
研究人员用两种不同的方法比较 embeddings:Hard-Debiased(Bolukbasi 等)和 GN-GloVe(Zhao 等),两者都经过修改,以减少训练模型中明显的性别偏见。他们试图分析这些方法中偏误和去偏误版本之间的差异,主要是通过分析两个版本的 embeddings 之间的不同空间关系。他们发现,这些去除方法主要是把问题转移到模型的其他部分,因此,尽管它们可能会修复一些偏误,但其他偏误仍然存在。
去偏误失败的三个因素:
具有强烈的预先性别偏见的词语很容易聚集在一起
因为社会刻板印象导致隐含性别的词语(例如接待员、发型师、船长)仍然容易与其他性别相同的隐性词汇分到一组
具有根深蒂固的预先偏见的词,其隐含性别很容易基于单一向量进行预测
重要性:作者认为,“虽然这些去除偏误的方法在消除性别方向方面效果很好,但是去除方法基本上是表层化的。刻板印象和从语料库中学到的偏见在嵌入空间中根深蒂固。“
此类研究表明,处理偏见问题将比人们预期的要困难,并强调了人工智能在偏见上有多大程度来自现实世界的数据,而这些系统正在接受包含此类偏见的训练。
阅读更多:给猪涂口红(西方谚语:把丑陋的事物变美好而做的无用功):去偏误方法掩盖了 Word 嵌入中的系统性别偏见,但不能根除(https://arxiv.org/abs/1903.03862)。
作者 Jack Clark 有话对 AI 前线读者说:我们对中国的无人机研究非常感兴趣,如果你想要在我们的周报里看到更多有趣的内容,请发送邮件至:jack@jack-clark.net。
参考链接:
评论