速来报名!AICon北京站鸿蒙专场~ 了解详情
写点什么

AI 一周热闻:近百名华人入选 IEEE Fellow;何恺明等证明 ImageNet 预训练非必要

  • 2018-11-28
  • 本文字数:2992 字

    阅读完需:约 10 分钟

AI一周热闻:近百名华人入选IEEE Fellow;何恺明等证明ImageNet预训练非必要

AI 前线导读:


  • 地平线将完成 10 亿美元融资,估值或达 40 亿美元

  • 2019 IEEE Fellow 名单发布,华人学者占比三分之一

  • 何恺明等证明 ImageNet 预训练并非必要

  • 无人机着陆,神经网络比 PD 控制器更在行

  • AI 研究组织 MIRI 宣布研究结果默认不公开

  • 三星手写机器人击败深度学习机器人,获《星际争霸:母巢之战》冠军

  • Facebook 开源 StarCraft AI 开发平台 TorchCraftAI

  • 马里兰大学发布伪装数据集 DFW

地平线将完成 10 亿美元融资,估值或达 40 亿美元


据外媒报道,中国人工智能芯片设计商地平线机器人近日将以 30 亿至 40 亿美元的估值获得最多 10 亿美元 B 轮融资。这将成为中国人工智能芯片领域年度最大的一笔融资。据了解,此次融资的投资方包括一家和英特尔规模相当的芯片公司,以及一家知名汽车厂商。


地平线成立于 2015 年 7 月,总部位于北京,创始人是前百度深度学习研究院负责人余凯。BPU(BrainProcessing Unit) 是地平线机器人自主设计研发的高效人工智能处理器架构 IP,支持 ARM/GPU/FPGA/ASIC 实现,专注于自动驾驶、人脸图像辨识等专用领域。


2017 年 12 月,地平线在北京召开了一场发布会,发布了号称中国首款、全球领先的嵌入式人工智能视觉芯片 BPU:面向智能摄像头的“Sunrise”旭日处理器和面向智能驾驶的“Journey”征程处理器,并在会上公布了三个智能解决方案,分别面向智能驾驶、智能城市以及智能商业。

2019 IEEE Fellow 名单发布,华人学者占比三分之一


近日, IEEE Fellow 2019 入选名单对外曝光。根据曝光文件,295 名全球学者入选 IEEE Fellow,其中华人群体占比约 1/3,包含 36 名中国大陆学者,入选名单人员有浙江大学校长吴朝晖、同济大学校长陈杰、北京理工大学副校长龙腾等教授,中国科学院院士陈星弼、清华大学魏少军、CMU 教授及 Petuum 创始人邢波、京东 AI 研究院常务副院长何晓冬、京东 AI 研究院副院长梅涛、出门问问 AI Lab 负责人黄美玉、阿里巴巴 VP 周靖人等。

何恺明等证明 ImageNet 预训练不是必要的


FAIR(Facebook AI Research)的三位研究员何恺明、RBG 和 Piotr Dollár 发表论文——Rethinking ImageNet Pre-training,证明了不是所有情况下都需要对模型进行预训练。


该论文表示,他们从随机初始状态开始训练神经网络,然后用 COCO 数据集目标检测和实例分割任务进行了测试。结果,丝毫不逊于经过 ImageNet 预训练的对手,甚至能在没有预训练、不借助外部数据的情况下,和 COCO 2017 冠军结果相当。


实验表明,如果数据和计算力足够多,那么 ImageNet 预训练只能加快收敛而不提升准确率;如果数据太少,则有必要使用预训练模型,ImageNet 预训练对计算机视觉社区的发展来说是一项重要的辅助任务。


论文地址:https://arxiv.org/pdf/1811.08883.pdf

无人机着陆,神经网络比 PD 控制器更在行


CalTech、东北大学和加州大学欧文分校的研究人员证明,相较比例微分(Proportional derivative,PD)控制器,神经网络学习可以更精准地让四轴无人机着陆。


研究人员称这种系统为 Neural Lander,其设计目的在于实现更精准、更稳定地着陆四轴无人机。该系统直接从耦合非定常空气动力学和车辆动力学的地面效应中学习,并评估 Neural Lander 在起飞、着陆和近地机动过程中对四轴飞行器的轨迹跟踪。与具有预先识别系统的 PD 控制器相比,Neural-Lander 能够更准确地降落四轴飞行器,将 z 方向的误差从 0.13m 减小到零,并将 1 D 着陆的平均 x 和 y 漂移分别减少 90%和 34%。同时,在 3D 着陆中,Neural Lander 可以将 z 误差从 0.12m 减小到零。经验表明,DNN 可以很好地泛化到训练领域之外的测试中。


此系统不仅展示了人工智能系统在各种任务中的广泛应用前景,而且还表明研究人员开始考虑将这些可学习的模块与产品相结合。有趣的是,这项研究的赞助商之一是国防承包商雷声(这指明了大型国防承包商看中的未来发展方向之一。)


阅读更多:Neural Lander:使用学习动力学进行稳定的无人机着陆控制

AI 研究组织 MIRI 宣布研究结果默认不再公开

MIRI 人工智能研究组的执行董事 Nate Soares 表示,该组织“最近决定将其大部分研究‘默认不公开’,未来,除非特殊情况,MIRI 的研究成果将在内部保留,不对外公开。”


MIRI 称这样做的原因是要专注于研究本身,减少曝光的压力,从而加速研究进展。


这可能是一种危险的信号,MIRI 承认这种做法存在一些潜在风险,并指出可能导致人才招聘和评估更难进行,获得有用的反馈意见变得更加困难,获得资金的难度加大,以及社会成本和后勤开销加大等后果。


MIRI 从 2017 年的加密货币繁荣浪潮中受益,从因为以太坊大赚特赚的人那里获得了数百万美元的捐款,并于此后获得更多资金,用于支持更长期的规划。

三星手写机器人击败深度学习机器人,获《星际争霸:母巢之战》冠军


三星 SDS AI 和数据分析团队(SAIDA)用基于手写规则的机器人赢得了年度《星际争霸:母巢之战》锦标赛冠军,击败了其他团队的机器人,包括 Facebook、斯坦福大学和 Locutus。这场胜利意义重大,原因有二:1)该机器人与一年前相比性能大幅提升;2)来自 Facebook(CherryPi)的机器人与手写的 SAIDA 机器人并没有很大差距。


“SAIDA 团队的成员告诉我,他们认为,不到一年时间,专业的星际争霸玩家将被打败,”竞赛协办单位 Dave Churchill 在 Facebook 上写道。“我觉得他们的观点太夸张了,但是他们却相当确定这一点。”


阅读更多:AIIDE星际争霸比赛结果

Facebook 开源 StarCraft AI 开发平台 TorchCraftAI

Facebook 开源 StarCraft AI 开发平台 TorchCraftAI,该平台开发了 CherryPi。TorchCraftAI 包括“用于构建星际争霸代理的模块化框架,(这些模块可以被其他模板攻击,并被其他模块或由 ML / RL 训练的模型替换”)以及教程、CherryPi 和对 TCP 通信的支持。

马里兰大学发布伪装数据集 DFW

印度国际信息学院、IBM 沃特森研究中心和马里兰大学的研究人员创建了一个大型数据集,Disguised Faces in the Wild (DFW),称这些数据集可用于训练人工智能系统识别那些把自己伪装成别人的人。


DFW 数据集包含 1,000 个不同人类实验者的 11,157 张图片。每个实验者与其本人照片,自己伪装的照片,和模仿者的照片配对。DFW 被预分成“简单”、“中等”和“较难”三个子集,基于三种 benchmark 算法正确识别右脸的成功率进行划分。


这项研究的意义在于展示了深度学习算法发现伪装行为的潜力,但我希望在具有更多真实世界特征的更大数据集上看到对算法性能的分析,例如闭路摄像机捕捉的成千上万的人在不同光照条件下的伪装识别能力。此论文进一步证明了深度学习可以扩大和自动化监控的方式。


阅读更多:Disguised Faces in the Wild


获取数据:DFW数据项目网站


作者 Jack Clark 有话对 AI 前线读者说:我们对中国的无人机研究非常感兴趣,如果你想要在我们的周报里看到更多有趣的内容,请发送邮件至:jack@jack-clark.net。


参考链接:https://jack-clark.net/2018/11/26/import-ai-122-google-obtains-new-imagenet-state-of-the-art-with-gpipe-drone-learns-to-land-more-effectively-than-pd-controller-policy-and-facebook-releases-its-cherrypi-starcraft-bot/

活动推荐


12 月 7 日北京 ArchSummit 全球架构师峰会上,来自 Google、Netflix、BAT、滴滴、美团 等公司技术讲师齐聚一堂,共同分享“深度学习、微服务、金融技术、前端黑科技、智能运维”等相关经验与实践。详情点击 https://bj2018.archsummit.com/schedule


2018-11-28 19:001596
用户头像

发布了 42 篇内容, 共 14.6 次阅读, 收获喜欢 53 次。

关注

评论 1 条评论

发布
暂无评论
发现更多内容
AI一周热闻:近百名华人入选IEEE Fellow;何恺明等证明ImageNet预训练非必要_AI&大模型_Jack Clark_InfoQ精选文章