资讯
Tumblr 用户控诉 TensorFlow“太糟糕”,认为 PyTorch 更好用
近日,一位 Tumblr 用户控诉谷歌的TensorFlow有点让人摸不着头脑,用起来也有不够顺手。他在发文中提到,TensorFlow 的代码有点冗杂,但是谷歌依然不断地为软件发布新特性,最终导致软件更加难于理解和使用。
开发者列出了 TensorFlow 一系列使用缺陷,“知道它在某些方面让我想起了什么吗?在出现大量向后不兼容新特性后,好不容易刚刚掌握了特定平台的相关知识后,这种知识又将在两年内被淘汰,这的确会让人沮丧,”Tumblr 这样用户写道。
随着人工智能逐渐步入工业化阶段,越来越多人将使用软件来开发人工智能,而能吸引最多开发者的软件将可能成为类似Linux这样的新计算实现的基础。所以,人们对 TensorFlow 的抱怨与对PyTorch的欣赏就形成了鲜明的对比。Facebook开发的 PyTorch 人工智能软件框架显然要比 TensorFlow 更容易使用,也更加灵活。
纽约大学研究员开发出 BLiMP,用于测试 BERT 和 GPT-2 等语言模型
过去几年,像BERT和GPT-2这样的大型语言模型颠覆了自然语言处理的研究,在短时间内取得了巨大突破。目前,纽约大学研究员开发了一款能帮助人们更容易对比不同模型性能的 benchmark,这款 benchmark 可以比较出不同模型的优缺点,同时还能将语言模型与人类表现进行对比。
该 benchmark 被称为 BLiMP,是“语言最小对立组 benchmark”的缩写。BLiMP 测试了语言模型如何根据不同的标准对不同的句子进行分类,测试涉及了 12 种语言现象,包括省略、主谓一致、不规则形式等。BLiMP 也提供了人类基准线,帮助我们根据绝对得分和相对表现来比较语言模型。BLiMP 完整数据集由 67 个分类(1000 个句子对)组成,每个分类属于 12 种语言现象中的一种。
“我们评估的所有模型都远低于人类的表现”,研究人员这样写道。“GPT-2 表现最好,在某些语法现象上和人类表现平分秋色(甚至几乎超越人类),但是整体表现比人类低 8%。”需要注意的是,作者仅测试了中型版本的 GPT2(对比 7.75 亿参数的大版本和 15 亿参数的 XL 超大版本来说,3.45 亿的版本就是中型版本),所以姑且可以认为其他版本的性能会更好一些。通过对比发现,Transformer-XL、LSTM 和 5-gram 表现更差。
他们写道,BLiMP 可以“作为作为 benchmark 对新语言模型的总体表现进行评估”。此外,由于 BLiMP 测试可以适用于不同的语言现象中,因此可利用它详细对比不同模型之间的差异和优劣。
2019 年 ACM Fellow 公布:阿里平头哥首席科学家谢源等 7 位华人当选
纽约时间 12 月 11 日,美国计算机学会(ACM)宣布 2019 年新当选 ACM Fellow 名单,共有 58 位科学家当选,其中包括有阿里平头哥首席科学家、达摩院高级研究员谢源在内的 7 位华人学者。这 7 位华人学者分别是陈熙霖、李向阳、吕松武、陶大程、谢源、周礼栋、Dawn Song,来自人脸识别、物联网、蜂窝网络、分布式计算、安全和隐私等不同研究领域。ACM Fellow 用于表彰在计算机和信息技术领域从业五年以上,并做出”突出贡献“(Exceptional Contributions)的科学家,只有 1% 的 ACM 会员有机会当选。
ACM 创立于 1947 年,目前在全世界 130 多个国家和地区拥有超过 10 万名会员,是世界上最大的教育和科学计算机协会,其所评选的图灵奖被誉为”计算机界的诺贝尔奖“。ACM Fellow 计划于 1993 年启动,旨在表彰计算领域领先成员的杰出贡献,截止目前已有 1000 多位 ACM Fellow 诞生。本次选出的 58 名 ACM Fellow 分别来自澳大利亚、加拿大、中国、埃及、法国、德国、以色列、意大利、瑞士和美国的大学、公司和研究中心。
谷歌助理现能在智能手机上翻译 44 种语言
在今年一月的拉斯维加斯消费电子展期间,谷歌首次推出了“口译员模式”,这是一种实时翻译功能,适用于 Google Home 扬声器和第三方智能显示器(例如索尼,LG 和联想)。当时,这家科技巨头表示,解释器模式最终会出现在移动设备上。
该功能于 12 月 13 日正式上线。自 13 日一早开始,Android 和 iOS 智能手机上的 Google Assistant 都支持口译员模式,用户可以通过它询问路线、点菜或用外语聊天等。其可以识别的语言数量从之前的 27 种增加到了 44 种,包括希腊语、土耳其语和汉语等。并且现在在解释器模式下,用户可以选择使用键盘输入文字或手动选择他们要说的语言。
微软首款 Office 应用程序登陆 Linux
今年 9 月时,微软曾确认正在为 Linux 构建 Teams 客户端。时隔两个多月,微软在官方博客中宣布 Microsoft Teams 已在 Linux 上公开预览,并可下载使用,该本地软件包有 .deb 和 .rpm 两种格式以供选择。
Microsoft Teams 客户端是微软引入 Linux 的首款 Office 365 应用程序,它是一款集成的办公软件,提供即时聊天、视频会议、文件共享等功能,使团队能够轻松协作。Teams 是微软有史以来增长最快的业务应用,根据微软上个月公布的数据,该应用每天有 2000 万活跃用户。
微软承诺,此次的 Linux 版本也将同样支持 Teams 的所有核心功能。不过它现在仍处于公开预览状态,也就意味着部分功能可能暂时无法使用或无法正常工作。微软工作人员告诉外媒 VentureBeat:“会议中有一些与 Office 应用和屏幕共享/控制相关的功能,在 Linux 中尚不可用”。同时微软也表示将根据社区的反馈进一步做出改进,期待用户下载并提交使用反馈。
《斯坦福 2019 全球 AI 报告》:每天 2 亿美元投入 AI 领域,1/10 砸向自动驾驶
由斯坦福大学发起的人工智能指数(AI Index)是一个追踪 AI 动态和进展的非营利性项目,旨在全面研究 AI 行业状况,目标是促进基于数据的 AI 的广泛交流和有效对话。12 月 12 日,AI Index 发布了 2019 年度报告。《报告》显示,2019 年,全球私有 AI 投资超过 700 亿美元,相当于每天 2 亿多美元砸向 AI 领域。此外,自动驾驶汽车在过去一年中获得了全球投资的最大份额(77 亿美元),其次是 AI 医疗(47 亿美元)、面部识别(47 亿美元)、视频内容(36 亿美元)和欺诈检测和金融(31 亿美元)。
量子计算机实用重要里程碑!英特尔发布首款低温控制芯片 Horse Ridge
英特尔研究院发布了代号为“Horse Ridge”的首款低温控制芯片,以加快全栈量子计算系统的开发步伐。作为量子实用性道路上的一个重要里程碑, Horse Ridge 实现了对多个量子位的控制,并为向更大的系统扩展指明了方向。
基于英特尔 22 纳米 FinFET 技术,英特尔与 QuTech(由荷兰代尔夫特理工大学与荷兰国家应用科学院联合创立)共同开发了 Horse Ridge。控制芯片的制造在英特尔内部完成,将极大地提高英特尔在设计、测试和优化商业上可行的量子计算机的能力。
英特尔量子硬件总监 Jim Clarke 表示:“虽然人们非常重视量子位本身,但同时控制多个量子位仍是业界的一大挑战。英特尔认识到,量子控制是大规模商用量子系统开发过程中的核心环节,这也是英特尔投资量子纠错和控制技术的原因。通过Horse Ridge,英特尔开发了一个可扩展的控制系统,能够大大加快测试速度并实现量子计算的潜力。”
谷歌推出改进版文本分类和模型训练的 AutoML 自然语言
今年早些时候,谷歌完成了其 AutoML 自然语言的收尾工作,这是其 Cloud AutoML 机器学习平台向自然语言处理领域的扩展。经过长达一个月的测试后,AutoML 自 12 月 13 日起开始向全球客户开放,支持分类、情感分析和实体提取等任务,以及一系列文件格式—包括本机和扫描的 PDF。
AutoML 自然语言可以利用机器学习来揭示电子邮件、聊天记录、社交媒体帖子等中文本的结构和含义。它可以从上传和粘贴的文本或谷歌云盘文档中提取有关人员、地点和事件的信息,并且允许用户训练自己的自定义 AI 模型来分类,检测和分析诸如情感,实体,内容和句法等。此外,它还提供自定义实体提取功能。
声音
软银中国华平:围绕 AI 智能化、医疗健康、新材料进行投资
在第十九届中国股权投资年度论坛上,软银中国资本管理合伙人华平表示,软银中国仍将主要围绕科技型企业投资,他提到三大领域:AI 智能化、医疗健康、新材料。关于 AI 智能化,华平认为,虽然大家在这方面已经讲了很长时间,但从概念到真正改变行业,实际上还是刚刚开始。同时,ToB 也一直是软银中国在投资上大的方向。未来,“还会持续在这里面再加码”。
软银中国资本管理合伙人华平
从宏观角度来看,华平认为,围绕科技创新的投资一定会升温,在行业所占的比重会越来越大。同时他指出,有两方面因素会推动这种变化到来。首先,是中美之间贸易的讨论。这意味着国内一定会培养很多的高科技企业,形成拥有自己丰富核心技术的产业链;再者,科创板到目前为止健康运营,已经上市几十家公司,可以缩短投资科技型企业的退出周期,也会让大家更愿意去投资科技型企业。
AI 开源工具
Multi Model Server
Multi Model Server(MMS)是一个灵活且易于使用、用任何 ML/DL 框架都可进行深度学习模型训练的工具。使用 MMS Server CLI 或预配置 Docker 图像来设置 HTTP 端点来处理模型推理请求。
https://github.com/awslabs/multi-model-server
ergo
ergo 是从拉丁语“我思故我在 Cogito ergo sum”中而来,这是一款能让 Keras 机器学习更加简单的命令行工具。它可以:
· 用最少数量的代码在数秒内构建新项目;
· 编码样本、导入和优化 CSV 数据集并且用这些来训练模型;
· 在训练中可视化模型结构、损失和精准函数;
· 借助差分推理决定每个输入特征如何影响精准度;
· 从服务器导出一个简单的 REST API 来使用模型。
https://github.com/evilsocket/ergo
公众号推荐:
AGI 概念引发热议。那么 AGI 究竟是什么?技术架构来看又包括哪些?AI Agent 如何助力人工智能走向 AGI 时代?现阶段营销、金融、教育、零售、企服等行业场景下,AGI应用程度如何?有哪些典型应用案例了吗?以上问题的回答尽在《中国AGI市场发展研究报告 2024》,欢迎大家扫码关注「AI前线」公众号,回复「AGI」领取。
评论