开篇
此次是大数据与机器学习领域周报第 1 期。我们对该系列周报规划的内容主要包括:NoSQL、大数据、机器学习、数据挖掘以及这些技术的应用(比如:推荐系统)等方面的新闻、杂谈和技术干货(包括文章和视频)。希望通过我们的努力,持续为读者贡献高质量的内容。
新闻
-
《人工智能再显身手,谷歌 AlphaGo 战胜李世石》:本周科技圈最受关注的新闻莫过于围棋版“人机大战”。 Google 旗下 DeepMind 出品的 AlphaGo 连胜三局(五局三胜制)战胜韩国职业棋手围棋九段李世石
-
《文档型数据库 CouchBase 4.5 开发者预览版发布》:日前,CouchBase 官网正式对外发布了 CouchBase 4.5 GA 版本,这是具有重要里程碑式的改进,它具有高效的查询、先进的数据访问、强大的索引和更安全的管理。对于开发人员来说,这是一个改动很大的版本
大数据
-
《Splunk vs ELK:如何选择管理、查询 log 的工具》:开发人员常常要选择工具,是买付费产品还是用免费开源的?本文虽对比付费的 Splunk 及免费的 ElasticSearch(和它的好朋友们),但整个对比思考的过程值得借鉴到其他类别的工具的选择
-
《我所经历的大数据平台发展史(二):非互联网时代 • 下篇》:本文是松子(李博源)的大数据平台发展史系列文章的第二篇(共四篇),本系列以独特的视角,比较了非互联网和互联网两个时代以及传统与非传统两个行业。是对数据平台发展的一个回忆,对非互联网、互联网,从数据平台的用户角度、数据架构演进、模型等进行了阐述
-
《用 Apache Spark 进行大数据处理——第三部分:Spark 流
》:在本文中,我们将会学习到如何使用 Apache Spark 中一个被称为 Spark 流的库进行实时数据分析。
我们将会看到一个网络服务器日志分析用例,该用例会向我们展示 Spark 流是如何帮助我们对持续产生的数据流进行分析的 -
《Spark 生态顶级项目汇总》:现在 Apache Spark 已形成一个丰富的生态系统,包括官方的和第三方开发的组件或工具。后面主要给出 5 个使用广泛的第三方项目。
-
《Spark vs. Hadoop MapReduce》:作为一个开源的数据处理框架,Spark 是如何做到如此迅速地处理数据的呢?秘密就在于它是运行在集群的内存上的,而且不受限于 MapReduce 的二阶段范式。这大大加快了重复访问同一数据的速度
-
《大数据如何改善我们周围的生存环境》:大数据的潜力还没有被完全挖掘出来,这需要时间和不断的尝试才能发挥它最大的价值,更好的改善我们的日常生活环境
数据挖掘
-
《数据挖掘领域的全球专家列表》:包含 300 多位专家,既有学术界的,也有工业界的,提供每位专家详细 profile(基本信息、联系方式、研究兴趣),还包括性别、能讲的语言(比如中文)
-
《解析智能推荐系统开发中十大关键要素》:亚马逊的 CEO Jeff Bezos 曾经说过,他的梦想是“如果我有 100 万个用户,我就要为他们做 100 万个亚马逊网站”。智能推荐系统承载的就是这个梦想,即通过数据挖掘技术,为每一个用户实现个性化的推荐结果,让每个用户更便捷
- 《数据挖掘技术:概念解读及应用初探》:数据挖掘是一种决策支持过程,它主要基于人工智能、机器学习、模式识别、统计学、数据库、可视化技术等,高度自动化地分析企业的数据,做出归纳性的推理,从中挖掘出潜在的模式,帮助决策者调整市场策略,减少风险,做出正确的决策
机器学习
-
《基于 Spark 的异构分布式深度学习平台》:本文介绍百度基于 Spark 的异构分布式深度学习系统,把 Spark 与深度学习平台 PADDLE 结合起来解决 PADDLE 与业务逻辑间的数据通路问题
-
《Databricks 将 Spark 和 TensorFlow 集成起来用于深度学习(Deep Learning)》:自从去年 Google 开源了其机器学习框架 TensorFlow,数据科学社区就有了机会在自己的项目中尝试这个框架。Databricks 在这方面也做了一些尝试
-
《人工智能会超越人的智力吗?InfoQ 就“深度学习”采访了 Jürgen Schmidhuber 教授》:现在很多人在讨论人工智能的潜力。他们会问这样一些问题,诸如:“机器能像人一样学习吗?”“人工智能会超过人类的智力吗?”为了回答这些问题,InfoQ 采访了来自瑞士人工智能实验室 IDSIA 的主任 Jürgen Schmidhuber 教授
感谢杜小芳对本文的审校。
给 InfoQ 中文站投稿或者参与内容翻译工作,请邮件至 editors@cn.infoq.com 。也欢迎大家通过新浪微博( @InfoQ , @丁晓昀),微信(微信号: InfoQChina )关注我们,并与我们的编辑和其他读者朋友交流(欢迎加入 InfoQ 读者交流群(已满),InfoQ 读者交流群(#2))。
评论