在 AICon 北京 2019 大会上,李元健讲师做了《Databricks 在构建统一数据分析平台上的新一轮实践》主题演讲,主要内容如下。
演讲简介:
本次讲座将从数据科学通用 API 及计算引擎两个维度介绍 Databricks 在构建统一数据分析平台上的新一轮实践。讲座以统一数据分析的基本思路作为切入点,从 Databricks Koalas 和 Delta 两个系统的设计初衷到实现细节逐步展开,相信其中的设计和实践经验会对大家有所帮助。
内容大纲:
一、分享 Databricks 在构建统一数据分析平台及产品的基本思路
二、Databricks 实践经验解析
数据工程与数据科学的统一:Koalas 的设计初衷及实现细节解析
流式与批量计算的统一:Delta 架构及基本原理
三、统一计算引擎——Apache Spark 3.0 亮点一览
听众受益点:
了解大数据统一分析平台研发中的常见痛点和可行解决方案
Databricks 在构建统一数据分析平台、产品上实践经验
讲师介绍:
李元健,Databricks 研发工程师。
李元健,Databricks 软件工程师。曾于 2011 年加入百度基础架构部,先后参与百度自研流式计算、分布式 Tracing 及批量计算系统的研发工作,2017 年转岗项目经理,负责百度分布式计算平台研发工作。2019 年加入 Databricks Spark 团队,参与开源软件及 Databricks 产品研发。
完整演讲 PPT 下载链接:
https://aicon.infoq.cn/2019/beijing/schedule
评论