速来报名!AICon北京站鸿蒙专场~ 了解详情
写点什么

达观数据分析平台架构和 Hive 实践

  • 2016-03-16
  • 本文字数:9639 字

    阅读完需:约 32 分钟

编者按:Hadoop 于 2006 年 1 月 28 日诞生,至今已有 10 年,它改变了企业对数据的存储、处理和分析的过程,加速了大数据的发展,形成了自己的极其火爆的技术生态圈,并受到非常广泛的应用。在 2016 年 Hadoop 十岁生日之际,InfoQ 策划了一个 Hadoop 热点系列文章,为大家梳理 Hadoop 这十年的变化,技术圈的生态状况,回顾以前,激励以后。

近十年来,随着 Hadoop 生态系统的不断完善,Hadoop 早已成为大数据事实上的行业标准之一。面对当今互联网产生的巨大的 TB 甚至 PB 级原始数据,利用基于 Hadoop 的数据仓库解决方案 Hive 早已是 Hadoop 的热点应用之一。达观数据团队长期致力于研究和积累 Hadoop 系统的技术和经验,并构建起了分布式存储、分析、挖掘以及应用的整套大数据处理平台。

本文将从 Hive 原理、数据分析平台架构、数据分析实战、Hive 优化等四个方面来分享一些关于系统架构和 Hive 的心得和实战经验,希望大家有所收获。

1 Hive 原理

Hadoop 是一个流行的开源框架,用来存储和处理商用硬件上的大规模数据集。对于 HDFS 上的海量日志而言,编写 Mapreduce 程序代码对于类似数据仓库的需求来说总是显得相对于难以维护和重用,Hive 作为一种基于 Hadoop 的数据仓库解决方案应运而生,并得到了广泛应用。

Hive 是基于 Hadoop 的数据仓库平台,由 Facebook 贡献,其支持类似 SQL 的结构化查询功能。Facebook 设计开发 Hive 的初衷就是让那些熟悉 sql 编程方式的人也可以更好的利用 hadoop,hive 可以让数据分析人员只关注于具体业务模型,而不需要深入了解 Map/Reduce 的编程细节,但是这并不意味着使用 hive 不需要了解和学习 Map/Reduce 编程模型和 hadoop。对于 Hive 分析人员来说,深入了解 Hadoop 和 Hive 的原理和 Mapreduce 模型,对于优化查询总有益处。

1.1 Hive 组件与模型

Hive 的组件总体上可以分为以下几个部分:用户接口(UI)、驱动、编译器、元数据(Hive 系统参数数据)和执行引擎。Hive 中包含 4 中数据模型:Tabel、ExternalTable、Partition、Bucket。

图:hive 数据模型

a) Table:每一个 Table 在 Hive 中都有一个相应的目录来存储数据;

b) Partition:表中的一个 Partition 对应于表下的一个目录,所有的 Partition 数据都存储在对应的目录中;

c) Buckets:对指定列计算的 hash,根据 hash 值切分数据,目的是为了便于并行,每一个 Buckets 对应一个文件;

d) External Table 指向已存在 HDFS 中的数据,可创建 Partition。

读时验证机制

与传统数据库对表数据进行写时严重不同,Hive 对数据的验证方式为读时模式,即只有在读表数据的时候,hive 才检查解析具体的字段、shema 等,从而保证了大数据量的快速加载。

如果表 schema 与表文件内容不匹配,Hive 会尽其所能的去读数据。如果 schema 中表有 10 个字段,而文件记录却只有 3 个字段,那么其中 7 个字段将为 null;如果某些字段类型定位为数值类型,但是记录中却为非数值字符串,这些字段也将会被转换为 null。Hive 会努力 catch 读数据时遇到的错误,并努力返回。既然 Hive 表数据存储在 HDFS 中且 Hive 采用的是读时验证方式,定义完表的 schema 会自动生成表数据的 HDFS 目录,且我们可以以任何可能的方式来加载表数据或者利用 HDFS API 将数据写入文件,同理,当我们若需要将 hive 数据写入其他库(如 oracle),也可以直接通过 api 读取数据再写入目标库。

再次注意,加载或者写入的数据内容要和表定义的 schema 一致,否则将会造成字段或者表为空。

1.2 HQL 翻译成 MapReduce Job

Hive 编译器将 HQL 代码转换成一组操作符(operator),操作符是 Hive 的最小操作单元,每个操作符代表了一种 HDFS 操作或者 MapReduce 作业。Hive 中的操作符包括:TableScanOperator、ReduceSinkOperator、JoinOperator、SelectOperator、FileSinkOperator、FilterOperator、GroupByOperator、MapJoinOperator 等。

Hive 语句

复制代码
INSERT OVERWRITE TABLE read_log_tmp
SELECT a.userid,a.bookid,b.author,b.categoryid
FROM user_read_log a JOIN book_info b ON a.bookid = b.bookid;

其执行计划为:

图:join 的任务执行流程

1.3 与一般 SQL 的区别

Hive 视图与一般数据库视图

Hive 视图只支持逻辑视图,不支持物化视图,即每次对视图的查询 hive 都将执行查询任务,因此视图不会带来性能上的提升。作为 Hive 查询优化的一部分,对视图的查询条件语句和视图的定义查询条件语句将会尽可能的合并成一个条件查询。

Hive 索引与一般数据库索引

Hive1.2.1 版本目前支持的索引类型有 CompactIndexHandler 和 Bitmap。

CompactIndexHandler 压缩索引通过将列中相同的值得字段进行压缩从而减小存储和加快访问时间。需要注意的是 Hive 创建压缩索引时会将索引数据也存储在 Hive 表中。对于表 tb_index (id int, name string) 而言,建立索引后的索引表中默认的三列一次为索引列(id)、hdfs 文件地址 (_bucketname)、偏移量 (offset)。

Bitmap 位图索引作为一种常见的索引,如果索引列只有固定的几个值,那么就可以采用位图索引来加速查询。利用位图索引可以方便的进行 AND/OR/XOR 等各类计算,Hive0.8 版本开始引入位图索引,位图索引在大数据处理方面的应用广泛,比如可以利用 bitmap 来计算用户留存率(索引做与运算,效率远好于 join 的方式)。如果 Bitmap 索引很稀疏,那么就需要对索引压缩以节省存储空间和加快 IO。Hive 的 Bitmap Handler 采用的是 EWAH( https://github.com/lemire/javaewah)压缩方式。

2 数据分析平台

2.1 架构与模块

达观数据分析平台包括数据收集加载模块、数据分析计算模块、任务调度系统以及可视化系统。

图:数据分析平台基本框架

数据收集模块

数据模块负责收集移动端 app、网页端以及服务器端大量的日志数据。移动端可自行开发数据上报功能或者使用 sdk 来上报数据。网页端利用植入的 js 将用户的行为进行上报,服务器端通过 http server 来收集上报的数据。服务器端的日志信息可以通过 DX 模块 (一个跨库的数据交换系统) 来将待处理数据推入 hive 数据分析平台。除此之外,数据来源还包括大量的 user 、item 基本数据等等。数据收集完成将所有需要处理分析的原始数据推入 hadoop 平台。从物理形式来看,即将待分析数据写入 HDFS。

数据 ETL 模块

一般而言,上报的数据都是非结构化或者半结构化的。ETL(抽取、转换、加载)模块负责将所有的非结构或者半结构的数据转换成结构化的数据并加载到 hive 库表中。例如对于用户访问日志(可能是 web server 日志),我们需要从每行日志中抽取出用户的标识(cookie、imei 或者 userid),ip 来源、url 等。从形式上来看,ETL 将 HDFS 的原始数据结构化,以表的形式提供分析。

数据分析与计算

根据业务需求和功能,利用 HQL 实现各种统计分析。一个 Hive 任务的来源表可能是多个,结果数据也有可能会写入多张表。

图:Hive 任务执行输入输出

任务调度系统

从上图可以看出,Hive 任务之间存在依赖关系,不至于 Hive 任务之间存在依赖,Hive 任务与 DX 任务之间、DX 任务之间都可能存在某种依赖关系,达观数据分析平台支持的任务类型还包括 MR 任务、shell 任务等,达观数据分析平台自行开发司南调度系统来完成平台中所有任务的调度。关于司南调度系统可见后续讨论。

数据分析平台模块

图:数据分析平台基本模块

接下来将陆续介绍,数据分析平台中的两个重要模块:DX 数据交换系统以及任务调度系统。

2.2 DX 数据交换

DX 系统可以在关系型数据库、Hive、FTP 等系统之间实现数据的交换。DX 定义了 Writer 和 Reader 接口来抽象对数据的读写操作,对于各种存储类型的数据,需定制他们的实现方法。

关系型数据库利用 JDBC 实现其读写功能;对于 Hive 而言,直接利用 HDFS API 实现对 HDFS 文件的读写,由于 Hive 的读时验证机制,需要在读写 Hive 表文件时,定义其字段个数、名称等信息,保证与表定义一致;FTP 文件目前的处理方法是先将数据从 FTP 服务器拉下来,然后将读取文件内容,写入 Hive 数据库。

以上过程是其他数据源到 Hive 的数据传输过程,Hive 数据同样可以通过 DX 系统写入其他数据源。

2.3 任务调度

达观数据分析平台开发的司南调度系统将任务分为资源依赖型和实践依赖型。时间依赖型任务类似于 crontab 定时任务一样,到时触发其执行。资源依赖型任务需要其依赖的资源都满足时才会触发其执行。可调度的任务类型包括 DX 任务、Hive 任务、MR 任务、shell 任务等。

司南系统中最为关键的是 dispatcher 模块,该模块通过 zookeeper 来调度任务在 agent(执行任务的代理服务器,需要设置多个)上的运行,关于 zookeeper 如何协调分布式应用的一致性在此不再累述。

2.4 架构演化

达观数据分析平台在使用过程中,不断提高其易用性和稳定性。在大量的研究和开发过程中,平台从无到有,走出第一步到功能完善、发挥巨大的业务价值。

从分散的数据交换到集中的数据交换系统

在使用统一的数据交换系统 DX 后,各业务系统的数据可以更好的进行汇聚和打通,进行统一的分析和处理。

从分散的作业调度到集中的任务调度系统

每天几千规模的任务数使得任务的调度极其困难,特别是当任务之间存在依赖关系时,显然简单的通过 crontab 已经无法满足业务的需求。司南调度系统保证所有任务有序正确的运行。

从批量式处理到集成流式处理

随着实时统计分析的需求越来越多,hive 查询基于 MR 任务来实现的缺点日益明显(任务启动开销大)。为了提供实时的数据分析请求,平台开始引入 storm 流式计算模型。Storm 以数据流为驱动。触发计算,每来一条数据就产生一次计算结果,时效性非常高,在业界也得到了丰富的应用。

从关系型数据库到 Hbase

初期,数据分析的结果数据都是通过 DX 导入关系型数据库,以便数据可视化平台调用或者其他系统使用,大量的数据造成关系数据库的日益庞大,带来严重的性能问题。HBase 是一个开源、列式分布式的数据库,基于 HDFS 文件系统,可以方面的和 Hive 进行集成。经过集成 HBase,为可视化平台和线上系统提供服务,降低 DX 任务量,降低访问延迟。

3 Hive 分析实践

3.1 Schema 设计

没有通用的 schema,只有合适的 schema。在设计 Hive 的 schema 的时候,需要考虑到存储、业务上的高频查询造成的开销等等,设计适合自己的数据模型。

设置分区表

对于 Hive 来说,利用分区来设计表总是必要的,分区提供了一种隔离数据和优化查询的便利的方式。设置分区时,需要考虑被设置成分区的字段,按照时间分区一般而言就是一个好的方案,其好处在于其是按照不同时间粒度来确定合适大小的数据积累量,随着时间的推移,分区数量的增长是均匀的,分区的大小也是均匀的。

避免小文件

虽然分区有利于隔离数据和查询,设置过多过细的分区也会带来瓶颈,主要是因为过多的分区意味着文件的数目就越多,过多增长的小文件会给 namecode 带来巨大的性能压力。同时小文件过多会影响 JOB 的执行,hadoop 会将一个 job 转换成多个 task,即使对于每个小文件也需要一个 task 去单独处理,带来性能开销。因此,hive 表设计的分区不应该过多过细,每个目录下的文件足够大,应该是文件系统中块大小的若干倍。

选择文件格式

Hive 提供的默认文件存储格式有 textfile、sequencefile、rcfile 等。用户也可以通过实现接口来自定义输入输的文件格式。

在实际应用中,textfile 由于无压缩,磁盘及解析的开销都很大,一般很少使用。Sequencefile 以键值对的形式存储的二进制的格式,其支持针对记录级别和块级别的压缩。rcfile 是一种行列结合的存储方式(text file 和 sequencefile 都是行表 [row table]),其保证同一条记录在同一个 hdfs 块中,块以列式存储。rcfile 的聚合运算不一定总是存在,但是 rcfile 的高压缩率确实减少文件大小,因此实际应用中,rcfile 总是成为不二的选择,达观数据平台在选择文件存储格式时也大量选择了 rcfile 方案。

3.2 统计分析

本节将从排序和窗口函数两个方面的介绍 Hive 的统计分析功能。

排名

热门排名在实际的业务场景中经常遇见。例如最受欢迎的书籍、销量 TOP100 的商品等等。再实际情况下,我们不仅需要考虑各量化指标,还需要考虑置信度问题。

最简单的排名:ORDER BY value LIMIT n

上述查询仅仅考虑了量化指标,排名不够平滑,波动较大。

各种排名方法众多,达观数据分析平台在进行 item 排名多采用基于用户投票的排名算法。如基于威尔逊区间的排名算法,该算法可以较好的解决小样本的不准确问题。

图:威尔逊区间

窗口分析函数

Hive 提供了丰富了数学统计函数,同时也提供了用户自定义函数的接口,用户可以自定义 UDF、UDAF、UDTF Hive 0.11 版本开始提供窗口和分析函数( Windowing and Analytics Functions ),包括 LEAD、LAG、FIRST_VALUE、LAST_VALUE、RANK、ROW_NUMBER、PERCENT_RANK、CUBE、ROLLUP 等。窗口函数与聚合函数一样,都是对表子集的操作,从结果上看,区别在于窗口函数的结果不会聚合,原有的每行记录依然会存在。窗口函数的典型分析应用包括:按分区聚合(排序,top n 问题)、行间计算(时间序列分析)、关联计算(购物篮分析)。

我们以一个简单的行间计算的例子说明窗口函数的应用(关于其他函数的具体说明,请参考 hive 文档)。用户阅读行为的统计分析需要从点击书籍行为中归纳统计出来。用户浏览日志结构如下表所示,每条记录为用户的单次点击行为。

通过对连续的用户点击日志分析,通过 Hive 提供的窗口分析函数可以计算出用户各章节的阅读时间。

复制代码
SELECT userid, bookid, chapterid, end_time – start_time as read_time
FROM
(
SELECT userid, bookid, chapterid, log_time as start_time,
lead(log_time,1,null) over(partition by userid, bookid order by log_time) as end_time
FROM user_read_log where pt=’2015-12-01
) t;

通过上述查询既可以找出 2015-12-01 日所有用户对每一章节的阅读时间。只能通过开发 mr 代码或者实现 udaf 来实现上述功能。

窗口分析函数关键在于定义的窗口数据集及其对窗口的操作,通过 over(窗口定义语句)来定义窗口。日常分析和实际应用中,经常会有窗口分析应用的场景,例如基于分区的排序、集合、统计等复杂操作。例如我们需要统计每个用户阅读时间最多的 3 本书:

图:行间计算示意图及代码

窗口函数使得 Hive 的具备了完整的数据分析功能,在实际的应用环境中,达观数据分析团队大量使用 hive 窗口分析函数来实现较为复杂的逻辑,提高开发和迭代效率。

3.3 用户画像

用户画像即基于真实数据的用户模型。简单来说,用户画像提取了用户的属性信息、行为信息,从而归纳统计出其人口学特征、偏好特征等。建立用户模型的首要任务就是提取特征,既包括用户基本特征,也包括行为特征和统计特征。

用户模型本质上就是刻画用户兴趣的模型,而用户的兴趣模型是多维度、多尺度的。刻画用户模型还需要从时间上进行度量,甚至是进行多尺度的组合,根据用户行为统计时间的长短,可以将用户的偏好分为短期偏好和长期偏好。偏好的权重即为用户的偏好程度的度量。

对用户偏好的描述,还需要考虑置信度的问题,例如对于一个阅读行为极其稀疏的用户来说,刻画其阅读类别偏好是毫无意义的。

图:用户画像刻画

3.4 反作弊分析

众所周知,存在排名就可能存在作弊。搜索广告、索互联网刷单、刷榜现象层出不穷。一般来说,作弊的目的都是为了提高自己的排名,或者是降低对手的排名。利用 Hive 对数据进行分析可以过滤掉较明显的作弊数据,达到数据清洗的目的。

例如对于一个刷榜作弊行为,需要作弊着不断刷日志行为来提高其排名,我们可以指定若干规则来过滤作弊数据。如同 IP 同物品同行为数目异常、同用户 ID 行为频次异常、同物品 ID 行为频次异常等等。如下图,如果相比于所有 item 的平均增长趋势,如果某 item 的增长趋势相对平均水平过大,那么其作弊的概率就比较高。

图:作弊数据趋势与平均趋势数据对比

作弊分析还需要结合业务需求和特点,采用合适的机器学习算法来进行更进一步的判断和过滤,达到反作弊的目标。

4 Hive 优化

达观的数据仓库基于 Hive 搭建,每日需要处理大量的计算流程,Hive 的稳定性和性能至关重要。众多的任务需要我们合理的调节分配集群资源,合理的配置各参数,合理的优化查询。Hive 优化包含各个方面,如 job 个数优化、job 的 map/reducer 个数优化、并行执行优化等等,本节将主要讨论 HQL 中的无时不在的 JOIN 的优化经验。

4.1 Join 语句

对于上述的 join 语句,其中 book_info 表数量为千规模,

复制代码
INSERT OVERWRITE TABLE read_log_tmp
SELECT a.userid,a.bookid,b.author
FROM user_read_log a JOIN book_info b ON a.bookid = b.bookid;

该语句的执行计划为:

图:map join 的任务执行流程

对于小数据量,hive 会自动采取 map join 的方式来优化 join,从 mapreduce 的编程模型来看,实现 join 的方式主要有 map 端 join、reduce 端 join。Map 端 join 利用 hadoop 分布式缓存技术通过将小表变换成 hashtable 文件分发到各个 task,map 大表时可以直接判断 hashtable 来完成 join,注意小表的 hashtable 是放在内存中的,在内存中作匹配,因此 map join 是一种非常快的 join 方式,也是一种常见的优化方式。如果小表够小,那么就可以以 map join 的方式来完成 join 完成。Hive 通过设置 hive.auto.convert.join=true(默认值) 来自动完成 map join 的优化,而无需显示指示 map join。缺省情况下 map join 的优化是打开的。

Reduce 端 join 需要 reducer 来完成 join 过程,对于上述 join 代码,reduce 端 join 的 mr 流程如下,

图:reduce 端 join 的 mapreduce 过程

相比于 map join, reduce 端 join 无法再 map 过程中过滤任何记录,只能将 join 的两张表的所有数据按照 join key 进行 shuffle/sort,并按照 join key 的 hash 值将 <key,value> 对分发到特定的 reducer。Reducer 对于所有的键值对执行 join 操作,例如 0 号(bookid 的 hash 值为 0)reducer 收到的键值对如下,其中 T1、T2 表示记录的来源表,起到标识作用:

图:reduce 端 join 的 reducer join

Reducer 端 join 无法避免的 reduce 截断以及传输的大量数据都会给集群网络带来压力,从上图可以看出所有 hash(bookid) % reducer_number 等于 0 的 key-value 对都会通过 shuffle 被分发到 0 号 reducer,如果分到 0 号 reducer 的记录数目远大于其他 reducer 的记录数目,显然 0 号的 reducer 的数据处理量将会远大于其他 reducer,因此处理时间也会远大于其他 reducer,甚至会带来内存等其他问题,这就是数据倾斜问题。对于 join 造成的数据倾斜问题我们可以通过设置参数 set Hive.optimize.skewjoin=true,让 hive 自己尝试解决 join 过程中产生的倾斜问题。

4.2 Group by 语句

我们对 user_read_log 表按 userid goup by 语句来继续探讨数据倾斜问题,首先我们 explain group by 语句:

explain select userid,count(*) from user_read_log group by userid

图:goup by 的执行计划

Group by 的执行计划按照 userid 的 hash 值分发数据,同时在 map 端也做了本地 reduce,group by 的 shuffle 过程是按照 hash(userid) 来分发的,实际应用中日志中很多用户都是未注册用户或者未登录,userid 字段为空的记录数远大于 userid 不为空的记录数,当所有的空 userid 记录都分发到特定某一个 reducer 后,也会带来严重的数据倾斜问题。造成数据倾斜的主要原因在于分发到某个或某几个 reducer 的数据量远大于其他 reducer 的数据量。

对于 group by 造成的数据倾斜问题,我们可以通过设置参数

set hive.map.aggr=true (开启 map 端 combiner);

set hive.groupby.skewindata=true;

这个参数的作用是做 reduce 操作的时候,拿到的 key 并不是所有相同值给同一个 Reduce,而是随机分发,然后 reduce 做聚合,做完之后再做一轮 MR,拿前面聚合过的数据再算结果。虽然多了一轮 MR 任务,但是可以有效的减少数据倾斜问题可能带来的危险。

Hive 解决数据倾斜

正确的设置 Hive 参数可以在某种程度上避免的数据倾斜问题,合适的查询语句也可以避免数据倾斜问题。要尽早的过滤数据和裁剪数据,减少后续处理的数据量,使得 join key 的数据分布较为均匀,将空字段随机赋予值,这样既可以均匀分发倾斜的数据:

复制代码
select userid,name from user_info a
join (
select case when userid is null then cast(rand(47)*100000 as int)
else userid
from user_read_log
) b on a.userid = b.userid

如果用户在定义 schema 的时候就已经预料到表数据可能会存在严重的数据倾斜问题,Hive 自 0.10.0 引入了 skew table 的概念,如建表语句

复制代码
CREATE TABLE user_read_log (userid int,bookid, …)
SKEWED BY (userid) ON (null) [STORED AS DIRECTORIES];

需要注意的是,skew table 只是将倾斜特别严重的列的分开存储为不同的文件,每个制定的倾斜值制定为一个文件或者目录,因此在查询的时候可以通过过滤倾斜值来避免数据倾斜问题:

复制代码
select userid,name from user_info a
join (
select userid from user_read_log where pt=’2015and userid is not null
) b on a.userid = b.userid

可以看出,如果不加过滤条件,倾斜问题还是会存在,通过对 skew table 加过滤条件的好处是避免了 mapper 的表扫描过滤操作。

4.3 Join 的物理优化

Hive 内部实现了 MapJoinResolver(处理 MapJoin)、SkewJoinResolver(处理倾斜 join)、CommonJoinResolver(处理普通 Join)等类来实现 join 的查询物理优化(/org/apache/hadoop/hive/ql/optimizer/physical)。

CommonJoinResolver 类负责将普通 Join 转换成 MapJoin,Hive 通过这个类来实现 mapjoin 的自动优化。对于表 A 和表 B 的 join 查询,会产生 3 个分支:

1) 以表 A 作为大表进行 Mapjoin;

2) 以表 A 作为大表进行 Mapjoin;

3) Map-reduce join

由于不知道输入数据规模,因此编译时并不会决定走那个分支,而是在运行时判断走那个分支。需要注意的是要像完成上述自动转换,需要将 hive.auto.convert.join.noconditionaltask 设置为 true(默认值),同时可以手工控制转载进内存的小表的大小(hive.auto.convert.join.noconditionaltask.size)。

MapJoinResolver 类负责迭代各个 mr 任务,检查每个任务是否存在 map join 操作,如果有,会将 local map work 转换成 local map join work。

SkewJoinResolver 类负责迭代有 join 操作的 reducer 任务,一旦单个 reducer 产生了倾斜,那么就会将倾斜值得数据写入 hdfs,然后用一个新的 map join 的任务来处理倾斜值的计算。虽然多了一轮 mr 任务,但是由于采用的 map join,效率也是很高的。良好的 mr 模式和执行流程总是至关重要的。

5 总结

本文详细介绍了达观大数据分析平台的基本架构和原理,基于 hadoop/hive 的大数据分析平台使海量数据的存储、分析、挖掘逐步成为现实,并带来意想不到的益处。作为数据分析平台主力军的 Hive 仍然处在不断的发展之中,将 HQL 理解成 Mapreduce 程序、理解 Hadoop 的核心能力是更好的使用和优化 Hive 的根本。达观数据团队也将紧跟技术发展潮流,结合自身的业务需求,采取合理的框架架构,提升数据平台的处理能力。

6 参考资料

作者简介

文辉,同济大学计算机应用技术专业硕士,现任达观数据联合创始人,主要负责达观数据爬虫系统、推荐系统等主要系统的研究和开发。曾就职于盛大文学数据中心部门,负责推荐系统、爬虫系统、数据挖掘和分析等大数据系统的研发工作,在爬虫系统、Hadoop、数据挖掘等方面具备充足的研发和实践经验。


感谢杜小芳对本文的审校。

给InfoQ 中文站投稿或者参与内容翻译工作,请邮件至 editors@cn.infoq.com 。也欢迎大家通过新浪微博( @InfoQ @丁晓昀),微信(微信号: InfoQChina )关注我们。

2016-03-16 16:236214

评论

发布
暂无评论
发现更多内容

基于 SparkMLlib 智能课堂教学评价系统 - 系统实现(四)

大数据技术指南

大数据 spark 智能时代 28天写作 3月日更

初识Golang之聊聊类型

Kylin

3月日更 21天挑战 Java转go Go 语言

Ubuntu 日常系列:常用软件

TroyLiu

Linux ubuntu Ubuntu20.04

有状态容器应用,从入门到实践

焱融科技

Kubernetes 容器 云原生 焱融科技 分布式存储

整理 自动备份MYSQL数据库shell脚本

edd

【LeetCode】螺旋矩阵Java题解

Albert

算法 LeetCode 28天写作 3月日更

数据营销“教父”宋星十年倾心之作,让数据真正赋能企业

博文视点Broadview

javascript中的Strict模式

程序那些事

JavaScript ES6 程序那些事

Hadoop之YARN的内部机制

hanke

大数据 hadoop 开源 YARN

用户行为分析模型实践(一)—— 路径分析模型

vivo互联网技术

大数据 数据分析 用户行为分析

书单|互联网企业面试案头书之程序员软技能篇

博文视点Broadview

AI开发效率低,你可以试试华为NAIE AutoML

华为云开发者联盟

华为 AI 框架 AutoML NAIE平台

一文搞懂PID控制算法

不脱发的程序猿

3月日更 PID 控制算法 智能控制 工业控制

啥子叫递归哟!!!(阶乘)

依旧廖凯

28天写作 3月日更

Navicat操作MySQL简易教程

Simon

MySQL navicat

52条SQL语句性能优化策略,建议收藏

Java小咖秀

MySQL 性能优化 后端 MySQL性能优化

混合编程:如何用python11调用C++

华为云开发者联盟

c++ 编程 语言 python11 混合编程

阿里P7亲自讲解!整理几个重要的Android知识,最全Android知识总结

欢喜学安卓

android 程序员 面试 移动开发

集成融云 IMLib 时,如何实现一套类似于 IMKit 的用户信息管理机制

融云 RongCloud

高并发HTTP请求实践

高性能架构探索

解析分布式应用框架Ray架构源码

华为云开发者联盟

gRPC API 框架 ray 分布式应用框架

学以至用-从“0”到“1”设计千万级交易系统

ninetyhe

高可用 分布式系统 海量数据库的设计与实践 异步削峰

万物互联网络在企业中的价值和展望 | 趋势解读

物联网

写代码这件事

ES_her0

28天写作 3月日更

镁信健康“互联网+医+药+险”模式能否打造出中国版联合健康?

E科讯

面试官再问你优先级队列,请把这篇文章丢给他

Silently9527

Java 优先级队列 二叉堆

利用深度元学习对城市销量进行预测 | AAAI 2021论文解读

京东科技开发者

零售 预测

在PostgreSQL中使用ltree处理层次结构数据

PostgreSQLChina

数据库 postgresql 开源 软件 开源社区

Spring AOP 执行顺序 && Spring循环依赖(面试必问)

hepingfly

Java spring aop 循环依赖

学无定法——知识反转效应

Justin

心理学 28天写作 游戏设计

Elasticsearch Segments Merging 磁盘文件合并

escray

elastic 28天写作 死磕Elasticsearch 60天通过Elastic认证考试 3月日更

达观数据分析平台架构和Hive实践_架构_文辉_InfoQ精选文章