写点什么

快速部署 DBus 体验实时数据流计算(中)

  • 2020-02-09
  • 本文字数:6523 字

    阅读完需:约 21 分钟

快速部署DBus体验实时数据流计算(中)

##接上文

三、安装 Dbus-allinone 包

3.1 下载

在百度网盘提供 dbus-allinone.tar.gz 包,访问 release 页面下载最新包:https://github.com/BriData/DBus/releases

3.2 安装

将下载的 dbus-allinone 包上传到服务器 /app 目录下,且必须在此目录下



\# 如果没有app目录,要先创建app目录 mkdir /app cd /app tar -zxvf dbus-allinone.tar.gz
复制代码

3.3 初始化数据库

以 root 身份登录 mysql 客户端,执行以下命令进行数据库初始化,会创建 dbmgr 库以及用户、canal 用户、dbus 库以及用户、testschema 库以及用户:



source /app/dbus-allinone/sql/init.sql
复制代码

3.4 启动

执行 start.sh 一键启动 dbus 所有服务,启动项比较多。



cd /app/dbus-allinone ./start.sh
复制代码


请耐心等待(大概需要 5 分钟左右时间),正确的启动日志如下:

<br >
Start grafana…<br >
Grafana started. pid: 23760</br ></br >

Start zookeeper…zookeeper pid 23818Zookeeper started.

Start kafka…No kafka server to stopkafka pid 24055kafka started.

Start Canal …canal started.

Start logstash…No logstash to stopnohup: appending output to `nohup.out’logstash pid 24151logstash started.

Start storm nimbus…No storm nimbus to stopStorm nimbus pid 24215Storm nimbus started.

Start storm supervisor…No storm supervisor to stopStorm supervisor pid 24674Storm supervisor started.

Start storm ui…No storm ui to stopStorm ui pid 24939Storm ui started. ui port: 6672

Stop storm topology.Storm topology stoped.

Start storm topology…Storm topology started.

Start Dbus Heartbeat…No Dbus Heartbeat to stopDbus Heartbeat pid 26854Dbus Heartbeat started.

Start Dbus keeper…=========================stop===========================keeper-proxy process not existgateway process not existkeeper-mgr process not existkeeper-service process not existregister-server process not exist

=========================start===========================register-server started. pid: 27077keeper-proxy  started. pid: 27172gateway started. pid: 27267keeper-mgr started. pid: 27504keeper-service started. pid: 27645Dbus keeper prot: 6090Dbus keeper started.

3.5 生成检查报告看是否启动正常

进入目录/app/dbus-allinone/allinone-auto-check-0.5.0,执行自动检测脚本 auto-check.sh,稍等待一会儿



cd /app/dbus-allinone/allinone-auto-check-0.5.0 ./auto-check.sh
复制代码


会在目录/app/dbus-allinone/allinone-auto-check-0.5.0/reports 下生产对应时间的检查报告,如下所示



[app@dbus-n1 reports]$ tree . └── 20180824111905 └── check_report.txt
复制代码


打开 check_report.txt 文件查看相应的检查报告,如下所示


(注意以 #开头为解释说明信息,报告中不会生成 )

<br >
# 出现以下信息说明dbusmgr库正常<br >
check db&user dbusmgr start:</br ></br >

table t_avro_schema data count: 0table t_data_schema data count: 4table t_data_tables data count: 4table t_dbus_datasource data count: 2table t_ddl_event data count: 0table t_encode_columns data count: 0table t_encode_plugins data count: 1table t_fullpull_history data count: 0table t_meta_version data count: 5table t_plain_log_rule_group data count: 1table t_plain_log_rule_group_version data count: 1table t_plain_log_rule_type data count: 0table t_plain_log_rules data count: 5table t_plain_log_rules_version data count: 5table t_project data count: 1table t_project_encode_hint data count: 1table t_project_resource data count: 1table t_project_sink data count: 1table t_project_topo data count: 1table t_project_topo_table data count: 1table t_project_topo_table_encode_output_columns data count: 1table t_project_topo_table_meta_version data count: 0table t_project_user data count: 1table t_query_rule_group data count: 0table t_sink data count: 1table t_storm_topology data count: 0table t_table_action data count: 0table t_table_meta data count: 7table t_user data count: 2

# 出现以下信息说明 dbus 库正常 check db&user dbus start:

table db_heartbeat_monitor data count: 15table test_table data count: 0table db_full_pull_requests data count: 0

# 出现以下信息说明 canal 用户正常 check db&user canal start:

master status File:mysql-bin.000002, Position:12047338table db_heartbeat_monitor data count: 15table test_table data count: 0table db_full_pull_requests data count: 0

# 出现以下信息说明 testschema 库正常 check db&user testschema start:

table test_table data count: 0

# 出现以下信息说明 zk 启动正常 check base component zookeeper start:

23818 org.apache.zookeeper.server.quorum.QuorumPeerMain

# 出现以下信息说明 kafka 启动正常 check base component kafka start:

24055 kafka.Kafka

# 出现以下信息说明 storm nimbus、supervisor、ui 启动正常 check base component storm start:

26500 org.apache.storm.daemon.worker25929 org.apache.storm.daemon.worker27596 org.apache.storm.LogWriter26258 org.apache.storm.LogWriter24215 org.apache.storm.daemon.nimbus27035 org.apache.storm.LogWriter27611 org.apache.storm.daemon.worker26272 org.apache.storm.daemon.worker24674 org.apache.storm.daemon.supervisor24939 org.apache.storm.ui.core26486 org.apache.storm.LogWriter27064 org.apache.storm.daemon.worker25915 org.apache.storm.LogWriter

# 出现以下信息说明 influxdb 启动正常 check base component influxdb start:

influxdb 10265     1  0 Aug08 ?        02:28:06 /usr/bin/influxd -pidfile /var/run/influxdb/influxd.pid -config /etc/influxdb/influxdb.confapp      28823 28746  0 11:19 pts/3    00:00:00 /bin/sh -c ps -ef | grep influxdbapp      28827 28823  0 11:19 pts/3    00:00:00 grep influxdb

# 出现以下信息说明 grafana 启动正常 check base component grafana start:

app      23760     1  0 11:09 pts/3    00:00:00 ./grafana-serverapp      28828 28746  0 11:19 pts/3    00:00:00 /bin/sh -c ps -ef | grep grafanaapp      28832 28828  0 11:19 pts/3    00:00:00 grep grafana

# 出现以下信息说明心跳 heartbeat 启动正常 check base component heartbeat start:

26854 com.creditease.dbus.heartbeat.start.Start

# 出现以下信息说明 logstash 启动正常 check base component logstash start:

24151 org.jruby.Main

# 出现以下信息说明 canal 启动正常 check canal start:

zk path [/DBus/Canal/otter-testdb] exists.24105 com.alibaba.otter.canal.deployer.CanalLauncher

# 出现以下信息说明 dispatcher-appender、mysql-extractor、splitter-puller、router 启动正常 check topology start:

api: [](http://dbus-n1:6672/api/v1/topology/summary)topology testlog-log-processor status is ACTIVEtopology testdb-mysql-extractor status is ACTIVEtopology testdb-splitter-puller status is ACTIVEtopology testdb-dispatcher-appender status is ACTIVEtopology tr-router status is ACTIVE

# 出现以下信息说明从数据库->extractor-dispatcher->appender 线路正常 check flow line start:

first step insert heart beat success.data arrive at topic: testdbdata arrive at topic: testdb.testschemadata arrive at topic: testdb.testschema.result

四、验证 all in one 包是否安装成功

4.1 登录 grafana 前提

需要在通过浏览器登录 grafana 的机器配置 host 文件,如果已经配置过请跳过此前提


如果验证机器是 windows 系统,修改 C:\Windows\System32\drivers\etc\hosts 文件设置相应的域名信息如下:



\# 192.168.0.1 替换成部署allinone包的服务器ip地址 192.168.0.1 dbus-n1
复制代码


如果验证机器是 linux 系统,修改/etc/hosts 文件设置相应的域名信息如下:



\# 192.168.0.1 替换成部署allinone包的服务器ip地址 192.168.0.1 dbus-n1
复制代码

4.2 登录 grafana

登录 grafana url 地址: http://dbus-n1:3000/login


1563345309714066583.png

4.3 mysql 插入数据验证


\#登录测试用户 mysql -utestschema -p #testschema账户密码:j0<c6cqcqr:testschema \#执行测试脚本 use testschema; INSERT INTO test_table (NAME, BIRTHDAY) VALUES ('testdataname', '2018-08-10 18:00:00'); INSERT INTO test_table (NAME, BIRTHDAY) VALUES ('testdataname', '2018-08-10 18:00:00'); INSERT INTO test_table (NAME, BIRTHDAY) VALUES ('testdataname', '2018-08-10 18:00:00'); INSERT INTO test_table (NAME, BIRTHDAY) VALUES ('testdataname', '2018-08-10 18:00:00'); INSERT INTO test_table (NAME, BIRTHDAY) VALUES ('testdataname', '2018-08-10 18:00:00'); </c6cqcqr:testschema
复制代码


1563345319357002768.png

4.4 查看 DBus 是否实时获取到数据

1563345328297060949.png


1563345334957076894.png


1563345341017091754.png


本文转载自宜信技术学院。


原文链接:http://college.creditease.cn/detail/274


2020-02-09 15:091013

评论

发布
暂无评论
发现更多内容

十年磨一剑,从RFID到AI赋能 ——斯科信息的”智能进化”之路

斯科信息

斯科信息 RFID技术

Dify +OceanBase,AI业务多场景落地实践

老纪的技术唠嗑局

AI+ #OceanBase

权威认可!嘉为蓝鲸参编信通院行业报告,为央国企数智化转型注入强劲动能!

嘉为蓝鲸

DevOps AIOPS 智能运维 信通院 数智化转型

谁为 Data Agent “买单”?

Kyligence

Kyligence Kyligence Copilot Data + AI Data Agent 跬智信息

MSE Nacos Controller:为 Kubernetes 生态构建配置管理与服务发现的桥梁

阿里巴巴云原生

阿里云 云原生 MSE Higress

自控学习历程系列 过程仪表经验总结(3)

万里无云万里天

工厂运维

深入了解YashanDB数据库的特性与优势

数据库砖家

行业分享丨SimSolid 在汽车零部件开发中应用的可行性调研及实践

Altair RapidMiner

汽车 仿真 CAE SimSolid 多物理场仿真

嘉为蓝鲸CMeas研发效能洞察平台:辅助线分析法让研发问题锁定快至3秒

嘉为蓝鲸

DevOps 研发效能度量 研发效能管理 研发效能管理平台

YashanDB VAR_SAMP函数

YashanDB

数据库

全文深度剖析国产化数据库达梦之备份恢复体系

袋鼠云数栈

数据库 sql 数据恢复 数据安全 数据备份

TDengine 可观测性最佳实践

观测云

tdengine

8月18日!捷途汽车第八届粉丝文化节暨山海L7 PLUS预售即将启幕

科技热闻

YashanDB USERENV函数

YashanDB

数据库

SEO第十九章 快速流量见效的方式-新词

溪抱鱼

SEO SEO 优化

自控学习历程系列 过程仪表经验总结(4)

万里无云万里天

工厂运维

AI测试全攻略:零基础打造多模态模型评测平台

测试人

软件测试

CMDB治理新视角:全链路故障排查拓扑的搭建逻辑与实践技巧

嘉为蓝鲸

AIOPS CMDB IT运维 配置管理数据库 CI模型

从人工救火到AI自愈:嘉为蓝鲸 × 中大联手打造k8s对话智能体运维新范式

嘉为蓝鲸

k8s 智能运维 LLM大模型 OpsPilot 运维大模型

《第四纪元》玩得轻松,构建也轻松 | 阿里云云原生 API 网关、函数计算助力 IGame 快速构建轻休闲游戏

阿里巴巴云原生

阿里云 云原生 API 网关 函数计算

YashanDB UTC_TIMESTAMP函数

YashanDB

数据库

产研效率可视化新范式:嘉为蓝鲸CFlow带你用价值流数据重构团队考核

嘉为蓝鲸

DevOps 价值流 价值流管理 产研效率 价值流管理平台

AI开发者速来!内推实习机会,丰厚奖金已就位!

阿里技术

YashanDB VAR_POP函数

YashanDB

数据库

告别AI焦虑,阿里云上的Salesforce给出了智能化路线图

Alter

自控学习历程系列 过程仪表经验总结(5)

万里无云万里天

工厂运维

智能工厂四大核心系统:ERP/PLM/MES/WMS规划架构图详解

优秀

wms ERP mes PLM

基于PAI-ChatLearn的GSPO强化学习实践

阿里云大数据AI技术

人工智能 最佳实践 强化学习 大模型 GSPO

MSE ZooKeeper:Flink 高可用架构的企业级选择

阿里巴巴云原生

阿里云 微服务 云原生

MES系统怎么实现数字化闭环与设备预测性维护?

万界星空科技

mes 设备管理 设备检测 万界星空科技mes 万界星空科技低代码平台

YashanDB VARIANCE函数

YashanDB

数据库

快速部署DBus体验实时数据流计算(中)_大数据_DBus_InfoQ精选文章