FATE(Federated AI Technology Enabler)是联邦机器学习技术的一个框架,其旨在提供安全的计算框架来支持联邦 AI 生态。FATE 实现了基于同态加密和多方计算(MPC)的安全计算协议,它支持联邦学习架构和各种机器学习算法的安全计算,包括逻辑回归、基于树的算法、深度学习和转移学习。
联邦机器学习又名联邦学习、联合学习与联盟学习,它能有效帮助多个机构在满足用户隐私保护、数据安全和政府法规的要求下,进行数据使用和机器学习建模,消除由于行业竞争、隐私安全与行政手续等问题带来的数据孤岛,让以数据为基础的机器学习顺利进行。
KubeFATE 支持通过 Docker Compose 和 Kubernetes 进行 FATE 部署。我们建议使用 Docker Compose 安装快速开发和学习 FATE 集群,同时使用 Kubernetes 安装生产环境。
深度神经网络(DNN)是在输入和输出层之间具有多层的人工神经网络(ANN)。
本文以经典的神经网络 MNIST 为例子,展示联邦学习版的深度神经网络训练过程。我们使用 KubeFATE 快速进行 FATE 框架的部署。因为模拟联邦学习的双方,我们需要准备两台 Ubuntu 的机器(物理机或虚拟机)。
1、安装 docker 和 docker-compose
Ubuntu 安装 docker:
$ sudo apt-get update
$ sudo apt-get install \
apt-transport-https \
ca-certificates \
curl \
gnupg-agent \
software-properties-common
$ curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -
$ sudo apt-get update
$ sudo apt-get install docker-ce docker-ce-cli containerd.io
复制代码
安装 docker-compose:
$ sudo curl -L https://github.com/docker/compose/releases/download/1.23.2/docker-compose-`uname -s`-`uname -m` -o /usr/local/bin/docker-compose
$ sudo chmod +x /usr/local/bin/docker-compose
复制代码
2、安装 KubeFATE
学习环境推荐使用 Docker 方式部署。使用 Docker 方式部署分为两步,先根据 parties.conf 配置文件生成 docker-compose 文件。通过 scp 把 docker-compose 文件复制到目标机器上,然后通过 ssh 命令登录到目标机器并运“docker-compose up”。
选择两台机器其中之一作为部署机。
1.在 KubeFATE 的 release 页面下载软件包 kubefate-docker-compose.tar.gz 并解压:
$ wget https://github.com/FederatedAI/KubeFATE/releases/download/v1.3.0-a/kubefate-docker-compose.tar.gz
$ tar xzf kubefate-docker-compose.tar.gz
复制代码
2.进入 docker-deploy/ 目录,修改 parties.conf 文件:
$ cd docker-deploy
$ vi parties.conf
复制代码
parties.conf:
user=root
dir=/data/projects/fate
partylist=(10000 9999)
partyiplist=(10.160.175.20 10.160.162.5)
servingiplist=(10.160.175.20 10.160.162.5)
exchangeip=
复制代码
说明:
user:两台目标机器的用户 id,建议用户 root 或权限合适的用户。
dir:目标机器上存放 docker-compose 文件的目录。
partylist:FATE 集群的 party 列表。这里是两方,用数字表示。
partyiplist:FATE 训练集群的 IP 地址,与 partylist 对应,例如上例 id 为 10000 的训练集群 ip 地址是 10.160.175.20。注意这里要替换成你准备的两台机器对应的 IP。
servingiplist:FATE 在线推理集群的 IP 地址,与 partylist 对应,可以和训练集群在一台机器上,也可以单独是一台机器。本文里训练集群和在线推理集群使用同一台机器。
exchangeip:多于两方部署的时候推荐使用 exchange 模式。Exchange 是一个集中交换数据的节点,记录了所有 party 的 IP 地址,每个 party 只需要知道 exchange 节点的 IP 地址就可交换数据。本文是两方直连,所有不填写 exchange。
3.生成部署 FATE 的 docker-compose 文件
$ bash generate_config.sh
复制代码
命令会在 outputs 文件夹下面生成对应的压缩包:confs-.tar 和 serving-.tar。
4.部署 FATE
$ bash docker_deploy.sh all
复制代码
因为用到了 scp 和 ssh 命令,所以运行这条命令的时候需要输入密码。为了方便可以在部署机和目标机之间做免密码处理。
两台机器在互联网可用环境下,Docker 会自动下载 FATE 需要的镜像。如果是没有互联网的环境,参考 Github 上使用离线镜像文章。
5.免密处理(可选)
用 10.160.175.20 作为部署机,需要可以免密码登录本机和 10.160.162.5 (目标机)。
生成 ssh key:
一直回车即可,会在~/.ssh/目录下生成一个 id_rsa.pub 文件。分别在两个机器的~/.ssh/目录下新建一个 authorized_keys 文件,并把刚刚生成 id_rsa.pub 的内容填写进去。
6.验证是否部署成功。分别登录两台机器运行以下命令来验证:
$ docker ps
CONTAINER ID IMAGE ...
11e86440c02d redis:5 ...
16570fa47d36 federatedai/serving-server:1.2.2-release ...
b64b251e9515 federatedai/serving-proxy:1.2.2-release ...
75603d077a94 federatedai/fateboard:1.3.0-release ...
38cb63178b79 federatedai/python:1.3.0-release ...
80876768cd35 federatedai/roll:1.3.0-release ...
955bab0ae542 federatedai/meta-service:1.3.0-release ...
89928bf28b37 federatedai/egg:1.3.0-release ...
63e4ae852d0d mysql:8 ...
3cc1a4709765 federatedai/proxy:1.3.0-release ...
0e1d945b852c federatedai/federation:1.3.0-release ...
f51e2e77af88 redis:5 ...
复制代码
3、准备数据集
本文使用 MNIST 数据集,MNIST 是手写数字识别的数据集。从 kaggle 下载 csv 格式的数据集。
FATE 训练时需要数据集有 id,MNIST 数据集里有 6w 条数据,模拟横向 l 联邦学习,把数据集分为两个各有 3w 条记录的数据集。
$ awk -F'\t' -v OFS=',' '
NR == 1 {print "id",$0; next}
{print (NR-1),$0}' mnist_train.csv > mnist_train_with_id.csv
复制代码
这句话是在第一行最前面加上 id,第二行开始加序号,并用逗号作为分隔符。
$ sed -i "s/label/y/g" mnist_train_with_id.csv
复制代码
将表头的 label 替换成 y,在 FATE 里 label 的名字通常为 y。
$ split -l 30001 mnist_train_with_id.csv mnist_train_3w.csv
复制代码
将 mnist_train_with_id.csv 分割,每一个文件有 30001 行(一行标题和 30000 行数据)。会生成两个文件:mnist_train_3w.csvaa 和 mnist_train_3w.csvab。将两个文件重命名:
$ mv mnist_train_3w.csvaa mnist_train_3w_a.csv
$ mv mnist_train_3w.csvab mnist_train_3w_b.csv
$ sed -i "`cat -n mnist_train_3w_a.csv |head -n 1`" mnist_train_3w_b.csv
复制代码
将 mnist_train_3w_a.csv 文件的第一行(csv 的表头)插入 mnist_train_3w_b.csv 的最前面。这样我们就得到了两个有表头和 id 的数据集,各有 30000 条数据。
分别将两个文件拷贝到两台机器上的/data/projects/fate/confs-/shared_dir/examples/data 目录里。
Shared_dir 目录是本地文件系统和 docker 容器中文件系统的共享目录,使容器可以访问宿主机的文件。
4、准备 FATE Pipeline
本文在 FATE 里使用 Keras 运行 DNN,参考文章。
1.1 准备 Keras 模型
进入 guest 方(本文选用 9999 作为 guest)的 python 容器:
$ docker exec -it confs-9999_python_1 bash
复制代码
进入 Python 解释器:
构建一个 Keras 模型:
>>>import keras
>>>from keras.models import Sequential
>>>from keras.layers import Dense, Dropout, Flatten
>>>model = Sequential()
>>>model.add(Dense(512,activation='relu',input_shape=(784,)))
>>>model.add(Dense(256,activation='relu'))
>>>model.add(Dense(10,activation='softmax'))
复制代码
得到 json 格式的模型:
>>>json = model.to_json()
>>>print(json)
{"class_name": "Sequential", "config": {"name": "sequential_1", "layers": [{"class_name": "Dense", "config": {"name": "dense_1", "trainable": true, "batch_input_shape": [null, 784], "dtype": "float32", "units": 512, "activation": "relu", "use_bias": true, "kernel_initializer": {"class_name": "VarianceScaling", "config": {"scale": 1.0, "mode": "fan_avg", "distribution": "uniform", "seed": null}}, "bias_initializer": {"class_name": "Zeros", "config": {}}, "kernel_regularizer": null, "bias_regularizer": null, "activity_regularizer": null, "kernel_constraint": null, "bias_constraint": null}}, {"class_name": "Dense", "config": {"name": "dense_2", "trainable": true, "units": 256, "activation": "relu", "use_bias": true, "kernel_initializer": {"class_name": "VarianceScaling", "config": {"scale": 1.0, "mode": "fan_avg", "distribution": "uniform", "seed": null}}, "bias_initializer": {"class_name": "Zeros", "config": {}}, "kernel_regularizer": null, "bias_regularizer": null, "activity_regularizer": null, "kernel_constraint": null, "bias_constraint": null}}, {"class_name": "Dense", "config": {"name": "dense_3", "trainable": true, "units": 10, "activation": "softmax", "use_bias": true, "kernel_initializer": {"class_name": "VarianceScaling", "config": {"scale": 1.0, "mode": "fan_avg", "distribution": "uniform", "seed": null}}, "bias_initializer": {"class_name": "Zeros", "config": {}}, "kernel_regularizer": null, "bias_regularizer": null, "activity_regularizer": null, "kernel_constraint": null, "bias_constraint": null}}]}, "keras_version": "2.2.4", "backend": "tensorflow"}
复制代码
1.2 修改 test_homo_nn_keras_temperate.json
vi examples/federatedml-1.x-examples/homo_nn/test_homo_nn_keras_temperate.json
复制代码
将刚刚输出的 json 格式的模型替换到 algorithm_parameters. homo_nn_0.$nn_define 位置。
将 work_mode 设置为 1,将 guest 设置为 9999,host 和 arbiter 为 10000,将
{
"initiator": {
"role": "guest",
"party_id": 9999
},
"job_parameters": {
"work_mode": 1
},
"role": {
"guest": [
9999
],
"host": [
10000
],
"arbiter": [
10000
]
},
复制代码
修改 guest 和 host 数据集的名字和命名空间,role_parameters. guest.args.data. train_data:
"name": "homo_mnist_guest",
"namespace": "homo_mnist_guest"
复制代码
role_parameters. host.args.data. train_data:
"name": "homo_mnist_host",
"namespace": "homo_mnist_host"
复制代码
1.3 分别上传 host 方(10000)和 guest 方(9999)数据
新建 upload_data_guest.json
$ vi examples/federatedml-1.x-examples/homo_nn/upload_data_guest.json
{
"file": "examples/data/mnist_train_3w_b.csv",
"head": 1,
"partition": 10,
"work_mode": 1,
"table_name": "homo_mnist_guest",
"namespace": "homo_mnist_guest"
}
复制代码
上传数据到 FATE:
$ python fate_flow/fate_flow_client.py -f upload -c examples/federatedml-1.x-examples/homo_nn/upload_data_guest.json
复制代码
登陆到 host(10000)机器的 Python 容器,并对应新建 upload_data_host.json
$ docker exec -it confs-10000_python_1 bash
$ vi examples/federatedml-1.x-examples/homo_nn/upload_data_host.json
{
"file": "examples/data/mnist_train_3w_a.csv",
"head": 1,
"partition": 10,
"work_mode": 1,
"table_name": "homo_mnist_host",
"namespace": "homo_mnist_host"
}
复制代码
上传数据到 FATE:
$ python fate_flow/fate_flow_client.py -f upload -c examples/federatedml-1.x-examples/homo_nn/upload_data_host.json
复制代码
登录到 FateBoard 可以查看上传任务情况,FateBoard 的地址是 http://party-IP:8080,如下图所示为成功:
1.4 用 fate_flow 运行 DNN
FATE 的训练应该由 guest 方发起,所以我们登录到 guest 的 Python 容器:
$ docker exec -it confs-9999_python_1 bash
复制代码
使用 fate_flow 运行 DNN 任务:
$ python fate_flow/fate_flow_client.py -f submit_job -c examples/federatedml-1.x-examples/homo_nn/test_homo_nn_keras_temperate.json -d examples/federatedml-1.x-examples/homo_nn/test_homo_nn_train_then_predict.json
复制代码
得到输出:
{
"data": {
"board_url": "http://fateboard:8080/index.html#/dashboard?job_id=202003191510586887818&role=guest&party_id=9999",
"job_dsl_path": "/data/projects/fate/python/jobs/202003191510586887818/job_dsl.json",
"job_runtime_conf_path": "/data/projects/fate/python/jobs/202003191510586887818/job_runtime_conf.json",
"logs_directory": "/data/projects/fate/python/logs/202003191510586887818",
"model_info": {
"model_id": "arbiter-10000#guest-9999#host-10000#model",
"model_version": "202003191510586887818"
}
},
"jobId": "202003191510586887818",
"retcode": 0,
"retmsg": "success"
}
复制代码
model_id 和 model_version 合起来是确定一个模型的依据,下一步进行预测时候会用到。
登录 fateboard 查看任务,下图为完成训练:
5、使用模型预测
我们用之前训练的 MNIST 数据集来做预测,所以就不用再上传数据了。
$ awk -F'\t' -v OFS=',' '
NR == 1 {print "id",$0; next}
{print (NR-1),$0}' mnist_test.csv > mnist_test_with_id.csv
$ sed -i "s/label/y/g" mnist_test_with_id.csv
复制代码
1.1 定义预测 pipeline
预测也是由 guest(9999)方发起,新建 test_predict_conf.json
$ vi examples/federatedml-1.x-examples/homo_nn/test_predict_conf.json
{
"initiator": {
"role": "guest",
"party_id": 9999
},
"job_parameters": {
"work_mode": 1,
"job_type": "predict",
"model_id": "arbiter-10000#guest-9999#host-10000#model",
"model_version": "202003191510586887818"
},
"role": {
"guest": [9999],
"host": [10000],
"arbiter": [10000]
},
"role_parameters": {
"guest": {
"args": {
"data": {
"eval_data": [{"name": "homo_mnist_guest", "namespace": "homo_mnist_guest"}]
}
}
},
"host": {
"args": {
"data": {
"eval_data": [{"name": "homo_mnist_host", "namespace": "homo_mnist_host"}]
}
}
}
}
}
复制代码
job_parameters 里面的 model_id 和 model_version 就是刚刚训练时输出里面的,guest 和 host 的数据的名字和命名空间都和训练时一致。
1.2 进行预测
$ python fate_flow/fate_flow_client.py -f submit_job -c examples/federatedml-1.x-examples/homo_nn/test_predict_conf.json
复制代码
登录 Fateboard 查看是否完成预测。
1.3 下载预测结果
$ python fate_flow/fate_flow_client.py -f component_output_data -j 2020032001133193102117 -p 9999 -r guest -cpn homo_nn_1 -o examples/federatedml-1.x-examples/homo_nn
复制代码
f:fate_flow 的任务种类,component_output_data 是获取模块输出用的。
j:jobID,在刚刚预测时候输出里。
p:partyID,guest 方是 9999。
r:角色,guest。
cpn:模块名称,是训练模型时 pipeline(examples/federatedml-1.x-examples/homo_nn/test_homo_nn_train_then_predict.json)定义的,本次是 homo_nn_1。
o 是下载结果的输出路径。
运行完这条命令之后,会发现 examples/federatedml-1.x-examples/homo_nn/目录下多了一个 job_2020032001133193102117_homo_nn_1_guest_9999_output_data 目录。
查看一下这个目录里面的内容:
ls job_2020032001133193102117_homo_nn_1_guest_9999_output_data
output_data.csv output_data_meta.json
复制代码
output_data.csv:预测的结果集。
output_data_meta.json:结果集的元数据,就是结果集表头。
作者介绍:
彭路,VMware 云原生实验室工程师,FATE/KubeFATE 项目贡献者。
评论 2 条评论