HACK80 首页  立即注册  登录
现在注册
已注册用户请  登录
HACK80    技术文档

XLearning:一款支持多种机器学习、深度学习框架调度系统

  •   EvilGod ·2017-12-6 17:39:21·454 次点击 ·阅读模式     

    马上注册,加入HACK80!与我们一起交流。

    您需要 登录 才可以下载或查看,没有帐号?立即注册

    x
    XLearning是一款支持多种机器学习、深度学习框架调度系统。基于Hadoop Yarn完成了对TensorFlow、MXNet、Caffe、Theano、PyTorch、Keras、XGBoost等常用框架的集成,同时具备良好的扩展性和兼容性。
    English Document

    架构设计
    XLearning系统包括三种组件:
    • Client:XLearning客户端,负责启动作业及获取作业执行状态;
    • ApplicationMaster(AM):负责输入数据分片、启动及管理Container、执行日志保存等;
    • Container:作业的实际执行者,负责启动Worker或PS(Parameter Server)进程,监控并向AM汇报进程状态,上传作业的输出等。对于TensorFlow类型作业,还负责启动TensorBoard服务。
    功能特性1 支持多种深度学习框架支持TensorFlow、MXNet分布式和单机模式,支持所有的单机模式的深度学习框架,如Caffe、Theano、PyTorch等。对于同一个深度学习框架支持多版本和自定义版本。
    2 基于HDFS的统一数据管理训练数据和模型结果统一采用HDFS进行存储,用户可通过--input-strategy或xlearning.input.strategy指定输入数据所采用的读取方式。目前,XLearning支持如下三种HDFS输入数据读取方式:
    • Download: AM根据用户在提交脚本中所指定的输入数据参数,遍历对应HDFS路径下所有文件,以文件为单位将输入数据平均分配给不同Worker。在Worker中的执行程序对应进程启动之前,Worker会根据对应的文件分配信息将需要读取的HDFS文件下载到本地指定路径;
    • Placeholder: 与Download模式不同,Worker不会直接下载HDFS文件到本地指定路径,而是将所分配的HDFS文件列表通过环境变量INPUT_FILE_LIST传给Worker中的执行程序对应进程。执行程序从环境变量os.environ["INPUT_FILE_LIST"]中获取需要处理的文件列表,直接对HDFS文件进行读写等操作。该模式要求深度学习框架具备读取HDFS文件的功能,或借助第三方模块库如pydoop等。
    • InputFormat: XLearning集成有MapReduce中的InputFormat功能。在AM中,根据“split size”对所提交脚本中所指定的输入数据进行分片,并均匀的分配给不同Worker。在Worker中,根据所分配到的分片信息,以用户指定的InputFormat类读取数据分片,并通过管道将数据传递给Worker中的执行程序进程。
    同输入数据读取类似,用户可通过--output-strategy或xlearning.output.strategy指定输出结果的保存方式。XLearning支持如下两种结果输出保存模式:
    • Upload: 执行程序结束后,Worker根据提交脚本中输出数据参数,将本地输出路径保存文件上传至对应HDFS路径。为方便用户在训练过程中随时将本地输出上传至HDFS,XLearning系统在作业执行Web界面提供对输出模型的当前状态主动保存的功能,详情请见“可视化界面”说明部分;
    • OutputFormat: XLearning集成有MapReduce中的OutputFormat功能。在训练过程中,Worker根据指定的OutputFormat类,将结果输出至HDFS。
    3 可视化界面作业运行界面大致分为三部分:
    • All Containers:显示当前作业所含Container列表及各Container对应信息,如Contianer ID、所在机器(Container Host)、所属类型(Container Role)、当前执行状态(Container Status)、开始时间(Start Time)、结束时间(Finish Time)、执行进度(Reporter Progress)。其中,点击Container ID超链接可查看该Container运行的详细日志;
    • View TensorBoard:当作业类型为TensorFlow时,可点击该链接直接跳转到TensorBoard页面;
    • Save Model:当作业提交脚本中“--output”参数不为空时,用户可通过Save Model按钮,在作业执行过程中,将本地输出当前模型训练结果上传至HDFS。上传成功后,显示目前已上传的模型列表。
    如下图所示:

    4 原生框架代码的兼容性TensorFlow分布式模式支持“ClusterSpec”自动分配构建,单机模式和其他深度学习框架代码不用做任何修改即可迁移到XLearning上。
    编译&部署指南1 编译环境依赖
    • jdk >= 1.7
    • Maven >= 3.3
    2 编译方法在源码根目录下,执行:
    mvn package
    完成编译后,在源码根目录下的target目录中会生成发布包xlearning-1.0-dist.tar.gz。该发布包解压后的主要目录结构如下:
    • bin:作业提交脚本
    • lib:XLearning jar包及所依赖jar包
    • conf:XLearning配置文件
    • sbin:XLearning History Server启动脚本
    • data:运行示例所需输入数据和文件
    • examples:运行示例
    3 部署环境依赖
    • CentOS 7.2
    • Java >= 1.7
    • Hadoop = 2.6,2.7,2.8
    • [可选]各计算节点具有所需学习平台的依赖环境,如TensorFlow、numpy、Caffe等。
    4 XLearning客户端部署方法在XLearning发布包根目录$XLEARNING_HOME下的conf目录中,分别配置如下文件:
    • xlearning-env.sh:设置相关环境变量,如:

      • JAVA_HOME
      • HADOOP_CONF_DIR
    • xlearning-site.xml:详细系统配置说明请见配置参数部分。
    • log4j.properties:配置日志级别

    5 XLearning History Server启动方法
    • 执行$XLEARNING_HOME/sbin/start-history-server.sh
    运行示例在XLearning客户端,使用$XLEARNING_HOME/bin/xl-submit提交脚本将作业提交至Yarn集群。以TensorFlow作业提交为例:
    1 上传训练数据至hdfs路径将发布包解压后的data文件夹上传至hdfs,如:
    1. cd $XLEARNING_HOME
    2. hadoop fs -put data /tmp/
    复制代码

    2 提交运行
    1. <pre><code> cd $XLEARNING_HOME/examples/tensorflow
    2. $XLEARNING_HOME/bin/xl-submit \
    3.    --app-type "tensorflow" \
    4.    --app-name "tf-demo" \
    5.    --input /tmp/data/tensorflow#data \
    6.    --output /tmp/tensorflow_model#model \
    7.    --files demo.py,dataDeal.py \
    8.    --launch-cmd "python demo.py --data_path=./data --save_path=./model --log_dir=./eventLog --training_epochs=10" \
    9.    --worker-memory 10G \
    10.    --worker-num 2 \
    11.    --worker-cores 3 \
    12.    --ps-memory 1G \
    13.    --ps-num 1 \
    14.    --ps-cores 2</code></pre>
    复制代码

    提交脚本各参数含义如下:
    参数名称含义
    app-name作业名称为 "tf-demo"
    app-type作业类型为 "tensorflow"
    input输入文件,HDFS路径:/tmp/data/tensorflow,对应本地路径./data
    output输出文件,HDFS路径:/tmp/tensorflow_model,对应本地路径./model
    files需要传给各container的本地文件,包括 demo.py、dataDeal.py
    launch-cmd训练执行命令
    worker-memoryworker内存使用为10G
    worker-numworker数目为2
    worker-coresworker使用CPU核数为3
    ps-memoryparameterServer内存使用为1G
    ps-numparameterServer数目为1
    ps-coresparameterServer使用CPU核数为2更多相关参数详细说明请见运行提交参数部分。

    454 次点击  
    收藏  转播  分享
    添加一条新回复
    您需要登录后才可以回帖 登录 | 立即注册

    本节点积分规则
    QQ
    小黑屋   ·   手机版   ·   228 人在线 最高记录 5500   ·   TOP
    我们很年轻,但我们有信念、有梦想!

      我们坚信只有今天付出了,才有机会看到明天的太阳!现在!加入我们,给你一个气氛优秀的技术圈子。  
    GMT+8, 2018-7-23 06:20, Processed in 0.044717 second(s), 18 queries .