赞
踩
小叽导读:深度网络对机器学习研究和应用领域产生了巨大的影响,与此同时却无法很清晰地解释神经网络的来龙去脉。迄今为止,深度学习不够透明,神经网络整体看来仍然是一个黑箱。因此,人们一直致力于更透彻地去理解其中复杂的过程,从而达到进一步优化的目的。由于人类对于世界的认知和感受主要来自于视觉,良好的可视化可以有效地帮助人们理解深度网络,并进行有效的优化和调节。
一. 背景
(图片引自 2018 AI predictions:8 insights to shape business strategy)
二. DeepInsight系统架构
目前来看:数据科学负责见解;机器学习负责预测;人工智能负责行为。同时,这几个领域之间存在着很多重叠。数据科学与其他两个领域不同,因为它的目标跟人类的目标尤其接近:获得洞察力和理解力,这也是DeepInsight平台命名的由来。
DeepInsight是基于分布式微服务集群化部署的深度学习可视化评估平台,由前端WEB平台+后端微服务+深度学习组件等三个子系统构成,各个微服务实例之间是隔离的,互不影响;目前支持TensorflowRS及原生Tensorflow训练任务的生命周期管理。旨在通过数据透出及可视化等手段,解决模型调试及问题定位分析等系列问题,提高神经网络的可解释性;以生命周期管理的方式执行训练任务,从而提供一站式的可视化评测服务。平台在赋能业务的同时,业务也会将后期处理过的数据反馈给平台,从而构建以DeepInsight为基础数据核心的AI可视化生态圈。
三. 基于数据透出的多维度可视化分析
目前深度学习组件(TF-Tracer/TF-Profiler等)主要负责数据透出、实时监控和输出控制等,透出的数据主要是模型训练过程中的Raw Data(未经加工或计算统计);后端微服务(Tensorboard+/Notebook+)和前端WEB平台(高维可视化)负责相关数据的在线离线交互式等方面的可视化分析评估;以模型训练任务的生命周期管理(Lifecycle)贯穿始终,从而形成多维度可视化分析的生态循环。
3.1.1 TF-Tracer:基于计算图的全面数据透出
数据透出组件TF-Tracer是基于Tensorflow 计算图(tf.Graph)开发的,可以全面透出计算图中的所有变量(tf.Variable),基于图数据集(tf.GraphKeys),通过正则表达式对变量集合进行匹配过滤,透出相应变量数据集合,同时也支持直接指定变量列表进行数据透出,支持NumPy/Bin两种数据格式输出。
对于非计算图中的变量,用户也可以通过回填的方式,添加到官方预置图数据集或自定义图数据集中;
TF-Tracer配置文件示例,具体详见TF-Tracer User Guide:
- "trace": "true", //tf_tracer深度学习组件开关,如果为"false"或无此key的时候,会关闭此功能,同时对原有训练无任何功能或性能上的影响 "trace_config": {
- "graphkeys": "TRAINABLE_VARIABLES,<自定义Graph Key>", //支持自定义graph key, 多个key之间以逗号分隔 "scopes": {
- "TRAINABLE_VARIABLES": "^layer3.*" //可选参数,支持正则表达式(python.re)过滤, 详见文档底部;如不填写,则默认为graph key(s)中的所有tensor(s)
- },
- "every_steps": 5000, //每隔多少步,为local step "every_secs": 60, //每隔多少秒 "step_range": { //步数区间,为local step "start": 5000,
- "end": 5010
- }, //输出模式三选一,当key同时存在时,优先级为:every_steps > every_secs > step_range "save_config":{
- "dump_dir": "hdfs://ns1/data/xxx/tftracer/trace_output_dir",
- "data_format": "csv", //可选参数, 默认为csv,输出为numpy格式,包括global step, "limit_size": 90000 //可选参数, 针对同一变量tag,每步输出数据的max size,默认100000
- },
- "chief_only": "false" //可选参数,在dist_train模式下,支持是否只有work0(为true时)输出数据 "logview_level": "detail" //可选参数,针对logview打印分级,默认为summary "at_begin": "true", //可选参数, 会在session run之前trace输出一次,主要为非variable数据 "at_begin_config": { //含义和上述相同,会使用save_config中的参数作为存储配置(除limit_size)
- "graphkeys": "default_summary_collection",
- "scopes": {
- "default_summary_collection": ".*Relu.*"
- },
- "limit_size": 100000000 //可选参数,同上,输出数据的max size,默认100000000
- }
- }
对于常量或训练过程中恒定不变的变量,支持以[AT BEGIN]方式只在训练开始时透出一次,从而提高性能,节省存储空间;
支持分布式多session输出,提供cheif_only配置选项,指定是否只有work0输出数据文件;
支持三种模式数据采样:
1)every_steps:基于步数采样;
2)every_secs:基于时间采样;
3)step_range:基于步数范围采样;
支持四种方式输出:
1)HDFS:以变量为最小颗粒度生成日志文件,为每个worker生成相应的文件夹,将数据实时透出到HDFS文件系统中,支持Text/Bin两种格式,目前默认以CSV的格式存储,支持ODPS直读;
1)前端WEB平台支持高维数据可视化展示:支持多种模式(面积图/柱状图等)、支持不同时间轴(基于layer input/global step)、支持动态旋转和放大缩小展示,同时支持将数据(单一/批量)上传到ODPS;
现有深度学习框架的数据透出方式一般是静态的且不全面,尤其是分布式架构。用户在训练任务开始前指定透出数据集,任务开始执行后不能修改;修改的话,需要中断任务重新修改代码或配置。对于运行周期较长的模型训练,如Online Learning,在训练过程中发现异常的话,有时很难根据现有透出数据进行定位;而重启任务更新透出数据集的话,有些问题并不能复现(深度学习统计学特性)。
针对上述问题,TF-Tracer在不重启训练任务的前提下,支持在线动态更新透出数据集:
支持在模型训练过程中,在线修改透出数据集合,并实时透出更改后的数据集;
针对于cheif_only等于False的情况,即所有worker都透出数据时,支持指定worker动态更新,非指定worker透出数据不变,便于双向对比;
worker0:
由于当前Tensorflow timeline文件只支持展示一个session.run,不支持展示多个session.run,而线上训练都是基于分布式运行的,会产生多个session.run(每个worker至少产生一个)。而当分布式模型训练出现运行较慢的问题时,需要从整体上定位分析,即一个timeline展示多个session.run的集合,而Tensorflow不能满足此需求。
TF-Profiler是基于原生的深度学习框架中的性能采样接口,进行了二次开发,支持根据配置文件,自动化跨session生成性能数据、数据分层以及自动分析统计等功能,同时对Tensorboard+ Profile plugin也进行了二次开发,实现了对线上性能文件可视化展示。(TF-Profiler具体功能详见:DeepInsight深度学习评估平台 -- 性能调优组件)
当前主要包括Notebook+(交互式可视化分析)和Tensorboard+(可视化工具)两类Docker化微服务,前端WEB平台负责容器编排,通过Nginx反向代理提供动态端口转发功能,支持多用户并发访问;容器实例以集群的方式部署在多个服务器上,同一服务器上的容器对不同用户而言使用不同端口访问,并做到进程间隔离,在高并发的同时保证系统的稳定性。
3.2.1 Notebook+:交互式可视化分析
基于Jupyter Notebook开源版本进行二次开发的Docker镜像服务,提供交互式可视化分析及线上本地调试等服务。
提供TF-Tracer Reader在线读取日志文件进行交互式可视化分析,支持HDFS/OSS/ODPS/GIT等方式读写数据;
支持Python2和Python3两种运行环境,其中Python2为TensorflowRS运行环境,Python3为最新版原生Tensorflow运行环境,预装Keras等深度学习框架及相关数据科学软件;
3.2.2 Tensorboard+ 2.0:高性能实时在线可视化
在原有版本上更新了Tensorboard+ core版本,从1.2.0rc更新到了1.5.0a,同时保持了原有1.0版本数据目录在线动态切换及数据报表聚合对比等功能(1.0版本功能详见:如何评估深度学习模型效果?阿里工程师这么做):
优化了数据加载模块,启动性能提升了3~5倍左右,解决了线上超大数据文件加载慢的问题,改善用户体验;
在性能不变的前提系,增加Scalar图加载数据点数,由原来的200点上升至1000点,图像精度更高,更加利于可视化分析;
基于Web UI和HTTP API等方式对外提供服务。其中前端UI主要面向终端用户;API接口主要面向第三方平台,如PAI和XDL等平台。平台前端主要包括集群管理、Dashboard、配置管理、权限管理和数据管理,以及和训练相关的生命周期管理模块,其包括:可视化管理、日志管理、工作台管理、实验室管理、组件管理等。
提供训练任务从TensorflowRS镜像发布、模型本地开发调试到线上分布式运行的全流程整体解决方案,覆盖模型训练全阶段生命周期管理。典型用户场景(user path)如下:
Step1. 首先用户通过在线工作台(Notebook+)进行线上本地开发调试,并可以使用iPython进行交互式可视化分析,比如对TF-Tracer产生的日志数据进行在线分析;同时支持从实验室导入训练任务进行本地调试;
Step2. 当本地调试通过后,用户可选择相应文件存储至实验室中,执行分布式训练任务,同时应用深度学习组件,如TF-Tracer透出日志数据,供后续分析或二次消耗;支持基于配置文件的扩展服务,如Early Stop/GAUC等,通过Metaq和扩展服务通信,并将相关扩展结果在平台展示;其中实验室与本地工作台对于训练任务而言,是双向导通的;
Step3. 用户在本地工作台或实验室中,可以通过组件管理功能,引入或导出当前模型或组件,供后续个人或其他用户使用;
Step4. 在任务执行期间或结束后,用户通过日志管理模块(Logview)查询当前任务日志或执行结果,以及使用相关扩展服务;可以通过可视化管理模块在平台和Tensorboard+上查看相关数据可视化结果;
集群管理模块主要提供分布式微服务集群管理:
支持线上资源实时在线扩容、后端容器编排(作业调度&资源管理等)以及微服务一键式部署等功能;
DeepInsight平台目前主要通过两种方式对第三方平台提供服务:
镜像微服务:第三方平台平台现有镜像微服务或基于平台的镜像模版提供相应镜像与服务器资源,平台负责镜像发布、集群管理和容器编排等微服务一站式管理工作,通过HTTP API调用相关服务;
基础数据服务:第三方平台使用平台相关数据服务,通过HTTP API调用相关服务;
目前已对集团PAI平台、XDL平台和Lotus平台等提供相关服务:
对集团PAI平台提供Tensorboard+ 1.0服务,支持OSS直读日志文件:
四. 小结
下一阶段,平台会继续扩展可视化的维度,同时也会把多种维度有序汇地总到一起,基于训练模型形成更加完善的可视化系统,即数据可视化的进阶版:模型可视化。当用户提交训练任务后,会以模型的方式映射到任务本身,训练数据实时透出并加以监控,同时以模型为骨架并辅以数据流向的展示,进行深度学习全链路多维度可视化分析,如:特征到权重的双向跟踪,从而可以更好地帮助用户理解模型,更准确地确定数据透出范围,以及更有效地对相关数据进行交互式分析。
另外,样本特征作为模型训练的输入,对训练的最终效果(过拟合/欠拟合)起到了重要的作用。目前Notebook+正在尝试通过嵌入Facets,帮助用户理解并分析各类深度学习数据集。用户可以在训练前通过可视化的方式,更好地理解数据集中所有特征的值分布(Facets Overview),探索数据集中不同特征数据点之间的关系(Facets Dive)。
Facets Overview:
原文发布时间为:2018-09-27
本文作者:孙凯
本文来自云栖社区合作伙伴“ 阿里巴巴机器智能”,了解相关信息可以关注“ 阿里巴巴机器智能”。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。