智能集市概述¶
智能集市(AI Hub)为智能模型的使用者和数据科学家提供智能资产的集散中心,为模型开发者提供全面的模型注册流程和托管服务。
当一个模型从智能实验室中开发完成,或者是在第三方的系统中开发完成后,模型开发者需要将其部署到生产环境中执行预测任务。基于用户模型更新的需求,用户可以通过金丝雀部署、蓝绿部署的方式将多个模型同时部署到生产环境中。智能集市为模型开发者提供科学有效的版本管理工具,并可以在安全可控的环境中分享给终端用户和其他协作者,同时也可复用其他协同开发人员的智能资产。
产品架构¶
通过智能集市上架和部署机器学习模型的流程如下图所示。
主要功能 ¶
ML 模型注册
基础信息注册:智能集市提供了引导式的模型注册流程,数据科学家或模型开发者可对模型按技术归属、类目、输入数据类型、应用领域等进行归类注册。
模型数据输入输出设置:支持标准化模型数据输入输出设置。
ML 模型部署
支持主流的算法模型计算框架,包括 Tensorflow、Pytorch、Sklearn、Spark、H2o。
支持与计算框架匹配的协处理器。
支持部署不同编程语言的算法模型,目前支持 Java 和 Python。
提供可视化的部署画布,支持蓝绿部署和金丝雀部署模式,将模型部署到指定资源池。
ML 模型版本管理
支持多种模型构建方式,包括通过 MLflow 导入、容器镜像文件导入、Seldon core 方式导入、自定义第三方导入。
支持同一模型上架多个版本,以便于模型在线迭代。
支持对模型的版本进行测试,帮助确保每一个上线的版本都可用。
ML 模型的安全协作
智能集市提供安全可控的环境,对于以公有模式注册的模型,支持协作开发。
ML 模型生命周期管理
支持对模型版本进行升级、退役、再利用、删除等操作。
样例模型
提供了多个通用的典型 ML 模型,帮助用户熟悉各类算法和应用。
资源准备¶
AI 容器计算资源
使用智能集市注册和部署模型前,需确保 OU 已经通过 EnOS 管理控制台 > 资源管理 页面申请 AI 容器计算 资源的 子分区 资源模式。有关申请 AI 容器计算 资源的详细信息,参见 容器计算资源规格说明。
使用说明¶
ML 模型可用性
模型开发者需确保开发的模型可用,并在注册模型时定义标准的特征输入和目标输出参数。