CSDN热搜
4.3.3.1.1. 模型在消费应用程序(consuming application)中构建和打包,模型代码作为应用程序代码的一部分被无缝管理
4.3.3.1.2. 此模式的一个变体是库部署,其中模型作为库嵌入应用程序代码中
4.3.3.2.1. 模型被打包到一个服务中,该服务可以独立于消费应用程序进行部署,因此允许独立发布模型的更新
4.3.3.3.1. 模型可以被独立地处理和发布,但是消费应用程序接收来自数据流的推理,而不是API调用
4.3.4.3.1. 预测模型标记语言(Predictive Model Markup Language,PMML)
4.3.4.3.2. 最初被认为是一种“事实上的标准”,它提供了一种共享模型(如神经网络、支持向量机(SVM)、朴素贝叶斯分类器等)的方法
4.3.4.3.3. 基于XML的,鉴于XML不再被广泛使用,因此PMML在深度学习领域并不受欢迎
4.3.4.3.4. 继任者—可移植格式分析(PFA)基于Avro格式,并由同一个组织开发
4.3.4.4.1. Facebook和微软联手创建了ONNX(开放神经网络交换),它使用谷歌的协议缓冲区作为一种可互操作的格式
4.3.4.4.2. 专注于推理所需的功能,定义了一个可扩展的计算图模型,以及内置运算符和标准数据类型的定义
4.3.4.4.3. ONNX受到广泛支持,可以在许多框架、工具和硬件中找到它的身影
4.3.4.5.1. Spark MLWritable是Spark附带的标准型号存储格式,仅限于在Spark内使用
4.3.4.5.2. MLeap为导出和导入Spark、scikit-learn和TensorFlow模型提供了一种通用的序列化格式
4.3.4.5.3. Pickle是一个标准的Python序列化库,用于将scikit-learn和其他机器学习库中的模型保存到文件中
4.3.5.1.1. 使用最新的版本更新已部署的模型,不影响依赖模型的应用程序
4.3.5.1.2. 尤其适用于打包为独立服务的模型
4.3.5.2.1. 此模式捕获了生产中新模型的输入和推理,而不实际为这些推理提供服务
4.3.5.2.2. 如果检测到bug,就可以对结果进行分析,且不会产生重大后果
4.3.5.3.1. 金丝雀发布将新模型应用于一小部分服务请求
4.3.5.3.2. 它需要成熟的部署工具,但可以最小化当错误发生时所产生的后果
4.3.5.3.3. 典型的方法是使用切换Web服务和两个单独模型终端进行金丝雀测试
4.3.5.4.1. 不同的用户组可以使用不同的模型
4.3.5.4.2. 支持A/B测试需要编排服务的粘性,即构建用户存储桶(bucket),将它们粘贴到不同的终端,并记录各自的结果
4.3.5.4.3. 一个关键要求是能够将多个模型部署到同一个终端
使用道具 举报
本版积分规则 回帖并转播 回帖后跳转到最后一页
程序园优秀签约作者
0
粉丝关注
19
主题发布