更新时间:2022-02-08 17:53:26
封面
版权页
关于作者
关于封面
O’Reilly Media Inc.介绍
译者序
序言
前言
第1章 Kubeflow及其适用对象
1.1 模型开发生命周期
1.2 Kubeflow适合什么场景
1.3 为什么需要容器化
1.4 为什么需要Kubernetes
1.5 Kubeflow的设计和核心组件
1.5.1 使用notebook进行数据探索
1.5.2 数据准备与特征准备
1.5.3 训练
1.5.4 超参调优
1.5.5 模型验证
1.5.6 推理/预测
1.5.7 Pipeline
1.5.8 组件概述
1.6 Kubeflow的替代方案
1.6.1 Clipper
1.6.2 MLflow
1.6.3 其他替代方案
1.7 案例研究
1.7.1 MNIST
1.7.2 邮件列表数据
1.7.3 产品推荐系统
1.7.4 CT扫描
1.8 总结
第2章 你好,Kubeflow
2.1 搭建Kubeflow
2.1.1 安装Kubeflow及其依赖项
2.1.2 搭建本地Kubernetes
2.1.3 搭建Kubeflow开发环境
2.1.4 创建第一个Kubeflow项目
2.2 训练和部署模型
2.2.1 训练和监测进展
2.2.2 测试查询
2.3 超越本地部署
2.4 总结
第3章 Kubeflow设计:超越基础
3.1 中央仪表盘
3.1.1 notebook(JupyterHub)
3.1.2 训练operator
3.1.3 初识Kubeflow Pipeline
3.1.4 超参调优
3.1.5 模型推理
3.1.6 元数据
3.1.7 组件概述
3.2 支持组件
3.2.1 MinIO
3.2.2 Istio
3.2.3 Knative
3.2.4 Apache Spark
3.2.5 Kubeflow多用户隔离
3.3 总结
第4章 Kubeflow Pipeline
4.1 Pipeline入门
4.1.1 探索预置的Pipeline样例
4.1.2 用Python构建一个简单的Pipeline
4.1.3 步骤之间存储数据
4.2 Kubeflow Pipeline组件介绍
4.2.1 Argo:Pipeline的基石
4.2.2 Kubeflow Pipeline对Argo工作流的增强
4.2.3 使用现有镜像构建Pipeline
4.2.4 Kubeflow Pipeline组件
4.3 Pipeline高级主题
4.3.1 Pipeline阶段的条件执行
4.3.2 按计划执行Pipeline
4.4 总结
第5章 数据准备和特征准备
5.1 选择正确的工具
5.2 本地数据准备和特征准备
5.2.1 获取数据
5.2.2 数据清理:过滤垃圾信息
5.2.3 格式化数据
5.2.4 特征准备
5.2.5 自定义容器
5.3 分布式工具
5.3.1 TensorFlow扩展
5.3.2 使用Apache Spark的分布式数据
5.3.3 使用Apache Spark的分布式特征准备
5.4 将其整合到一个Pipeline中
5.5 将整个notebook作为数据准备Pipeline阶段使用
5.6 总结
第6章 制品和元数据存储
6.1 Kubeflow ML Metadata
6.1.1 编程查询
6.1.2 Kubeflow Metadata用户界面
6.2 基于Kubeflow的MLflow元数据工具
6.2.1 创建和部署MLflow跟踪服务器
6.2.2 记录运行数据
6.2.3 使用MLflow用户界面
6.3 总结
第7章 训练机器学习模型
7.1 用TensorFlow构建推荐器
7.1.1 入门