DaemonSet类型和job类型服务部署

智能边缘 BIE

  • 产品描述
    • 名词解释
    • 使用限制
    • 产品概述
    • 产品优势
    • 应用场景
  • 配置文件说明
    • baetyl-rule
    • baetyl-remote-object
    • baetyl-function
    • baetyl-broker
  • 快速入门
    • 融合模式节点安装
    • 快速入门指南
    • 离线安装k3s+docker
    • 进程模式节点安装
      • 在linux上安装
      • 在windows上安装
  • 典型实践
    • OPC-UA使用
    • 使用BIE函数计算调用文心一言
    • 边缘规则引擎实战
      • 集成Kuiper流式计算引擎
      • 边缘规则实例
    • 将AI中台模型部署至边缘节点
      • 获取AI中台模型部署包进行应用部署
      • 部署模型SDK至Atlas200DK
      • 模型中心1.0
        • 通过AI中台转换模型并下发至边缘
        • 通过AI中台直接将模型下发至边缘
      • 模型中心2.0
        • 将物体检测模型部署至边缘
        • 将图像分类模型部署至边缘
    • 部署PaddleServing模型
      • 使用BIE下发PaddleOCR模型
      • 制作GPU版本Paddle Serving推理镜像
      • 通过BIE部署Paddle Serving
    • Modbus协议采集温湿度传感器
      • 连接边缘baetyl-broker
      • 使用内置modbus驱动采集数据并进行边缘函数计算
      • 数据从baetyl-broker上传至IoTCore
    • 部署EasyDL模型SDK
      • 部署EasyDL烟火检测模型至ARM64节点
    • 部署EasyEdge模型SDK
      • 进程模式下发python SDK模型
      • 使用EasyEdge模型转换获取边缘模型
      • 部署模型SDK至Windows设备
      • 部署模型SDK至Intel Movidius设备
      • 部署模型SDK至Jetson Xavier
    • 部署自定义容器镜像模型
      • 部署mnist手写数字识别模型
      • 部署物体检测模型
    • video-infer实现边缘视频AI推断
      • 使用Movidius VPU加速边缘视频推断
      • 使用CPU实现边缘视频推断
  • 操作指南
    • 主子用户鉴权
    • 设备管理
      • 设备模拟器
      • 子设备数据云边交互方式
      • 进程模式软网关设备接入指南
      • 子设备数据云边交互方式-v2
      • 视频流管理
        • IPC子设备和驱动
        • 边缘转发RTSP视频流
      • 设备接入
        • 设备模型管理
        • 接入模板
        • 设备管理
        • 子设备绑定
      • 驱动管理
        • 进程模式软网关自定义驱动开发
        • 驱动管理
        • GO语言实现示例
        • 自定义驱动开发指南
      • 不同协议设备接入
        • BACnet设备接入
        • OPC-UA设备接入
        • Modbus 设备接入
        • IEC104设备接入
        • OPC-DA设备接入
    • 节点管理
      • 边缘应用获取云端STS鉴权
      • 进程模式节点
      • 远程MQTT消息下发
      • 节点运行模式说明
      • 节点影子
      • 远程调用
      • 容器模式节点
      • 远程调试
      • 远程SSH边缘节点
      • 边缘节点OpenAPI
      • 证书管理
      • 节点预配
    • 业务编排
      • 单元管理
      • 技能管理
      • 常见技能
    • 应用管理
      • 业务模版
      • 应用部署
        • 应用运行模式与分类说明
        • 函数应用
          • 自定义函数与依赖包解耦下发
          • 从CFC引入多个函数下发
          • 典型使用说明
          • 使用函数调用边缘AI模型
          • 自定义函数与依赖包整体下发
        • 容器应用
          • subpath子路径使用说明
          • workdir工作目录使用说明
          • Job类型容器应用
          • 容器应用状态说明
          • 原生yaml接入使用说明
          • 端口映射说明
          • 容器应用工作负载类型说明
          • Deployment类型容器应用
          • DaemonSet类型容器应用
          • QPS监控
          • emptyDir卷使用说明
          • 边缘服务调用
        • 进程应用
          • 进程应用概述
          • 可执行二进制程序类型进程应用
          • 可执行脚本类型进程应用
      • 配置管理
        • 证书
        • 函数
        • 镜像仓库凭证
        • 配置项
        • 密文
        • 镜像
        • 进程程序包
    • AI加速卡
      • AI加速卡通用资源调度方法
      • 自定义加速卡算力指标采集
      • 华为昇腾
        • 昇腾310资源监控
      • 英伟达
        • GPU资源调度-显存隔离
        • Jetson资源监控
        • GPU资源调度-显存共享
        • Jetson依赖说明
        • NVIDIA GPU资源监控
      • 寒武纪
        • MLU270资源监控
      • 百度昆仑
        • 昆仑芯片资源监控
      • 比特大陆
        • 挂载比特大陆边缘计算盒子tpu资源
        • BM-SE5资源监控
  • 服务等级协议SLA
    • 服务等级协议SLA(V1.0)
  • 备份
    • 进程模式应用
    • 部署通用CPU模型
    • 部署模型SDK至Atlas200DK
    • 适配列表
    • 连接边缘节点本地baetyl-broker
    • 使用自定义modbus应用采集
    • NVIDIA GPU资源管理
    • FAQ
    • NVIDIA Jetson专用模型部署-进程模式
    • 容器模式应用
    • 连接边缘节点本地baetyl-broker服务
    • DaemonSet类型和job类型服务部署
    • 通用CPU模型部署-容器模式
    • NVIDIA Jetson专用模型部署-容器模式
    • 功能发布记录
    • 在BIE控制台部署从AI中台下载的模型
    • EasyEdge概述
    • Nvidia_Jetson
      • 使用NVIDIA官方镜像运行模型-容器模式
      • 二进制程序运行模型-进程模式
      • 使用edgekit镜像运行模型-容器模式
    • 下载专区
      • 相关资源下载
  • 产品定价
    • 产品定价
所有文档
menu
没有找到结果,请重新输入

智能边缘 BIE

  • 产品描述
    • 名词解释
    • 使用限制
    • 产品概述
    • 产品优势
    • 应用场景
  • 配置文件说明
    • baetyl-rule
    • baetyl-remote-object
    • baetyl-function
    • baetyl-broker
  • 快速入门
    • 融合模式节点安装
    • 快速入门指南
    • 离线安装k3s+docker
    • 进程模式节点安装
      • 在linux上安装
      • 在windows上安装
  • 典型实践
    • OPC-UA使用
    • 使用BIE函数计算调用文心一言
    • 边缘规则引擎实战
      • 集成Kuiper流式计算引擎
      • 边缘规则实例
    • 将AI中台模型部署至边缘节点
      • 获取AI中台模型部署包进行应用部署
      • 部署模型SDK至Atlas200DK
      • 模型中心1.0
        • 通过AI中台转换模型并下发至边缘
        • 通过AI中台直接将模型下发至边缘
      • 模型中心2.0
        • 将物体检测模型部署至边缘
        • 将图像分类模型部署至边缘
    • 部署PaddleServing模型
      • 使用BIE下发PaddleOCR模型
      • 制作GPU版本Paddle Serving推理镜像
      • 通过BIE部署Paddle Serving
    • Modbus协议采集温湿度传感器
      • 连接边缘baetyl-broker
      • 使用内置modbus驱动采集数据并进行边缘函数计算
      • 数据从baetyl-broker上传至IoTCore
    • 部署EasyDL模型SDK
      • 部署EasyDL烟火检测模型至ARM64节点
    • 部署EasyEdge模型SDK
      • 进程模式下发python SDK模型
      • 使用EasyEdge模型转换获取边缘模型
      • 部署模型SDK至Windows设备
      • 部署模型SDK至Intel Movidius设备
      • 部署模型SDK至Jetson Xavier
    • 部署自定义容器镜像模型
      • 部署mnist手写数字识别模型
      • 部署物体检测模型
    • video-infer实现边缘视频AI推断
      • 使用Movidius VPU加速边缘视频推断
      • 使用CPU实现边缘视频推断
  • 操作指南
    • 主子用户鉴权
    • 设备管理
      • 设备模拟器
      • 子设备数据云边交互方式
      • 进程模式软网关设备接入指南
      • 子设备数据云边交互方式-v2
      • 视频流管理
        • IPC子设备和驱动
        • 边缘转发RTSP视频流
      • 设备接入
        • 设备模型管理
        • 接入模板
        • 设备管理
        • 子设备绑定
      • 驱动管理
        • 进程模式软网关自定义驱动开发
        • 驱动管理
        • GO语言实现示例
        • 自定义驱动开发指南
      • 不同协议设备接入
        • BACnet设备接入
        • OPC-UA设备接入
        • Modbus 设备接入
        • IEC104设备接入
        • OPC-DA设备接入
    • 节点管理
      • 边缘应用获取云端STS鉴权
      • 进程模式节点
      • 远程MQTT消息下发
      • 节点运行模式说明
      • 节点影子
      • 远程调用
      • 容器模式节点
      • 远程调试
      • 远程SSH边缘节点
      • 边缘节点OpenAPI
      • 证书管理
      • 节点预配
    • 业务编排
      • 单元管理
      • 技能管理
      • 常见技能
    • 应用管理
      • 业务模版
      • 应用部署
        • 应用运行模式与分类说明
        • 函数应用
          • 自定义函数与依赖包解耦下发
          • 从CFC引入多个函数下发
          • 典型使用说明
          • 使用函数调用边缘AI模型
          • 自定义函数与依赖包整体下发
        • 容器应用
          • subpath子路径使用说明
          • workdir工作目录使用说明
          • Job类型容器应用
          • 容器应用状态说明
          • 原生yaml接入使用说明
          • 端口映射说明
          • 容器应用工作负载类型说明
          • Deployment类型容器应用
          • DaemonSet类型容器应用
          • QPS监控
          • emptyDir卷使用说明
          • 边缘服务调用
        • 进程应用
          • 进程应用概述
          • 可执行二进制程序类型进程应用
          • 可执行脚本类型进程应用
      • 配置管理
        • 证书
        • 函数
        • 镜像仓库凭证
        • 配置项
        • 密文
        • 镜像
        • 进程程序包
    • AI加速卡
      • AI加速卡通用资源调度方法
      • 自定义加速卡算力指标采集
      • 华为昇腾
        • 昇腾310资源监控
      • 英伟达
        • GPU资源调度-显存隔离
        • Jetson资源监控
        • GPU资源调度-显存共享
        • Jetson依赖说明
        • NVIDIA GPU资源监控
      • 寒武纪
        • MLU270资源监控
      • 百度昆仑
        • 昆仑芯片资源监控
      • 比特大陆
        • 挂载比特大陆边缘计算盒子tpu资源
        • BM-SE5资源监控
  • 服务等级协议SLA
    • 服务等级协议SLA(V1.0)
  • 备份
    • 进程模式应用
    • 部署通用CPU模型
    • 部署模型SDK至Atlas200DK
    • 适配列表
    • 连接边缘节点本地baetyl-broker
    • 使用自定义modbus应用采集
    • NVIDIA GPU资源管理
    • FAQ
    • NVIDIA Jetson专用模型部署-进程模式
    • 容器模式应用
    • 连接边缘节点本地baetyl-broker服务
    • DaemonSet类型和job类型服务部署
    • 通用CPU模型部署-容器模式
    • NVIDIA Jetson专用模型部署-容器模式
    • 功能发布记录
    • 在BIE控制台部署从AI中台下载的模型
    • EasyEdge概述
    • Nvidia_Jetson
      • 使用NVIDIA官方镜像运行模型-容器模式
      • 二进制程序运行模型-进程模式
      • 使用edgekit镜像运行模型-容器模式
    • 下载专区
      • 相关资源下载
  • 产品定价
    • 产品定价
  • 文档中心
  • arrow
  • 智能边缘BIE
  • arrow
  • 备份
  • arrow
  • DaemonSet类型和job类型服务部署
本页目录
  • 功能简介
  • DaemonSet类型应用部署流程
  • 应用列表
  • 创建容器应用
  • 基本信息
  • 服务配置
  • 目标设备
  • 应用修改
  • 应用删除
  • 应用部署
  • 应用部署更新
  • job类型应用部署流程
  • 创建应用
  • 验证

DaemonSet类型和job类型服务部署

更新时间:2025-08-21

功能简介

应用是用于定义在一个或一组边缘节点上的部署任务,会将服务配置及存储卷配置下发到匹配的目标设备上,并进行部署。

应用根据边缘节点的标签来匹配目标设备,每一次应用信息的更改都会自动地下发到目标设备,并进行服务重部署及配置的更新。

应用包含一个或以上的服务,在服务的高级设置项中可以选择工作负载类型,现在支持 deployment 类型和 daemonset 类型,默认服务为 Deployment 类型的负载。在选择 DaemonSet 类型的负载并部署后,将在每个集群中的节点上生成一个副本。选择job类型负载并部署后,会生成一次性job任务。

DaemonSet类型应用部署流程

DaemonSet 类型的负载将在每个集群中的节点上生成一个副本。

应用列表

应用列表分页展示出当前实例下所有的应用信息。

在实例详情页的左侧菜单中点击应用部署,您将看到应用列表,右上角搜索框支持对应用名称进行模糊查询。

创建容器应用

基本信息

在应用列表页面点击创建应用进入应用创建页面。填写应用基本信息:

  • 【名称】表示应用的名称,不可为空,不可重复
  • 【应用类型】表示应用的类型,此处选择容器应用
  • 【描述】表示应用的文字性描述
  • 【标签】表示用来标识应用的信息

点击添加标签进入标签设置界面,填写应用标签。

服务配置

点击下一步进入服务配置界面,点击添加服务进入服务配置页面,填写容器服务基本信息:

  • 【名称】表示服务的名称,不可为空。同一个应用中的服务名称不可重复,包含相同服务名称的不同应用部署到同一个节点会导致其中一个部署报错
  • 【镜像地址】表示服务对应的镜像地址,不可为空。该地址应该填写在边缘节点(设备)上可以通过docker拉取的镜像地址
  • 【卷配置】表示容器挂载的存储卷信息,支持hostPath、配置项、密文、证书的挂载

    • hostPath:挂载宿主机目录到容器目录
    • 配置项:配置管理的配置信息,配置项创建在这里
    • 密文:配置管理里的密文信息,密文创建在这里
    • 证书:配置管理里的证书信息,证书创建在这里
  • 【端口映射】表示容器内与宿主机的端口映射,支持TCP和UDP两种端口映射

填写高级设置项

  • 【副本数】表副本表示服务启动的容器个数。当负载类型为DaemonSet时,不支持调整副本数量
  • 【环境变量】表示服务容器的环境变量
  • 【启动参数】表示启动时服务的参数
  • 【资源限制】表示启动服务容器的资源限制,目前支持设置CPU和内存
  • 【host网络】表示服务容器是否使用host网络,默认使用桥接网络
  • 【特权选项】表示是否使用特权模式挂载资源,一般在摄像头,GPU或FPGA等需要较高权限访问的特殊资源时,设置为是

在高级设置项中可以选择工作负载为DaemonSet。

至此服务配置设置完成,点击确定关闭服务配置界面。如需要设置镜像凭证,点击引入凭证进入引入镜像凭证界面。

目标设备

服务配置设置完成之后,点击下一步进入目标设备匹配界面,这里支持两种匹配方式,匹配标签和单节点匹配,其中匹配标签通过标签筛选机制选择合适的节点进行匹配关联,而单节点匹配则提供一种更轻量更简单选择方式,可以直接在列表中选择待匹配的某个节点进行关联。

例如,点击匹配标签,弹出标签匹配界面,在设置目标设备过滤条件的页面,支持两级标签筛选逻辑。

通过单机节点/集群标签会筛选匹配到节点列表里满足标签条件的节点;

通过子节点标签会在边缘部署时,对边缘设备集群中的节点进行筛选匹配,将服务调度到符合条件的边缘子节点上,这个功能主要在边缘为集群的场景下使用,你可以将服务调度到特定的满足要求的节点上,如一个需要GPU的服务需要调度到包含GPU硬件的节点上。

输入想要匹配的node标签名称及值,如有需要可以进一步填写子节点标签值,点击确定,会自动匹配出符合条件的节点,

点击创建完成应用的创建,跳转到应用列表界面,就可以看到刚才创建的应用信息了,容器应用创建步骤到此全部完成。

应用修改

在应用列表页面,点击准备修改应用名或查看,进入应用详情页面,修改操作参考应用新建功能。

注意:应用修改后最新的应用配置会自动地下发到匹配的边缘节点,并进行更新。

应用删除

在应用列表页面,点击需要删除的应用后面的删除按钮。

应用部署

应用创建后,需要了解应用在边缘节点部署情况。打开应用详情页面,点击目标节点里的节点名,跳转到节点详情页面,边缘节点创建在这里。

如果当前边缘节点没有在设备上安装,点击安装按钮,弹出安装命令窗口,本例以边缘设备运行k3s及docker为例:

如果边缘设备没有安装k3s,先复制docker安装命令,执行docker安装;再复制k3s安装命令,进行k3s安装;复制节点安装命令,在设备上执行。注意:需要设备已经连接网络,设备能够访问我们的云端服务,设备端安装k3s。如果设备端已经安装k8s和docker,直接复制节点安装命令,在设备上执行。

下面以边缘设备已经安装了k3s及docker的安装方式如下:

image.png

期间可能需要输入用户密码。

安装完成后,首先可以看到应用已部署。

image.png

且成功调度到了集群中包含 demo:02 的 31 节点上

image.png

应用部署更新

上述示例中通过两级标签筛选最终限定了负载类型为 DaemonSet 的 app01 部署在了有demo02资源的包含 demo:02的 31 子节点上。

下面演示修改app01的匹配机制,使app01不再部署在单一子节点上。

在app01的详情页,点击删除子节点标签选择器,然后app01会自动重新匹配并部署下发,可以在匹配到的节点详情页看到部署状态。

image.png

也可以在端上集群中查看部署情况。

image.png

job类型应用部署流程

job类型的工作负载会生成一次性job任务。

创建应用

在应用列表点击创建应用,容器配置如下

image.png image.png

  • 容器名称:自定义
  • 镜像地址:perl
  • 启动命令:

    • perl
    • -Mbignum=bpi
    • -wle
    • print bpi(2000)

容器配置完成后,在应用层可以看到工作负载的选项,选择job类型。

image.png

job配置变量含义如下:

  • 完成:默认值为1,成功运⾏ Job 的 Pods 的数量。
  • 并行:默认值为1,Job 在给定时间内应运⾏的最⼤ Pods 数。
  • 失败重启限制:默认值为6,任务失败重启限制,只有重启策略为OnFailure时,此配置才⽣效

将该应用部署到指定节点上,job启动。

验证

应用部署成功后,可以在端上查看job执行情况

截屏2022-02-23 下午2.51.40.png

查看pod日志看job输出

截屏2022-02-23 下午2.53.45.png

上一篇
连接边缘节点本地baetyl-broker服务
下一篇
通用CPU模型部署-容器模式