功能发布记录

智能边缘 BIE

  • 产品描述
    • 名词解释
    • 使用限制
    • 产品概述
    • 产品优势
    • 应用场景
  • 配置文件说明
    • baetyl-rule
    • baetyl-remote-object
    • baetyl-function
    • baetyl-broker
  • 快速入门
    • 融合模式节点安装
    • 快速入门指南
    • 离线安装k3s+docker
    • 进程模式节点安装
      • 在linux上安装
      • 在windows上安装
  • 典型实践
    • OPC-UA使用
    • 使用BIE函数计算调用文心一言
    • 边缘规则引擎实战
      • 集成Kuiper流式计算引擎
      • 边缘规则实例
    • 将AI中台模型部署至边缘节点
      • 获取AI中台模型部署包进行应用部署
      • 部署模型SDK至Atlas200DK
      • 模型中心1.0
        • 通过AI中台转换模型并下发至边缘
        • 通过AI中台直接将模型下发至边缘
      • 模型中心2.0
        • 将物体检测模型部署至边缘
        • 将图像分类模型部署至边缘
    • 部署PaddleServing模型
      • 使用BIE下发PaddleOCR模型
      • 制作GPU版本Paddle Serving推理镜像
      • 通过BIE部署Paddle Serving
    • Modbus协议采集温湿度传感器
      • 连接边缘baetyl-broker
      • 使用内置modbus驱动采集数据并进行边缘函数计算
      • 数据从baetyl-broker上传至IoTCore
    • 部署EasyDL模型SDK
      • 部署EasyDL烟火检测模型至ARM64节点
    • 部署EasyEdge模型SDK
      • 进程模式下发python SDK模型
      • 使用EasyEdge模型转换获取边缘模型
      • 部署模型SDK至Windows设备
      • 部署模型SDK至Intel Movidius设备
      • 部署模型SDK至Jetson Xavier
    • 部署自定义容器镜像模型
      • 部署mnist手写数字识别模型
      • 部署物体检测模型
    • video-infer实现边缘视频AI推断
      • 使用Movidius VPU加速边缘视频推断
      • 使用CPU实现边缘视频推断
  • 操作指南
    • 主子用户鉴权
    • 设备管理
      • 设备模拟器
      • 子设备数据云边交互方式
      • 进程模式软网关设备接入指南
      • 子设备数据云边交互方式-v2
      • 视频流管理
        • IPC子设备和驱动
        • 边缘转发RTSP视频流
      • 设备接入
        • 设备模型管理
        • 接入模板
        • 设备管理
        • 子设备绑定
      • 驱动管理
        • 进程模式软网关自定义驱动开发
        • 驱动管理
        • GO语言实现示例
        • 自定义驱动开发指南
      • 不同协议设备接入
        • BACnet设备接入
        • OPC-UA设备接入
        • Modbus 设备接入
        • IEC104设备接入
        • OPC-DA设备接入
    • 节点管理
      • 边缘应用获取云端STS鉴权
      • 进程模式节点
      • 远程MQTT消息下发
      • 节点运行模式说明
      • 节点影子
      • 远程调用
      • 容器模式节点
      • 远程调试
      • 远程SSH边缘节点
      • 边缘节点OpenAPI
      • 证书管理
      • 节点预配
    • 业务编排
      • 单元管理
      • 技能管理
      • 常见技能
    • 应用管理
      • 业务模版
      • 应用部署
        • 应用运行模式与分类说明
        • 函数应用
          • 自定义函数与依赖包解耦下发
          • 从CFC引入多个函数下发
          • 典型使用说明
          • 使用函数调用边缘AI模型
          • 自定义函数与依赖包整体下发
        • 容器应用
          • subpath子路径使用说明
          • workdir工作目录使用说明
          • Job类型容器应用
          • 容器应用状态说明
          • 原生yaml接入使用说明
          • 端口映射说明
          • 容器应用工作负载类型说明
          • Deployment类型容器应用
          • DaemonSet类型容器应用
          • QPS监控
          • emptyDir卷使用说明
          • 边缘服务调用
        • 进程应用
          • 进程应用概述
          • 可执行二进制程序类型进程应用
          • 可执行脚本类型进程应用
      • 配置管理
        • 证书
        • 函数
        • 镜像仓库凭证
        • 配置项
        • 密文
        • 镜像
        • 进程程序包
    • AI加速卡
      • AI加速卡通用资源调度方法
      • 自定义加速卡算力指标采集
      • 华为昇腾
        • 昇腾310资源监控
      • 英伟达
        • GPU资源调度-显存隔离
        • Jetson资源监控
        • GPU资源调度-显存共享
        • Jetson依赖说明
        • NVIDIA GPU资源监控
      • 寒武纪
        • MLU270资源监控
      • 百度昆仑
        • 昆仑芯片资源监控
      • 比特大陆
        • 挂载比特大陆边缘计算盒子tpu资源
        • BM-SE5资源监控
  • 服务等级协议SLA
    • 服务等级协议SLA(V1.0)
  • 备份
    • 进程模式应用
    • 部署通用CPU模型
    • 部署模型SDK至Atlas200DK
    • 适配列表
    • 连接边缘节点本地baetyl-broker
    • 使用自定义modbus应用采集
    • NVIDIA GPU资源管理
    • FAQ
    • NVIDIA Jetson专用模型部署-进程模式
    • 容器模式应用
    • 连接边缘节点本地baetyl-broker服务
    • DaemonSet类型和job类型服务部署
    • 通用CPU模型部署-容器模式
    • NVIDIA Jetson专用模型部署-容器模式
    • 功能发布记录
    • 在BIE控制台部署从AI中台下载的模型
    • EasyEdge概述
    • Nvidia_Jetson
      • 使用NVIDIA官方镜像运行模型-容器模式
      • 二进制程序运行模型-进程模式
      • 使用edgekit镜像运行模型-容器模式
    • 下载专区
      • 相关资源下载
  • 产品定价
    • 产品定价
所有文档
menu
没有找到结果,请重新输入

智能边缘 BIE

  • 产品描述
    • 名词解释
    • 使用限制
    • 产品概述
    • 产品优势
    • 应用场景
  • 配置文件说明
    • baetyl-rule
    • baetyl-remote-object
    • baetyl-function
    • baetyl-broker
  • 快速入门
    • 融合模式节点安装
    • 快速入门指南
    • 离线安装k3s+docker
    • 进程模式节点安装
      • 在linux上安装
      • 在windows上安装
  • 典型实践
    • OPC-UA使用
    • 使用BIE函数计算调用文心一言
    • 边缘规则引擎实战
      • 集成Kuiper流式计算引擎
      • 边缘规则实例
    • 将AI中台模型部署至边缘节点
      • 获取AI中台模型部署包进行应用部署
      • 部署模型SDK至Atlas200DK
      • 模型中心1.0
        • 通过AI中台转换模型并下发至边缘
        • 通过AI中台直接将模型下发至边缘
      • 模型中心2.0
        • 将物体检测模型部署至边缘
        • 将图像分类模型部署至边缘
    • 部署PaddleServing模型
      • 使用BIE下发PaddleOCR模型
      • 制作GPU版本Paddle Serving推理镜像
      • 通过BIE部署Paddle Serving
    • Modbus协议采集温湿度传感器
      • 连接边缘baetyl-broker
      • 使用内置modbus驱动采集数据并进行边缘函数计算
      • 数据从baetyl-broker上传至IoTCore
    • 部署EasyDL模型SDK
      • 部署EasyDL烟火检测模型至ARM64节点
    • 部署EasyEdge模型SDK
      • 进程模式下发python SDK模型
      • 使用EasyEdge模型转换获取边缘模型
      • 部署模型SDK至Windows设备
      • 部署模型SDK至Intel Movidius设备
      • 部署模型SDK至Jetson Xavier
    • 部署自定义容器镜像模型
      • 部署mnist手写数字识别模型
      • 部署物体检测模型
    • video-infer实现边缘视频AI推断
      • 使用Movidius VPU加速边缘视频推断
      • 使用CPU实现边缘视频推断
  • 操作指南
    • 主子用户鉴权
    • 设备管理
      • 设备模拟器
      • 子设备数据云边交互方式
      • 进程模式软网关设备接入指南
      • 子设备数据云边交互方式-v2
      • 视频流管理
        • IPC子设备和驱动
        • 边缘转发RTSP视频流
      • 设备接入
        • 设备模型管理
        • 接入模板
        • 设备管理
        • 子设备绑定
      • 驱动管理
        • 进程模式软网关自定义驱动开发
        • 驱动管理
        • GO语言实现示例
        • 自定义驱动开发指南
      • 不同协议设备接入
        • BACnet设备接入
        • OPC-UA设备接入
        • Modbus 设备接入
        • IEC104设备接入
        • OPC-DA设备接入
    • 节点管理
      • 边缘应用获取云端STS鉴权
      • 进程模式节点
      • 远程MQTT消息下发
      • 节点运行模式说明
      • 节点影子
      • 远程调用
      • 容器模式节点
      • 远程调试
      • 远程SSH边缘节点
      • 边缘节点OpenAPI
      • 证书管理
      • 节点预配
    • 业务编排
      • 单元管理
      • 技能管理
      • 常见技能
    • 应用管理
      • 业务模版
      • 应用部署
        • 应用运行模式与分类说明
        • 函数应用
          • 自定义函数与依赖包解耦下发
          • 从CFC引入多个函数下发
          • 典型使用说明
          • 使用函数调用边缘AI模型
          • 自定义函数与依赖包整体下发
        • 容器应用
          • subpath子路径使用说明
          • workdir工作目录使用说明
          • Job类型容器应用
          • 容器应用状态说明
          • 原生yaml接入使用说明
          • 端口映射说明
          • 容器应用工作负载类型说明
          • Deployment类型容器应用
          • DaemonSet类型容器应用
          • QPS监控
          • emptyDir卷使用说明
          • 边缘服务调用
        • 进程应用
          • 进程应用概述
          • 可执行二进制程序类型进程应用
          • 可执行脚本类型进程应用
      • 配置管理
        • 证书
        • 函数
        • 镜像仓库凭证
        • 配置项
        • 密文
        • 镜像
        • 进程程序包
    • AI加速卡
      • AI加速卡通用资源调度方法
      • 自定义加速卡算力指标采集
      • 华为昇腾
        • 昇腾310资源监控
      • 英伟达
        • GPU资源调度-显存隔离
        • Jetson资源监控
        • GPU资源调度-显存共享
        • Jetson依赖说明
        • NVIDIA GPU资源监控
      • 寒武纪
        • MLU270资源监控
      • 百度昆仑
        • 昆仑芯片资源监控
      • 比特大陆
        • 挂载比特大陆边缘计算盒子tpu资源
        • BM-SE5资源监控
  • 服务等级协议SLA
    • 服务等级协议SLA(V1.0)
  • 备份
    • 进程模式应用
    • 部署通用CPU模型
    • 部署模型SDK至Atlas200DK
    • 适配列表
    • 连接边缘节点本地baetyl-broker
    • 使用自定义modbus应用采集
    • NVIDIA GPU资源管理
    • FAQ
    • NVIDIA Jetson专用模型部署-进程模式
    • 容器模式应用
    • 连接边缘节点本地baetyl-broker服务
    • DaemonSet类型和job类型服务部署
    • 通用CPU模型部署-容器模式
    • NVIDIA Jetson专用模型部署-容器模式
    • 功能发布记录
    • 在BIE控制台部署从AI中台下载的模型
    • EasyEdge概述
    • Nvidia_Jetson
      • 使用NVIDIA官方镜像运行模型-容器模式
      • 二进制程序运行模型-进程模式
      • 使用edgekit镜像运行模型-容器模式
    • 下载专区
      • 相关资源下载
  • 产品定价
    • 产品定价
  • 文档中心
  • arrow
  • 智能边缘BIE
  • arrow
  • 备份
  • arrow
  • 功能发布记录

功能发布记录

更新时间:2025-08-21
发布时间 版本 云端管理套件-更新概述 边缘软件包-更新概述
2019-11-30 -
  • [新增] 新增 baetyl-creek 官方模块,支持边缘流式计算服务
  • [新增] baetyl-hub,baetyl-remote,baetyl-creek模块支持默认存储卷
  • [改进] 存储卷列表支持显示存储卷类型
  • [改进] 存储卷详情返回存储卷列表保存筛选记录
  • [改进] 服务模块选择以后镜像自动填充
  • [改进] 存储卷标签支持中文
    • [新增] 支持边缘流式计算Creek
    2019-10-31 v1.0.0
  • [新增] 新增 easyedge-inference 官方模块,与EasyEdge平台集成
  • [新增] 支持部署任务
  • [新增] 支持MacOS在线安装
  • [改进] 服务启动参数支持可编辑
    • [新增] 主程序支持配置 Docker API的版本,默认设置为1.38
    • [新增] 主程序支持采集更多的平台信息,比如 ARM 的版本
    • [新增] 主程序支持采集序列号文件,并设置到环境 BAETYL_HOST_SN 中
    • [修复] 修复主程序 InspectSystem 接口的数据竞争问题
    • [修复] 修复函数实例 ID 未初始化导致无法创建新的实例的问题
    • [其他] Golang 依赖包管理从 vendor 切换到 Go Modules
    • [其他] 在线安装脚本支持 Mac 平台
    • [其他] 升级 makefile 和 dockerfile,引入 Buildx 来制作多平台的镜像
    2019-09-23 v0.1.6 [新增] 新增 baetyl-video-infer 官方模块,支持边缘视频AI
    • [新增] 版本命令打印git修订版本
    • [新增] 支持docker compose配置
    • [新增] 支持自定义docker网络
    • [修复] baetyl-video-infer模块往路径写入镜像之前检查保存路径是否存在
    • [修复] 修复因openedge改名baetyl改名带来的向后兼容问题
    2019-08-15 v0.1.5
    • [新增] 新增设备注册和激活功能
    • [新增] 新增应用模板功能
    • [新增] 支持主程序 OTA 升级
    • [新增] 新增opencv 4.1.0 的 openedge-function-python36 函数运行时模块
    • [优化] 支持宿主机 CPU 核数监控
    • [新增] deb 包安装支持 systemd
    • [新增] 支持 deb 包的构建和发布
    • [优化] 采集宿主机 CPU 核数
    • [新增] 支持 sock 文件配置和文件挂载
    • [优化] openedge 程序前台运行
    • [修复] 修复 openedge.sock 的 "address already in use" 问题
    • [修复] agent 模块检查应用配置当中的服务列表,不允许为空
    2019-07-05 v0.1.4
    • [新增] 支持宿主机CPU、内存资源监控
    • [新增] 支持宿主机 IP 和 MAC 信息监控
    • [新增] 增加 Nodejs85 函数计算运行时
    • [新增] 采集服务实例的 CPU 与内存资源使用信息
    • [新增] 主程序收集 IP 和 MAC 信息
    • [优化] Agent 模块状态上报周期从 1 分钟变更为 20 秒
    • [优化] 优化应用 OTA,不再重启配置未变化的服务
    • [优化] 优化存储卷清理逻辑,将其从 主程序迁移至 Agent 模块,会清除所有不在应用的存储卷列表中的目录
    2019-05-10 v0.1.3
    • [新增] 增加了 Python3.6 版本的函数运行时,使用 Ubuntu16.04 作为基础镜像
    • [新增] 添加了一个简单的定时器模块 openedge-timer
    • [新增] 支持服务实例运行状态监控
    • [新增] 支持上报服务实例的自定义状态信息,同时采集更多系统状态信息
    • [新增] 当 openedge 启动时,会清理旧实例(残留实例一般由于 openedge 异常退出造成)
    • [新增] Docker 容器模式支持 runtime 和 args 配置
    • [修复] 函数实例池销毁函数实例时,确保停止函数实例
    • [修复] openedge stop 命令等待 openedge 停止运行后退出,确保清理 pid 文件
    • [修复] hub 模块发布消息等待 ack 超时,快速重发消息
    • [修复] 解决当 atomic.addUint64() 的参数未按照 64 位对齐导致退出异常的问题
    2019-04-04 v0.1.2 [新增] 新增存储卷管理,支持云端创建存储据,然后挂载到模块当中
    • [优化] 从主程序分离 Agent 模块,定时上报(核心)设备状态信息
    • [新增] 支持命令行启动(后台以服务方式运行)、停止 openedge 服务
    • [新增] 统一两种模式(Docker 容器模式 和 Native 进程模式)配置,例如为本机 Native 进程模式中的每个服务创建单独的工作目录
    • [新增] 引入服务概念,代替模块,用于支持启动多实例
    • [新增] 针对 Docker 容器模式支持设备映射
    • [修复] 支持 `openedge.sock` 清理逻辑
    • [修复] 升级 Hub 模块的连接鉴权、认证逻辑
    • [修复] [修复] 升级函数计算模块,支持重试逻辑,去除保序逻辑
    2018-12-28 v0.1.1 -
    • [优化] 优化MQTT通讯模块,支持配置多路消息转发,可配置多个 Remote 和 Hub 同时进行消息同步
    • [新增] 增加合法订阅主题配置,用于校验 MQTT 客户端订阅结果
    • [修复] Docker 容器模式下模块目录隔离
    • [修复] 移除网络范围过滤器,以支持旧版本 Docker
    2018-12-05 v0.1.0
    • [新增] Docker 容器资源使用限制支持在线配置
    • [新增] openedge-openedge-function-python2.openedge-remote-mqtt等官方模块
    • [新增] 支持两种运行模式:Docker 容器模式和 Native 进程模式
    • [新增] Docker 容器模式支持资源隔离和限制(比如 CPU、内存等)

    上一篇
    NVIDIA Jetson专用模型部署-容器模式
    下一篇
    在BIE控制台部署从AI中台下载的模型