NVIDIA Jetson专用模型部署-容器模式

智能边缘 BIE

  • 产品描述
    • 名词解释
    • 使用限制
    • 产品概述
    • 产品优势
    • 应用场景
  • 配置文件说明
    • baetyl-rule
    • baetyl-remote-object
    • baetyl-function
    • baetyl-broker
  • 快速入门
    • 融合模式节点安装
    • 快速入门指南
    • 离线安装k3s+docker
    • 进程模式节点安装
      • 在linux上安装
      • 在windows上安装
  • 典型实践
    • OPC-UA使用
    • 使用BIE函数计算调用文心一言
    • 边缘规则引擎实战
      • 集成Kuiper流式计算引擎
      • 边缘规则实例
    • 将AI中台模型部署至边缘节点
      • 获取AI中台模型部署包进行应用部署
      • 部署模型SDK至Atlas200DK
      • 模型中心1.0
        • 通过AI中台转换模型并下发至边缘
        • 通过AI中台直接将模型下发至边缘
      • 模型中心2.0
        • 将物体检测模型部署至边缘
        • 将图像分类模型部署至边缘
    • 部署PaddleServing模型
      • 使用BIE下发PaddleOCR模型
      • 制作GPU版本Paddle Serving推理镜像
      • 通过BIE部署Paddle Serving
    • Modbus协议采集温湿度传感器
      • 连接边缘baetyl-broker
      • 使用内置modbus驱动采集数据并进行边缘函数计算
      • 数据从baetyl-broker上传至IoTCore
    • 部署EasyDL模型SDK
      • 部署EasyDL烟火检测模型至ARM64节点
    • 部署EasyEdge模型SDK
      • 进程模式下发python SDK模型
      • 使用EasyEdge模型转换获取边缘模型
      • 部署模型SDK至Windows设备
      • 部署模型SDK至Intel Movidius设备
      • 部署模型SDK至Jetson Xavier
    • 部署自定义容器镜像模型
      • 部署mnist手写数字识别模型
      • 部署物体检测模型
    • video-infer实现边缘视频AI推断
      • 使用Movidius VPU加速边缘视频推断
      • 使用CPU实现边缘视频推断
  • 操作指南
    • 主子用户鉴权
    • 设备管理
      • 设备模拟器
      • 子设备数据云边交互方式
      • 进程模式软网关设备接入指南
      • 子设备数据云边交互方式-v2
      • 视频流管理
        • IPC子设备和驱动
        • 边缘转发RTSP视频流
      • 设备接入
        • 设备模型管理
        • 接入模板
        • 设备管理
        • 子设备绑定
      • 驱动管理
        • 进程模式软网关自定义驱动开发
        • 驱动管理
        • GO语言实现示例
        • 自定义驱动开发指南
      • 不同协议设备接入
        • BACnet设备接入
        • OPC-UA设备接入
        • Modbus 设备接入
        • IEC104设备接入
        • OPC-DA设备接入
    • 节点管理
      • 边缘应用获取云端STS鉴权
      • 进程模式节点
      • 远程MQTT消息下发
      • 节点运行模式说明
      • 节点影子
      • 远程调用
      • 容器模式节点
      • 远程调试
      • 远程SSH边缘节点
      • 边缘节点OpenAPI
      • 证书管理
      • 节点预配
    • 业务编排
      • 单元管理
      • 技能管理
      • 常见技能
    • 应用管理
      • 业务模版
      • 应用部署
        • 应用运行模式与分类说明
        • 函数应用
          • 自定义函数与依赖包解耦下发
          • 从CFC引入多个函数下发
          • 典型使用说明
          • 使用函数调用边缘AI模型
          • 自定义函数与依赖包整体下发
        • 容器应用
          • subpath子路径使用说明
          • workdir工作目录使用说明
          • Job类型容器应用
          • 容器应用状态说明
          • 原生yaml接入使用说明
          • 端口映射说明
          • 容器应用工作负载类型说明
          • Deployment类型容器应用
          • DaemonSet类型容器应用
          • QPS监控
          • emptyDir卷使用说明
          • 边缘服务调用
        • 进程应用
          • 进程应用概述
          • 可执行二进制程序类型进程应用
          • 可执行脚本类型进程应用
      • 配置管理
        • 证书
        • 函数
        • 镜像仓库凭证
        • 配置项
        • 密文
        • 镜像
        • 进程程序包
    • AI加速卡
      • AI加速卡通用资源调度方法
      • 自定义加速卡算力指标采集
      • 华为昇腾
        • 昇腾310资源监控
      • 英伟达
        • GPU资源调度-显存隔离
        • Jetson资源监控
        • GPU资源调度-显存共享
        • Jetson依赖说明
        • NVIDIA GPU资源监控
      • 寒武纪
        • MLU270资源监控
      • 百度昆仑
        • 昆仑芯片资源监控
      • 比特大陆
        • 挂载比特大陆边缘计算盒子tpu资源
        • BM-SE5资源监控
  • 服务等级协议SLA
    • 服务等级协议SLA(V1.0)
  • 备份
    • 进程模式应用
    • 部署通用CPU模型
    • 部署模型SDK至Atlas200DK
    • 适配列表
    • 连接边缘节点本地baetyl-broker
    • 使用自定义modbus应用采集
    • NVIDIA GPU资源管理
    • FAQ
    • NVIDIA Jetson专用模型部署-进程模式
    • 容器模式应用
    • 连接边缘节点本地baetyl-broker服务
    • DaemonSet类型和job类型服务部署
    • 通用CPU模型部署-容器模式
    • NVIDIA Jetson专用模型部署-容器模式
    • 功能发布记录
    • 在BIE控制台部署从AI中台下载的模型
    • EasyEdge概述
    • Nvidia_Jetson
      • 使用NVIDIA官方镜像运行模型-容器模式
      • 二进制程序运行模型-进程模式
      • 使用edgekit镜像运行模型-容器模式
    • 下载专区
      • 相关资源下载
  • 产品定价
    • 产品定价
所有文档
menu
没有找到结果,请重新输入

智能边缘 BIE

  • 产品描述
    • 名词解释
    • 使用限制
    • 产品概述
    • 产品优势
    • 应用场景
  • 配置文件说明
    • baetyl-rule
    • baetyl-remote-object
    • baetyl-function
    • baetyl-broker
  • 快速入门
    • 融合模式节点安装
    • 快速入门指南
    • 离线安装k3s+docker
    • 进程模式节点安装
      • 在linux上安装
      • 在windows上安装
  • 典型实践
    • OPC-UA使用
    • 使用BIE函数计算调用文心一言
    • 边缘规则引擎实战
      • 集成Kuiper流式计算引擎
      • 边缘规则实例
    • 将AI中台模型部署至边缘节点
      • 获取AI中台模型部署包进行应用部署
      • 部署模型SDK至Atlas200DK
      • 模型中心1.0
        • 通过AI中台转换模型并下发至边缘
        • 通过AI中台直接将模型下发至边缘
      • 模型中心2.0
        • 将物体检测模型部署至边缘
        • 将图像分类模型部署至边缘
    • 部署PaddleServing模型
      • 使用BIE下发PaddleOCR模型
      • 制作GPU版本Paddle Serving推理镜像
      • 通过BIE部署Paddle Serving
    • Modbus协议采集温湿度传感器
      • 连接边缘baetyl-broker
      • 使用内置modbus驱动采集数据并进行边缘函数计算
      • 数据从baetyl-broker上传至IoTCore
    • 部署EasyDL模型SDK
      • 部署EasyDL烟火检测模型至ARM64节点
    • 部署EasyEdge模型SDK
      • 进程模式下发python SDK模型
      • 使用EasyEdge模型转换获取边缘模型
      • 部署模型SDK至Windows设备
      • 部署模型SDK至Intel Movidius设备
      • 部署模型SDK至Jetson Xavier
    • 部署自定义容器镜像模型
      • 部署mnist手写数字识别模型
      • 部署物体检测模型
    • video-infer实现边缘视频AI推断
      • 使用Movidius VPU加速边缘视频推断
      • 使用CPU实现边缘视频推断
  • 操作指南
    • 主子用户鉴权
    • 设备管理
      • 设备模拟器
      • 子设备数据云边交互方式
      • 进程模式软网关设备接入指南
      • 子设备数据云边交互方式-v2
      • 视频流管理
        • IPC子设备和驱动
        • 边缘转发RTSP视频流
      • 设备接入
        • 设备模型管理
        • 接入模板
        • 设备管理
        • 子设备绑定
      • 驱动管理
        • 进程模式软网关自定义驱动开发
        • 驱动管理
        • GO语言实现示例
        • 自定义驱动开发指南
      • 不同协议设备接入
        • BACnet设备接入
        • OPC-UA设备接入
        • Modbus 设备接入
        • IEC104设备接入
        • OPC-DA设备接入
    • 节点管理
      • 边缘应用获取云端STS鉴权
      • 进程模式节点
      • 远程MQTT消息下发
      • 节点运行模式说明
      • 节点影子
      • 远程调用
      • 容器模式节点
      • 远程调试
      • 远程SSH边缘节点
      • 边缘节点OpenAPI
      • 证书管理
      • 节点预配
    • 业务编排
      • 单元管理
      • 技能管理
      • 常见技能
    • 应用管理
      • 业务模版
      • 应用部署
        • 应用运行模式与分类说明
        • 函数应用
          • 自定义函数与依赖包解耦下发
          • 从CFC引入多个函数下发
          • 典型使用说明
          • 使用函数调用边缘AI模型
          • 自定义函数与依赖包整体下发
        • 容器应用
          • subpath子路径使用说明
          • workdir工作目录使用说明
          • Job类型容器应用
          • 容器应用状态说明
          • 原生yaml接入使用说明
          • 端口映射说明
          • 容器应用工作负载类型说明
          • Deployment类型容器应用
          • DaemonSet类型容器应用
          • QPS监控
          • emptyDir卷使用说明
          • 边缘服务调用
        • 进程应用
          • 进程应用概述
          • 可执行二进制程序类型进程应用
          • 可执行脚本类型进程应用
      • 配置管理
        • 证书
        • 函数
        • 镜像仓库凭证
        • 配置项
        • 密文
        • 镜像
        • 进程程序包
    • AI加速卡
      • AI加速卡通用资源调度方法
      • 自定义加速卡算力指标采集
      • 华为昇腾
        • 昇腾310资源监控
      • 英伟达
        • GPU资源调度-显存隔离
        • Jetson资源监控
        • GPU资源调度-显存共享
        • Jetson依赖说明
        • NVIDIA GPU资源监控
      • 寒武纪
        • MLU270资源监控
      • 百度昆仑
        • 昆仑芯片资源监控
      • 比特大陆
        • 挂载比特大陆边缘计算盒子tpu资源
        • BM-SE5资源监控
  • 服务等级协议SLA
    • 服务等级协议SLA(V1.0)
  • 备份
    • 进程模式应用
    • 部署通用CPU模型
    • 部署模型SDK至Atlas200DK
    • 适配列表
    • 连接边缘节点本地baetyl-broker
    • 使用自定义modbus应用采集
    • NVIDIA GPU资源管理
    • FAQ
    • NVIDIA Jetson专用模型部署-进程模式
    • 容器模式应用
    • 连接边缘节点本地baetyl-broker服务
    • DaemonSet类型和job类型服务部署
    • 通用CPU模型部署-容器模式
    • NVIDIA Jetson专用模型部署-容器模式
    • 功能发布记录
    • 在BIE控制台部署从AI中台下载的模型
    • EasyEdge概述
    • Nvidia_Jetson
      • 使用NVIDIA官方镜像运行模型-容器模式
      • 二进制程序运行模型-进程模式
      • 使用edgekit镜像运行模型-容器模式
    • 下载专区
      • 相关资源下载
  • 产品定价
    • 产品定价
  • 文档中心
  • arrow
  • 智能边缘BIE
  • arrow
  • 备份
  • arrow
  • NVIDIA Jetson专用模型部署-容器模式
本页目录
  • 1、jetson nano版本依赖说明
  • jetpack版本
  • cuda-driver版本
  • TensorRT版本
  • 2、上传模型文件包至对象存储
  • 3、云端配置
  • 3.1. 创建边缘节点
  • 3.2. 创建AI模型配置项
  • 3.3. 创建AI推断服务
  • 3.4. 将应用部署至节点
  • 4、边缘端配置
  • 4.1 配置jetson上docker的default runtime为nvidia
  • 4.2 运行安装命令
  • 5、验证边缘节点AI推断服务
  • 6、easyedge模型包制作方案
  • 6.1. 利用easyedge获取适配jetson nano环境的SDK
  • 6.2. SDK编译和验证
  • 6.3. 生成模型包

NVIDIA Jetson专用模型部署-容器模式

更新时间:2025-08-21

本文针对NVIDIA Jetson nano设备,介绍如何获取适配的端模型文件,并结合NVIDIA L4T Base镜像,将模型部署至BIE,完成AI图像识别。

1、jetson nano版本依赖说明

本实验的模型依赖于以下版本。

jetpack版本

查看jetpack版本,版本号为4.3。

Plain Text
1nano@jetson-nano:~$ head -n 1 /etc/nv_tegra_release
2# R32 (release), REVISION: 4.3, GCID: 21589087, BOARD: t210ref, EABI: aarch64, DATE: Fri Jun 26 04:38:25 UTC 2020

cuda-driver版本

查看cudu驱动版本,版本号为10.2。

Plain Text
1nano@jetson-nano:~$  dpkg -l | grep cuda-driver
2ii  cuda-driver-dev-10-2                          10.2.89-1                                        arm64        CUDA Driver native dev stub library

TensorRT版本

查看TensorRT版本,版本号7.1.3。

Plain Text
1nano@jetson-nano:~$  dpkg -l | grep TensorRT
2ii  graphsurgeon-tf                               7.1.3-1+cuda10.2                                 arm64        GraphSurgeon for TensorRT package
3ii  libnvinfer-bin                                7.1.3-1+cuda10.2                                 arm64        TensorRT binaries
4ii  libnvinfer-dev                                7.1.3-1+cuda10.2                                 arm64        TensorRT development libraries and headers
5ii  libnvinfer-doc                                7.1.3-1+cuda10.2                                 all          TensorRT documentation
6ii  libnvinfer-plugin-dev                         7.1.3-1+cuda10.2                                 arm64        TensorRT plugin libraries
7ii  libnvinfer-plugin7                            7.1.3-1+cuda10.2                                 arm64        TensorRT plugin libraries
8ii  libnvinfer-samples                            7.1.3-1+cuda10.2                                 all          TensorRT samples
9ii  libnvinfer7                                   7.1.3-1+cuda10.2                                 arm64        TensorRT runtime libraries
10ii  libnvonnxparsers-dev                          7.1.3-1+cuda10.2                                 arm64        TensorRT ONNX libraries
11ii  libnvonnxparsers7                             7.1.3-1+cuda10.2                                 arm64        TensorRT ONNX libraries
12ii  libnvparsers-dev                              7.1.3-1+cuda10.2                                 arm64        TensorRT parsers libraries
13ii  libnvparsers7                                 7.1.3-1+cuda10.2                                 arm64        TensorRT parsers libraries
14ii  nvidia-container-csv-tensorrt                 7.1.3.0-1+cuda10.2                               arm64        Jetpack TensorRT CSV file
15ii  python-libnvinfer                             7.1.3-1+cuda10.2                                 arm64        Python bindings for TensorRT
16ii  python-libnvinfer-dev                         7.1.3-1+cuda10.2                                 arm64        Python development package for TensorRT
17ii  python3-libnvinfer                            7.1.3-1+cuda10.2                                 arm64        Python 3 bindings for TensorRT
18ii  python3-libnvinfer-dev                        7.1.3-1+cuda10.2                                 arm64        Python 3 development package for TensorRT
19ii  tensorrt                                      7.1.3.0-1+cuda10.2                               arm64        Meta package of TensorRT
20ii  uff-converter-tf                              7.1.3-1+cuda10.2                                 arm64        UFF converter for TensorRT package

2、上传模型文件包至对象存储

  1. 将模型文件包fruit-ai-model.zip上传至BOS。
  2. 模型文件包制作方式参考最后章节。

    说明:这个模型包必须部署在能够连接公网的设备上才能生效,因为需要在线激活license,在无法联网的环境当中,无法使用。

3、云端配置

3.1. 创建边缘节点

如下图所示,创建边缘节点jetson-nano

image.png

3.2. 创建AI模型配置项

如下图所示,创建配置项:fruit-demo。引入上传至BOS对象存储的模型文件。

image.png

3.3. 创建AI推断服务

如下图所示,创建应用fruit-detection

image.png

在应用当中添加一个容器服务,如下图所示:

image.png

image.png

  • 镜像地址:nvidia提供了一个面向NVIDIA Jetson系列的容器景象:NVIDIA L4T Base。nvidia官网获取方式:https://ngc.nvidia.com/catalog/containers/nvidia:l4t-base。 该容器镜像提供nvidia jetson的运行环境,能够实现在容器内跑支持jetson设备的AI模型服务。在支持容器化以后,可以通过BIE来管理边缘节点设备,以及提升模型服务部署的效率。

NVIDIA L4T Base官网镜像获取地址:nvcr.io/nvidia/l4t-base:r32.4.3。如果国内下载速度很慢,可以从百度cce上下载镜像:hub.baidubce.com/nvidia/l4t-base:r32.4.3-arm64

  • 卷配置:类型为配置项;参数选择之前创建的文件配置项;容器目录:/sdk(与run.sh文件对应)。通过卷配置,实现AI推断服务与模型文件绑定。将推断服务下发至边缘节点的时候,会自动下载AI模型文件。
  • 容器服务的端口映射:端口为24401;协议为TCP
  • 容器服务的启动参数:bash;/sdk/run.sh
  • 无需开启特权模式

3.4. 将应用部署至节点

在边缘应用当中,添加目标节点标签

image.png

4、边缘端配置

在jetson nano设备上安装节点

4.1 配置jetson上docker的default runtime为nvidia

执行docker info查看边缘节点容器环境,确保Default Runtime: nvidia

Plain Text
1nano@jetson-nano:~/Downloads/fruit-ai-model$ docker info
2Client:
3 Debug Mode: false
4 
5Server:
6 Containers: 38
7  Running: 21
8  Paused: 0
9  Stopped: 17
10 Images: 12
11 Server Version: 19.03.6
12 Storage Driver: overlay2
13  Backing Filesystem: extfs
14  Supports d_type: true
15  Native Overlay Diff: true
16 Logging Driver: json-file
17 Cgroup Driver: cgroupfs
18 Plugins:
19  Volume: local
20  Network: bridge host ipvlan macvlan null overlay
21  Log: awslogs fluentd gcplogs gelf journald json-file local logentries splunk syslog
22 Swarm: inactive
23 Runtimes: nvidia runc
24** Default Runtime: nvidia**
25 Init Binary: docker-init
26 containerd version:
27 runc version:
28 init version:
29 Security Options:
30  seccomp
31   Profile: default
32 Kernel Version: 4.9.140-tegra
33 Operating System: Ubuntu 18.04.5 LTS
34 OSType: linux
35 Architecture: aarch64
36 CPUs: 4
37 Total Memory: 3.871GiB
38 Name: jetson-nano
39 ID: O7GP:DDD5:5CIR:LEWJ:2BQ3:4WIW:VA4H:JDCP:5VGL:L2K3:PLZ7:KBHO
40 Docker Root Dir: /var/lib/docker
41 Debug Mode: false
42 Registry: https://index.docker.io/v1/
43 Labels:
44 Experimental: false
45 Insecure Registries:
46  127.0.0.0/8
47 Live Restore Enabled: false

如果Default Runtime不是nvidia,修改/etc/docker/daemon.json文件,添加"default-runtime": "nvidia",修改完毕以后的/etc/docker/daemon.json文件

Plain Text
1nano@jetson-nano:~$ cat /etc/docker/daemon.json
2{
3    "default-runtime": "nvidia",
4    "runtimes": {
5        "nvidia": {
6            "path": "nvidia-container-runtime",
7            "runtimeArgs": []
8        }
9    }
10}

修改完毕以后,重启docker

Plain Text
1sudo systemctl restart docker

4.2 运行安装命令

  1. 在copy云端边缘节点安装命令

image.png

  1. 在边缘节点执行安装命令

5、验证边缘节点AI推断服务

通过浏览器打开在线推断服务:http://「ip」 :24401/,上传测试图片,推断结果如下,证明AI服务正常启动。

image.png

6、easyedge模型包制作方案

6.1. 利用easyedge获取适配jetson nano环境的SDK

上传原始模型

image.png

模型提交后,在我的模型界面生成端模型。选择对应的芯片和操作系统,点击发布,获取SDK文件。

image.png image.png

6.2. SDK编译和验证

对SDK文件进行编译和认证,生成在jetson设备上可运行的模型。

  • 注意:使用EasyDL的Jetson系列SDK需要安装指定版本的JetPack和相关组件。目前所支持的JetPack版本包括:JetPack4.4和JetPack4.2.2

模型资源文件默认已经打包在下载的SDK包中。Demo工程直接编译即可运行。

Plain Text
1cd demo
2mkdir build && cd build
3cmake .. && make
4sudo ./easyedge_demo {模型RES文件夹}  {测试图片路径} {序列号}

编译过程参考:

Plain Text
1`nano@jetson-nano:~/Downloads/easydl-sdk/cpp/baidu_easyedge_linux_cpp_aarch64_JetPack4.4_gcc7.4_v0.5.5_20200811/demo/build$ ls
2CMakeCache.txt  CMakeFiles  cmake_install.cmake  easyedge_batch_inference  easyedge.log  easyedge_multi_thread  easyedge_serving  install_manifest.txt  Makefile
3nano@jetson-nano:~/Downloads/easydl-sdk/cpp/baidu_easyedge_linux_cpp_aarch64_JetPack4.4_gcc7.4_v0.5.5_20200811/demo/build$ ./easyedge_batch_inference /home/nano/Downloads/easydl-sdk/RES /home/nano/Downloads/easydl-sdk/imgs/mix008.jpeg
42020-08-24 03:51:09,915 WARNING [EasyEdge] 548102246416 Only compile_level 2 is supported for this model on JetPack 4.4 DP version. Please read documentation for the details
52020-08-24 03:51:09,915 INFO [EasyEdge] 548102246416 Compiling model for fast inference, this may take a while (Acceleration)
62020-08-24 03:53:08,488 INFO [EasyEdge] 548102246416 Optimized model saved to: /home/nano/.baidu/easyedge/jetson/mcache/26119049355/m_cache, Don't remove it
7Results of image /home/nano/Downloads/easydl-sdk/imgs/mix008.jpeg:
81, tomato, p:0.999717 loc: 0.672033, 0.405379, 0.80056, 0.569352
92, kiwi, p:0.999273 loc: 0.154121, 0.0717932, 0.393312, 0.399547
102, kiwi, p:0.999206 loc: 0.45734, 0.0788124, 0.735513, 0.390724
111, tomato, p:0.998933 loc: 0.385497, 0.0432633, 0.51477, 0.22167
121, tomato, p:0.998886 loc: 0.520549, 0.384235, 0.654002, 0.552556
131, tomato, p:0.998507 loc: 0.295452, 0.452287, 0.422471, 0.588263
141, tomato, p:0.998191 loc: 0.181686, 0.568888, 0.295577, 0.712147
151, tomato, p:0.996489 loc: 0.386017, 0.250961, 0.504955, 0.408554
162, kiwi, p:0.991238 loc: 0.350772, 0.568207, 0.61708, 0.87927
17Done`

验证过程参考:

Plain Text
1`nano@jetson-nano:~/Downloads/easydl-sdk/cpp/baidu_easyedge_linux_cpp_aarch64_JetPack4.4_gcc7.4_v0.5.5_20200811/demo/build$ ls
2CMakeCache.txt  CMakeFiles  cmake_install.cmake  easyedge_batch_inference  easyedge.log  easyedge_multi_thread  easyedge_serving  install_manifest.txt  Makefile
3nano@jetson-nano:~/Downloads/easydl-sdk/cpp/baidu_easyedge_linux_cpp_aarch64_JetPack4.4_gcc7.4_v0.5.5_20200811/demo/build$ ./easyedge_serving /home/nano/Downloads/easydl-sdk/RES "E60A-5124-5ACD-3C9B" 0.0.0.0 24401
42020-08-24 03:56:17,802 WARNING [EasyEdge] 548017537040 Only compile_level 2 is supported for this model on JetPack 4.4 DP version. Please read documentation for the details
52020-08-24 03:56:17,802 INFO [EasyEdge] 548017537040 Compiling model for fast inference, this may take a while (Acceleration)
62020-08-24 03:57:34,965 INFO [EasyEdge] 548017537040 Optimized model saved to: /home/nano/.baidu/easyedge/jetson/mcache/26119049355/m_cache, Don't remove it
72020-08-24 03:57:34,968 INFO [EasyEdge] 548017537040 HTTP is now serving at 0.0.0.0:24401, holding 1 instances
82020-08-24 03:57:55,502 INFO [EasyEdge] 548000241392 [access_log] "GET /" 200 "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.88 Safari/537.36"
92020-08-24 03:57:55,582 INFO [EasyEdge] 548000241392 [access_log] "GET /api/info" 200 "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.88 Safari/537.36"
102020-08-24 03:58:31,103 INFO [EasyEdge] 546816874224 [access_log] "POST /" 200 "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.88 Safari/537.36"
  • 编译参考:https://ai.baidu.com/ai-doc/EASYDL/Dka3ky0an
  • 模型SDK: easydl-sdk.zip

6.3. 生成模型包

  1. 创建run.sh,该文件为容器的启动文件
Plain Text
1#SDK序列号,需要在线申请,此处为测试序列号
2license_key=E60A-5124-5ACD-3C9B
3#curr_dir为/sdk,后续在BIE推断服务配置当中用到,作为容器内的工作目录
4curr_dir=/sdk
5demo_dir=${curr_dir}/cpp/sdk/demo/build
6lib_dir=${curr_dir}/cpp/sdk/lib
7res_dir=${curr_dir}/RES
8export LD_LIBRARY_PATH=${lib_dir}:${LD_LIBRARY_PATH}
9#run
10${demo_dir}/easyedge_serving ${res_dir} ${license_key}

2.将cpp目录、RES目录,以及run.sh文件打包成一个fruit-ai-model.zip文件,并上传至BOS对象存储。

  • 注意:此处是将多个目录和文件压缩为一个zip文件,而不是直接压缩最外层的那个目录。如果压缩层级不对,将导致模型下载到边缘设备以后解压的目录不匹配。
  • 编译好的模型包参考:fruit-ai-model.zip

上一篇
通用CPU模型部署-容器模式
下一篇
功能发布记录