Jetson依赖说明

智能边缘 BIE

  • 产品描述
    • 名词解释
    • 使用限制
    • 产品概述
    • 产品优势
    • 应用场景
  • 配置文件说明
    • baetyl-rule
    • baetyl-remote-object
    • baetyl-function
    • baetyl-broker
  • 快速入门
    • 融合模式节点安装
    • 快速入门指南
    • 离线安装k3s+docker
    • 进程模式节点安装
      • 在linux上安装
      • 在windows上安装
  • 典型实践
    • OPC-UA使用
    • 使用BIE函数计算调用文心一言
    • 边缘规则引擎实战
      • 集成Kuiper流式计算引擎
      • 边缘规则实例
    • 将AI中台模型部署至边缘节点
      • 获取AI中台模型部署包进行应用部署
      • 部署模型SDK至Atlas200DK
      • 模型中心1.0
        • 通过AI中台转换模型并下发至边缘
        • 通过AI中台直接将模型下发至边缘
      • 模型中心2.0
        • 将物体检测模型部署至边缘
        • 将图像分类模型部署至边缘
    • 部署PaddleServing模型
      • 使用BIE下发PaddleOCR模型
      • 制作GPU版本Paddle Serving推理镜像
      • 通过BIE部署Paddle Serving
    • Modbus协议采集温湿度传感器
      • 连接边缘baetyl-broker
      • 使用内置modbus驱动采集数据并进行边缘函数计算
      • 数据从baetyl-broker上传至IoTCore
    • 部署EasyDL模型SDK
      • 部署EasyDL烟火检测模型至ARM64节点
    • 部署EasyEdge模型SDK
      • 进程模式下发python SDK模型
      • 使用EasyEdge模型转换获取边缘模型
      • 部署模型SDK至Windows设备
      • 部署模型SDK至Intel Movidius设备
      • 部署模型SDK至Jetson Xavier
    • 部署自定义容器镜像模型
      • 部署mnist手写数字识别模型
      • 部署物体检测模型
    • video-infer实现边缘视频AI推断
      • 使用Movidius VPU加速边缘视频推断
      • 使用CPU实现边缘视频推断
  • 操作指南
    • 主子用户鉴权
    • 设备管理
      • 设备模拟器
      • 子设备数据云边交互方式
      • 进程模式软网关设备接入指南
      • 子设备数据云边交互方式-v2
      • 视频流管理
        • IPC子设备和驱动
        • 边缘转发RTSP视频流
      • 设备接入
        • 设备模型管理
        • 接入模板
        • 设备管理
        • 子设备绑定
      • 驱动管理
        • 进程模式软网关自定义驱动开发
        • 驱动管理
        • GO语言实现示例
        • 自定义驱动开发指南
      • 不同协议设备接入
        • BACnet设备接入
        • OPC-UA设备接入
        • Modbus 设备接入
        • IEC104设备接入
        • OPC-DA设备接入
    • 节点管理
      • 边缘应用获取云端STS鉴权
      • 进程模式节点
      • 远程MQTT消息下发
      • 节点运行模式说明
      • 节点影子
      • 远程调用
      • 容器模式节点
      • 远程调试
      • 远程SSH边缘节点
      • 边缘节点OpenAPI
      • 证书管理
      • 节点预配
    • 业务编排
      • 单元管理
      • 技能管理
      • 常见技能
    • 应用管理
      • 业务模版
      • 应用部署
        • 应用运行模式与分类说明
        • 函数应用
          • 自定义函数与依赖包解耦下发
          • 从CFC引入多个函数下发
          • 典型使用说明
          • 使用函数调用边缘AI模型
          • 自定义函数与依赖包整体下发
        • 容器应用
          • subpath子路径使用说明
          • workdir工作目录使用说明
          • Job类型容器应用
          • 容器应用状态说明
          • 原生yaml接入使用说明
          • 端口映射说明
          • 容器应用工作负载类型说明
          • Deployment类型容器应用
          • DaemonSet类型容器应用
          • QPS监控
          • emptyDir卷使用说明
          • 边缘服务调用
        • 进程应用
          • 进程应用概述
          • 可执行二进制程序类型进程应用
          • 可执行脚本类型进程应用
      • 配置管理
        • 证书
        • 函数
        • 镜像仓库凭证
        • 配置项
        • 密文
        • 镜像
        • 进程程序包
    • AI加速卡
      • AI加速卡通用资源调度方法
      • 自定义加速卡算力指标采集
      • 华为昇腾
        • 昇腾310资源监控
      • 英伟达
        • GPU资源调度-显存隔离
        • Jetson资源监控
        • GPU资源调度-显存共享
        • Jetson依赖说明
        • NVIDIA GPU资源监控
      • 寒武纪
        • MLU270资源监控
      • 百度昆仑
        • 昆仑芯片资源监控
      • 比特大陆
        • 挂载比特大陆边缘计算盒子tpu资源
        • BM-SE5资源监控
  • 服务等级协议SLA
    • 服务等级协议SLA(V1.0)
  • 备份
    • 进程模式应用
    • 部署通用CPU模型
    • 部署模型SDK至Atlas200DK
    • 适配列表
    • 连接边缘节点本地baetyl-broker
    • 使用自定义modbus应用采集
    • NVIDIA GPU资源管理
    • FAQ
    • NVIDIA Jetson专用模型部署-进程模式
    • 容器模式应用
    • 连接边缘节点本地baetyl-broker服务
    • DaemonSet类型和job类型服务部署
    • 通用CPU模型部署-容器模式
    • NVIDIA Jetson专用模型部署-容器模式
    • 功能发布记录
    • 在BIE控制台部署从AI中台下载的模型
    • EasyEdge概述
    • Nvidia_Jetson
      • 使用NVIDIA官方镜像运行模型-容器模式
      • 二进制程序运行模型-进程模式
      • 使用edgekit镜像运行模型-容器模式
    • 下载专区
      • 相关资源下载
  • 产品定价
    • 产品定价
所有文档
menu
没有找到结果,请重新输入

智能边缘 BIE

  • 产品描述
    • 名词解释
    • 使用限制
    • 产品概述
    • 产品优势
    • 应用场景
  • 配置文件说明
    • baetyl-rule
    • baetyl-remote-object
    • baetyl-function
    • baetyl-broker
  • 快速入门
    • 融合模式节点安装
    • 快速入门指南
    • 离线安装k3s+docker
    • 进程模式节点安装
      • 在linux上安装
      • 在windows上安装
  • 典型实践
    • OPC-UA使用
    • 使用BIE函数计算调用文心一言
    • 边缘规则引擎实战
      • 集成Kuiper流式计算引擎
      • 边缘规则实例
    • 将AI中台模型部署至边缘节点
      • 获取AI中台模型部署包进行应用部署
      • 部署模型SDK至Atlas200DK
      • 模型中心1.0
        • 通过AI中台转换模型并下发至边缘
        • 通过AI中台直接将模型下发至边缘
      • 模型中心2.0
        • 将物体检测模型部署至边缘
        • 将图像分类模型部署至边缘
    • 部署PaddleServing模型
      • 使用BIE下发PaddleOCR模型
      • 制作GPU版本Paddle Serving推理镜像
      • 通过BIE部署Paddle Serving
    • Modbus协议采集温湿度传感器
      • 连接边缘baetyl-broker
      • 使用内置modbus驱动采集数据并进行边缘函数计算
      • 数据从baetyl-broker上传至IoTCore
    • 部署EasyDL模型SDK
      • 部署EasyDL烟火检测模型至ARM64节点
    • 部署EasyEdge模型SDK
      • 进程模式下发python SDK模型
      • 使用EasyEdge模型转换获取边缘模型
      • 部署模型SDK至Windows设备
      • 部署模型SDK至Intel Movidius设备
      • 部署模型SDK至Jetson Xavier
    • 部署自定义容器镜像模型
      • 部署mnist手写数字识别模型
      • 部署物体检测模型
    • video-infer实现边缘视频AI推断
      • 使用Movidius VPU加速边缘视频推断
      • 使用CPU实现边缘视频推断
  • 操作指南
    • 主子用户鉴权
    • 设备管理
      • 设备模拟器
      • 子设备数据云边交互方式
      • 进程模式软网关设备接入指南
      • 子设备数据云边交互方式-v2
      • 视频流管理
        • IPC子设备和驱动
        • 边缘转发RTSP视频流
      • 设备接入
        • 设备模型管理
        • 接入模板
        • 设备管理
        • 子设备绑定
      • 驱动管理
        • 进程模式软网关自定义驱动开发
        • 驱动管理
        • GO语言实现示例
        • 自定义驱动开发指南
      • 不同协议设备接入
        • BACnet设备接入
        • OPC-UA设备接入
        • Modbus 设备接入
        • IEC104设备接入
        • OPC-DA设备接入
    • 节点管理
      • 边缘应用获取云端STS鉴权
      • 进程模式节点
      • 远程MQTT消息下发
      • 节点运行模式说明
      • 节点影子
      • 远程调用
      • 容器模式节点
      • 远程调试
      • 远程SSH边缘节点
      • 边缘节点OpenAPI
      • 证书管理
      • 节点预配
    • 业务编排
      • 单元管理
      • 技能管理
      • 常见技能
    • 应用管理
      • 业务模版
      • 应用部署
        • 应用运行模式与分类说明
        • 函数应用
          • 自定义函数与依赖包解耦下发
          • 从CFC引入多个函数下发
          • 典型使用说明
          • 使用函数调用边缘AI模型
          • 自定义函数与依赖包整体下发
        • 容器应用
          • subpath子路径使用说明
          • workdir工作目录使用说明
          • Job类型容器应用
          • 容器应用状态说明
          • 原生yaml接入使用说明
          • 端口映射说明
          • 容器应用工作负载类型说明
          • Deployment类型容器应用
          • DaemonSet类型容器应用
          • QPS监控
          • emptyDir卷使用说明
          • 边缘服务调用
        • 进程应用
          • 进程应用概述
          • 可执行二进制程序类型进程应用
          • 可执行脚本类型进程应用
      • 配置管理
        • 证书
        • 函数
        • 镜像仓库凭证
        • 配置项
        • 密文
        • 镜像
        • 进程程序包
    • AI加速卡
      • AI加速卡通用资源调度方法
      • 自定义加速卡算力指标采集
      • 华为昇腾
        • 昇腾310资源监控
      • 英伟达
        • GPU资源调度-显存隔离
        • Jetson资源监控
        • GPU资源调度-显存共享
        • Jetson依赖说明
        • NVIDIA GPU资源监控
      • 寒武纪
        • MLU270资源监控
      • 百度昆仑
        • 昆仑芯片资源监控
      • 比特大陆
        • 挂载比特大陆边缘计算盒子tpu资源
        • BM-SE5资源监控
  • 服务等级协议SLA
    • 服务等级协议SLA(V1.0)
  • 备份
    • 进程模式应用
    • 部署通用CPU模型
    • 部署模型SDK至Atlas200DK
    • 适配列表
    • 连接边缘节点本地baetyl-broker
    • 使用自定义modbus应用采集
    • NVIDIA GPU资源管理
    • FAQ
    • NVIDIA Jetson专用模型部署-进程模式
    • 容器模式应用
    • 连接边缘节点本地baetyl-broker服务
    • DaemonSet类型和job类型服务部署
    • 通用CPU模型部署-容器模式
    • NVIDIA Jetson专用模型部署-容器模式
    • 功能发布记录
    • 在BIE控制台部署从AI中台下载的模型
    • EasyEdge概述
    • Nvidia_Jetson
      • 使用NVIDIA官方镜像运行模型-容器模式
      • 二进制程序运行模型-进程模式
      • 使用edgekit镜像运行模型-容器模式
    • 下载专区
      • 相关资源下载
  • 产品定价
    • 产品定价
  • 文档中心
  • arrow
  • 智能边缘BIE
  • arrow
  • 操作指南
  • arrow
  • AI加速卡
  • arrow
  • 英伟达
  • arrow
  • Jetson依赖说明
本页目录
  • 一、硬件准备
  • 二、jetpack依赖
  • 1.使用apt-cache show nvidia-jetpack
  • 2.使用jetsonUtilities
  • 3.使用jtop
  • 三、nvidia-docker依赖
  • 四、库文件依赖
  • 五、查看其他信息常用命令
  • 1.查看nv_tegra_release版本
  • 2.查看cuda-driver版本
  • 3.查看TensorRT版本

Jetson依赖说明

更新时间:2025-08-21

一、硬件准备

本文使用的设备是jetson nano,也可以使用Jetson Xavier TX2/NX/AGX等设备。

二、jetpack依赖

本实验使用的模型依赖于JetPack 4.4,在安装 JetPack 时务必安装对应的组件:

  • 使用 SDK Manager 安装 JetPack 需要勾选 TensorRT、OpenCV、CUDA、cuDNN 等选项。
  • 使用 SD Card Image 方式(仅对 Jetson Nano 和 Jetson Xavier NX 有效)则无需关心组件问题,默认会全部安装。

在已经安装好的Jetson设备上,可以使用apt-cache show nvidia-jetpack、jetsonUtilities和jtop来查看jetpack版本。

1.使用apt-cache show nvidia-jetpack

执行如下命令,查看jetson版本:

Bash
1nvidia@miivii-tegra:~$ sudo apt-cache show nvidia-jetpack
2[sudo] password for nvidia:
3Package: nvidia-jetpack
4Architecture: arm64
5Version: 4.5-b129
6Priority: standard
7Section: metapackages
8Maintainer: NVIDIA Corporation
9Installed-Size: 194
10Depends: nvidia-cuda (= 4.5-b129), nvidia-opencv (= 4.5-b129), nvidia-cudnn8 (= 4.5-b129), nvidia-tensorrt (= 4.5-b129), nvidia-visionworks (= 4.5-b129), nvidia-container (= 4.5-b129), nvidia-vpi (= 4.5-b129), nvidia-l4t-jetson-multimedia-api (>> 32.5-0), nvidia-l4t-jetson-multimedia-api (<< 32.6-0)
11Filename: pool/main/n/nvidia-jetpack/nvidia-jetpack_4.5-b129_arm64.deb
12Size: 29360
13MD5sum: 06962c42e462f643455d6194d1a2d641
14SHA1: cb17547b902b2793e0df86d561809ecdbf7e401f
15SHA256: 002646e6d81d13526ade23d7c45180014f3cd9e9f5fb0f8896b77dff85d6b9fe
16SHA512: 99e95085ecd9ff4c33a0fc01da35a56447db2e6f372aa08c9e307a4dfd955c0ccd2d9c27e508d808f54e24827cba022338e0fc32a7bebce421c5381e16e1ac23
17Homepage: http://developer.nvidia.com/jetson
18Description: NVIDIA Jetpack Meta Package
19Description-md5: ad1462289bdbc54909ae109d1d32c0a8

2.使用jetsonUtilities

下载jetsonUtilities到本地,然后执行如下python脚本:

Shell
1nano@jetson-nano:~$ python jetsonInfo.py
2NVIDIA Jetson AGX Xavier [16GB]
3 L4T 32.5.0 [ JetPack 4.5 ]
4   Ubuntu 18.04.5 LTS
5   Kernel Version: 4.9.201-tegra
6 CUDA 10.2.89
7   CUDA Architecture: 7.2
8 OpenCV version: 4.1.1
9   OpenCV Cuda: NO
10 CUDNN: 8.0.0.180
11 TensorRT: 7.1.3.0
12 Vision Works: 1.6.0.501
13 VPI: ii libnvvpi1 1.0.15 arm64 NVIDIA Vision Programming Interface library
14 Vulcan: 1.2.70

上述为jetpack 4.5版本的信息。

3.使用jtop

参考jetson_stats官网安装jtop程序,安装命令如下:

Shell
1# 1. 更新系统包
2sudo apt-get update
3sudo apt-get upgrade
4# 2. 安装pip
5sudo apt-get install python-pip
6# 3. 检查 pip 是否安装成功
7pip -V
8# 4.安装jtop
9sudo -H pip install -U jetson-stats
10# 5.查看系统服务状态
11sudo systemctl status jetson_stats
12# 6.卸载jtop
13sudo pip uninstall jetson-stats
14# 7. 查看pip软件清单
15pip list

安装完毕以后,可以执行jtop命令查看jetson信息,如下图所示:

image.png

三、nvidia-docker依赖

jetson设备默认安装了docker,建议使用docker 19.03及以上版本。可以在jetson设备上执行docker info查看docker信息,执行结果如下:

Sehll
1$ docker info
2Client:
3 Debug Mode: false
4 
5Server:
6 Containers: 38
7  Running: 21
8  Paused: 0
9  Stopped: 17
10 Images: 12
11 Server Version: 19.03.6
12 Storage Driver: overlay2
13  Backing Filesystem: extfs
14  Supports d_type: true
15  Native Overlay Diff: true
16 Logging Driver: json-file
17 Cgroup Driver: cgroupfs
18 Plugins:
19  Volume: local
20  Network: bridge host ipvlan macvlan null overlay
21  Log: awslogs fluentd gcplogs gelf journald json-file local logentries splunk syslog
22 Swarm: inactive
23 Runtimes: nvidia runc
24 Default Runtime: nvidia
25 Init Binary: docker-init
26 containerd version:
27 runc version:
28 init version:
29 Security Options:
30  seccomp
31   Profile: default
32 Kernel Version: 4.9.140-tegra
33 Operating System: Ubuntu 18.04.5 LTS
34 OSType: linux
35 Architecture: aarch64
36 CPUs: 4
37 Total Memory: 3.871GiB
38 Name: jetson-nano
39 ID: O7GP:DDD5:5CIR:LEWJ:2BQ3:4WIW:VA4H:JDCP:5VGL:L2K3:PLZ7:KBHO
40 Docker Root Dir: /var/lib/docker
41 Debug Mode: false
42 Registry: https://index.docker.io/v1/
43 Labels:
44 Experimental: false
45 Insecure Registries:
46  127.0.0.0/8
47 Live Restore Enabled: false

如果Default Runtime不是nvidia,而是runc,则修改/etc/docker/daemon.json文件,添加"default-runtime": "nvidia",修改完毕以后的/etc/docker/daemon.json文件如下所示:

Shell
1nano@jetson-nano:~$ cat /etc/docker/daemon.json
2{
3    "default-runtime": "nvidia",
4    "runtimes": {
5        "nvidia": {
6            "path": "nvidia-container-runtime",
7            "runtimeArgs": []
8        }
9    }
10}

修改完毕以后,重启docker,执行如下命令:

Bash
1sudo systemctl daemon-reload
2sudo systemctl restart docker

四、库文件依赖

EasyEdge Jetson 推理镜像依赖库文件,需下载对应版本库文件,并将其放置在 Jetson 设备 /etc/nvidia-container-runtime/host-files-for-container.d/ 目录下,如下图所示:

image.png

库文件下载地址:

  • jetpack 4.4:easyedge_runtime_j44.csv
  • jetpack 4.5:easyedge_runtime_j45.csv

五、查看其他信息常用命令

1.查看nv_tegra_release版本

Plain Text
1nano@jetson-nano:~$ head -n 1 /etc/nv_tegra_release
2# R32 (release), REVISION: 4.3, GCID: 21589087, BOARD: t210ref, EABI: aarch64, DATE: Fri Jun 26 04:38:25 UTC 2020

2.查看cuda-driver版本

查看cuda驱动版本,可以使用一下命令:

Shell
1nano@jetson-nano:~$  dpkg -l | grep cuda-driver
2ii  cuda-driver-dev-10-2                          10.2.89-1                                        arm64        CUDA Driver native dev stub library

3.查看TensorRT版本

查看TensorRT版本,可以使用一下命令:

Shell
1nano@jetson-nano:~$  dpkg -l | grep TensorRT
2ii  graphsurgeon-tf                               7.1.3-1+cuda10.2                                 arm64        GraphSurgeon for TensorRT package
3ii  libnvinfer-bin                                7.1.3-1+cuda10.2                                 arm64        TensorRT binaries
4ii  libnvinfer-dev                                7.1.3-1+cuda10.2                                 arm64        TensorRT development libraries and headers
5ii  libnvinfer-doc                                7.1.3-1+cuda10.2                                 all          TensorRT documentation
6ii  libnvinfer-plugin-dev                         7.1.3-1+cuda10.2                                 arm64        TensorRT plugin libraries
7ii  libnvinfer-plugin7                            7.1.3-1+cuda10.2                                 arm64        TensorRT plugin libraries
8ii  libnvinfer-samples                            7.1.3-1+cuda10.2                                 all          TensorRT samples
9ii  libnvinfer7                                   7.1.3-1+cuda10.2                                 arm64        TensorRT runtime libraries
10ii  libnvonnxparsers-dev                          7.1.3-1+cuda10.2                                 arm64        TensorRT ONNX libraries
11ii  libnvonnxparsers7                             7.1.3-1+cuda10.2                                 arm64        TensorRT ONNX libraries
12ii  libnvparsers-dev                              7.1.3-1+cuda10.2                                 arm64        TensorRT parsers libraries
13ii  libnvparsers7                                 7.1.3-1+cuda10.2                                 arm64        TensorRT parsers libraries
14ii  nvidia-container-csv-tensorrt                 7.1.3.0-1+cuda10.2                               arm64        Jetpack TensorRT CSV file
15ii  python-libnvinfer                             7.1.3-1+cuda10.2                                 arm64        Python bindings for TensorRT
16ii  python-libnvinfer-dev                         7.1.3-1+cuda10.2                                 arm64        Python development package for TensorRT
17ii  python3-libnvinfer                            7.1.3-1+cuda10.2                                 arm64        Python 3 bindings for TensorRT
18ii  python3-libnvinfer-dev                        7.1.3-1+cuda10.2                                 arm64        Python 3 development package for TensorRT
19ii  tensorrt                                      7.1.3.0-1+cuda10.2                               arm64        Meta package of TensorRT
20ii  uff-converter-tf                              7.1.3-1+cuda10.2                                 arm64        UFF converter for TensorRT package

上一篇
GPU资源调度-显存共享
下一篇
NVIDIA GPU资源监控