Linux x86 环境下编译适用于 Linux x86 的库

简介

本文档旨在介绍如何在 x86 Linux 操作系统环境下编译 Paddle Lite 源码,生成目标硬件为 x86 Linux 的预测库。

说明:

  • 通常情况下,你不需要自行从源码构建编译包,优先推荐下载 Paddle Lite 官方发布的预编译包,可满足一部分场景的需求。如果官方发布的编译包未覆盖你的场景,或者需要修改Paddle Lite源代码,则可参考本文构建。

  • 本文介绍的编译方法只适用于 Paddle Lite v2.6 及以上版本。v2.3 及之前版本请参考release/v2.3 源码编译方法

在该场景下 Paddle Lite 已验证的软硬件配置如下表所示:

Host 环境

目标硬件环境

x86 Linux

CPU x86_32/64
Huawei Ascend NPU
Kunlunxin XPU
OpenCL
注:查询以上芯片支持的具体型号,可参考支持硬件列表章节。

准备编译环境

环境要求

  • gcc、g++ == 8.2.0

  • CMake >= 3.10

  • git、make、wget、python

环境安装命令

以 Ubuntu 为例介绍安装命令。其它 Linux 发行版安装步骤类似,在此不再赘述。 注意需要 root 用户权限执行如下命令。

# 1. 安装 gcc g++ git make wget python unzip curl等基础软件
apt update
apt-get install -y --no-install-recommends \
  gcc g++ git make wget python unzip curl

# 2. 安装 CMake,以下命令以 3.10.3 版本为例,其他版本步骤类似。
wget -c https://mms-res.cdn.bcebos.com/cmake-3.10.3-Linux-x86_64.tar.gz && \
    tar xzf cmake-3.10.3-Linux-x86_64.tar.gz && \
    mv cmake-3.10.3-Linux-x86_64 /opt/cmake-3.10 &&
    ln -s /opt/cmake-3.10/bin/cmake /usr/bin/cmake && \
    ln -s /opt/cmake-3.10/bin/ccmake /usr/bin/ccmake

了解基础编译参数

Paddle Lite 仓库中./lite/tools/build_linux.sh脚本文件用于构建 linux 版本的编译包,通过修改build_linux.sh脚本文件中的参数,可满足不同场景编译包的构建需求,常用的基础编译参数如下表所示: 有特殊硬件需求的编译参数见后文。

参数

说明

可选范围

默认值

arch

目标硬件的架构版本

armv8 / armv7hf / armv7 / x86

armv8

toolchain

C++语言的编译器工具链

gcc / clang

gcc

with_python

是否包含 python 编译包,目标应用程序是 python 语言时需配置为 ON

OFF / ON

OFF

with_cv

是否将 cv 函数加入编译包中

OFF / ON

OFF

with_log

是否在执行过程打印日志

OFF / ON

ON

with_exception

是否开启 C++ 异常

OFF / ON

OFF

with_extra

是否编译完整算子(见支持算子一节)

OFF / ON

OFF

with_profile

是否打开执行耗时分析

OFF / ON

OFF

with_precision_profile

是否打开逐层精度结果分析

OFF / ON

OFF

with_static_mkl

是否编译静态链接的 MKL 库,否则为动态链接(目标 os 架构为 x86 时可以选择是否开启)

OFF / ON

OFF

with_avx

是否使用 AVX/SSE 指令对 X86 Kernel 进行加速(目标 os 架构为 x86 时可以选择是否开启)

OFF / ON

ON

with_opencl

是否编译支持 OpenCL 的预测库

OFF / ON

OFF

编译步骤

# 下载 Paddle Lite 源码并切换到发布分支,如 develop
git clone https://github.com/PaddlePaddle/Paddle-Lite.git
cd Paddle-Lite && git checkout develop

# (可选) 删除 third-party 目录,编译脚本会自动从国内 CDN 下载第三方库文件
# rm -rf third-party

./lite/tools/build_linux.sh --arch=x86

说明: 编译过程中,如出现源码编译耗时过长,通常是第三方库下载过慢或失败导致。请在完成 Paddle Lite 源码下载后,删除本地仓库根目录下的 third-party 目录,编译脚本会自动下载存储于国内 CDN 的第三方依赖文件压缩包,节省从 GitHub repo 同步第三方库的时间。

验证编译结果

如果按./lite/tools/build_linux.sh --arch=x86中的默认参数执行,成功后会在 Paddle-Lite/build.lite.linux.x86.gcc/inference_lite_lib/ 生成 Paddle Lite 编译包,文件目录如下。

inference_lite_lib/
├── bin
│   └── test_model_bin                                可执行工具文件
├── cxx                                               C++ 预测库和头文件
│   ├── include                                       C++ 头文件
│   │   ├── paddle_api.h
│   │   ├── paddle_lite_factory_helper.h
│   │   ├── paddle_place.h
│   │   ├── paddle_use_kernels.h
│   │   ├── paddle_use_ops.h
│   │   └── paddle_use_passes.h
│   └── lib                                           C++ 预测库
│       ├── libpaddle_api_light_bundled.a             C++ light_api 静态库
│       ├── libpaddle_api_full_bundled.a              C++ full_api 静态库
│       ├── libpaddle_light_api_shared.so             C++ light_api 动态库
│       └── libpaddle_full_api_shared.so              C++ full_api 动态库
│
└── demo                                              C++
│   └── cxx                                           C++ 预测库 demo
└── third_party
│   └── mklml                                         依赖的第三方加速库 Intel(R) MKL
│       ├── include
│       └── lib
│           ├── libiomp5.so
│           ├── libmklml_gnu.so
│           └── libmklml_intel.so

多设备支持

OpenCL

  • 介绍

Paddle Lite 支持所有兼容 OpenCL 1.1 标准的 GPU 设备。

  • 基本参数

参数

说明

可选范围

默认值

with_opencl

是否包含 OpenCL 编译

OFF / ON

OFF

昆仑芯 XPU

  • 介绍

Paddle Lite 已通过算子方式支持昆仑芯 XPU 在 x86 和 ARM 服务器(例如飞腾 FT-2000+/64)上进行预测部署。

  • 基本参数

参数

说明

可选范围

默认值

with_kunlunxin_xpu

是否包含 kunlunxin xpu 编译

OFF / ON

OFF

kunlunxin_xpu_sdk_url

kunlunxin xpu sdk 下载链接

用户自定义

https://baidu-kunlun-product.cdn.bcebos.com/KL-SDK/klsdk-dev_paddle

kunlunxin_xpu_sdk_env

kunlunxin xpu sdk 环境

bdcentos_x86_64 / centos7_x86_64 / ubuntu_x86_64 / kylin_aarch64

bdcentos_x86_64(x86) / kylin_aarch64(arm)

kunlunxin_xpu_sdk_root

设置 kunlunxin xpu sdk 目录

用户自定义

空值

详细请参考 昆仑芯 XPU 部署示例

NNAdapter

  • 介绍

NNAdapter 是飞桨推理 AI 硬件统一适配框架,可以通过它较为便捷的适配多种硬件。

  • 基本参数

参数

说明

可选范围

默认值

with_nnadapter

是否编译 NNAdapter

OFF / ON

OFF

NNAdapter 支持华为昇腾 NPU

参数

说明

可选范围

默认值

nnadapter_with_huawei_ascend_npu

是否编译华为昇腾 NPU 的 NNAdapter HAL 库

OFF / ON

OFF

nnadapter_huawei_ascend_npu_sdk_root

设置华为昇腾 CANN 目录

用户自定义

/usr/local/Ascend/ascend-toolkit/latest

详细请参考 华为昇腾 NPU 部署示例

NNAdapter 支持英伟达 TensorRT

参数

说明

可选范围

默认值

nnadapter_with_nvidia_tensorrt

是否编译英伟达 TensorRT 的 NNAdapter HAL 库

OFF / ON

OFF

nnadapter_nvidia_cuda_root

设置 CUDA 路径

用户自定义

空值

nnadapter_nvidia_tensorrt_root

设置 Tensor 路径

用户自定义

空值

详细请参考 英伟达 TensorRT 部署示例