Skip to content

Commit 89d0000

Browse files
committed
Merge branch 'develop' into release/v0.3.0
2 parents 5be92b9 + 0f365ac commit 89d0000

6 files changed

+29
-26
lines changed

deploy/cpp/CMakeLists.txt

+1-1
Original file line numberDiff line numberDiff line change
@@ -142,7 +142,7 @@ if(WITH_MKL)
142142
if (WIN32)
143143
set(MKLDNN_LIB ${MKLDNN_PATH}/lib/mkldnn.lib)
144144
else ()
145-
set(MKLDNN_LIB ${MKLDNN_PATH}/lib/libmkldnn.so.1)
145+
set(MKLDNN_LIB ${MKLDNN_PATH}/lib/libmkldnn.so.0)
146146
endif ()
147147
endif()
148148
else()

deploy/cpp/README.md

+6-4
Original file line numberDiff line numberDiff line change
@@ -25,7 +25,7 @@
2525
## 2.主要目录和文件
2626

2727
```
28-
inference
28+
cpp
2929
├── demo.cpp # 演示加载模型、读入数据、完成预测任务C++代码
3030
|
3131
├── conf
@@ -90,6 +90,8 @@ deeplabv3p_xception65_humanseg
9090
DEPLOY:
9191
# 是否使用GPU预测
9292
USE_GPU: 1
93+
# 是否是PaddleSeg 0.3.0新版本模型
94+
USE_PR : 1
9395
# 模型和参数文件所在目录路径
9496
MODEL_PATH: "/root/projects/models/deeplabv3p_xception65_humanseg"
9597
# 模型文件名
@@ -125,11 +127,11 @@ DEPLOY:
125127

126128
`Linux` 系统中执行以下命令:
127129
```shell
128-
./demo --conf=/root/projects/PaddleSeg/inference/conf/humanseg.yaml --input_dir=/root/projects/PaddleSeg/inference/images/humanseg/
130+
./demo --conf=/root/projects/PaddleSeg/deploy/cpp/conf/humanseg.yaml --input_dir=/root/projects/PaddleSeg/deploy/cpp/images/humanseg/
129131
```
130132
`Windows` 中执行以下命令:
131133
```shell
132-
D:\projects\PaddleSeg\inference\build\Release>demo.exe --conf=D:\\projects\\PaddleSeg\\inference\\conf\\humanseg.yaml --input_dir=D:\\projects\\PaddleSeg\\inference\\images\humanseg\\
134+
D:\projects\PaddleSeg\deploy\cpp\build\Release>demo.exe --conf=D:\\projects\\PaddleSeg\\deploy\\cpp\\conf\\humanseg.yaml --input_dir=D:\\projects\\PaddleSeg\\deploy\\cpp\\images\humanseg\\
133135
```
134136

135137

@@ -141,7 +143,7 @@ D:\projects\PaddleSeg\inference\build\Release>demo.exe --conf=D:\\projects\\Padd
141143
| input_dir | 需要预测的图片目录 |
142144

143145

144-
配置文件说明请参考上一步,样例程序会扫描input_dir目录下的所有以**jpg或jpeg**为后缀的图片,并生成对应的预测结果(若input_dir目录下没有以**jpg或jpeg**为后缀的图片,程序会报错)。图像分割会对`demo.jpg`的每个像素进行分类,其预测的结果保存在`demo_jpg.png`中。分割预测结果的图不能直接看到效果,必须经过可视化处理。对于二分类的图像分割模型,样例程序自动将预测结果转换成可视化结果,保存在`demo_jpg_scoremap.png`中, 原始尺寸的预测结果在`demo_jpg_recover.png`中,如下图。对于**多分类**的图像分割模型,请参考[可视化脚本使用方法](./docs/vis.md)。
146+
配置文件说明请参考上一步,样例程序会扫描input_dir目录下的所有以**jpg或jpeg**为后缀的图片,并生成对应的预测结果(若input_dir目录下没有以**jpg或jpeg**为后缀的图片,程序会报错)。图像分割会对`demo.jpg`的每个像素进行分类,其预测的结果保存在`demo_jpg_mask.png`中。分割预测结果的图不能直接看到效果,必须经过可视化处理。对于二分类的图像分割模型。如果需要对预测结果进行**可视化**,请参考[可视化脚本使用方法](./docs/vis.md)。
145147

146148
输入原图
147149
![avatar](images/humanseg/demo2.jpeg)

deploy/cpp/docs/linux_build.md

+7-7
Original file line numberDiff line numberDiff line change
@@ -16,7 +16,7 @@
1616
1. `mkdir -p /root/projects/ && cd /root/projects`
1717
2. `git clone https://github.com/PaddlePaddle/PaddleSeg.git`
1818

19-
`C++`预测代码在`/root/projects/PaddleSeg/inference` 目录,该目录不依赖任何`PaddleSeg`下其他目录。
19+
`C++`预测代码在`/root/projects/PaddleSeg/deploy/cpp` 目录,该目录不依赖任何`PaddleSeg`下其他目录。
2020

2121

2222
### Step2: 下载PaddlePaddle C++ 预测库 fluid_inference
@@ -25,9 +25,9 @@ PaddlePaddle C++ 预测库主要分为CPU版本和GPU版本。其中,针对不
2525

2626
| 版本 | 链接 |
2727
| ---- | ---- |
28-
| CPU版本 | [fluid_inference.tgz](https://bj.bcebos.com/paddlehub/paddle_inference_lib/fluid_inference_linux_cpu_1.6.1.tgz) |
29-
| CUDA 9.0版本 | [fluid_inference.tgz](https://bj.bcebos.com/paddlehub/paddle_inference_lib/fluid_inference_linux_cuda97_1.6.1.tgz) |
30-
| CUDA 10.0版本 | [fluid_inference.tgz](https://bj.bcebos.com/paddlehub/paddle_inference_lib/fluid_inference_linux_cuda10_1.6.1.tgz) |
28+
| CPU版本 | [fluid_inference.tgz](https://paddle-inference-lib.bj.bcebos.com/1.6.1-cpu-avx-mkl/fluid_inference.tgz) |
29+
| CUDA 9.0版本 | [fluid_inference.tgz](https://paddle-inference-lib.bj.bcebos.com/1.6.1-gpu-cuda9-cudnn7-avx-mkl/fluid_inference.tgz) |
30+
| CUDA 10.0版本 | [fluid_inference.tgz](https://paddle-inference-lib.bj.bcebos.com/1.6.1-gpu-cuda10-cudnn7-avx-mkl/fluid_inference.tgz) |
3131

3232

3333
针对不同的CPU类型、不同的指令集,官方提供更多可用的预测库版本,目前已经推出1.6版本的预测库。其余版本具体请参考以下链接:[C++预测库下载列表](https://www.paddlepaddle.org.cn/documentation/docs/zh/develop/advanced_usage/deploy/inference/build_and_install_lib_cn.html)
@@ -75,15 +75,15 @@ make install
7575
在使用**GPU版本**预测库进行编译时,可执行下列操作。**注意**把对应的参数改为你的上述依赖库实际路径:
7676

7777
```shell
78-
cd /root/projects/PaddleSeg/inference
78+
cd /root/projects/PaddleSeg/deploy/cpp
7979
mkdir build && cd build
8080
cmake .. -DWITH_GPU=ON -DPADDLE_DIR=/root/projects/fluid_inference -DCUDA_LIB=/usr/local/cuda/lib64/ -DOPENCV_DIR=/root/projects/opencv3/ -DCUDNN_LIB=/usr/local/cuda/lib64/ -DWITH_STATIC_LIB=OFF
8181
make
8282
```
8383

8484
在使用**CPU版本**预测库进行编译时,可执行下列操作。
8585
```shell
86-
cd /root/projects/PaddleSeg/inference
86+
cd /root/projects/PaddleSeg/cpp
8787

8888
mkdir build && cd build
8989
cmake .. -DWITH_GPU=OFF -DPADDLE_DIR=/root/projects/fluid_inference -DOPENCV_DIR=/root/projects/opencv3/ -DWITH_STATIC_LIB=OFF
@@ -98,4 +98,4 @@ make
9898
./demo --conf=/path/to/your/conf --input_dir=/path/to/your/input/data/directory
9999
```
100100

101-
更详细说明请参考README文档: [预测和可视化部分](../README.md)
101+
更详细说明请参考README文档: [预测和可视化部分](../README.md)

deploy/cpp/docs/vis.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -12,7 +12,7 @@ cd inference/tools/
1212
# 拷贝保存分割预测结果的图片到本目录
1313
cp XXX/demo_jpg.png .
1414
# 运行可视化脚本
15-
python visualize.py demo.jpg demo_jpg.png vis_result.png
15+
python visualize.py demo.jpg demo_jpg_mask.png vis_result.png
1616
```
1717

1818
以下为上述运行可视化脚本例子中每个参数的含义,请根据测试机器中图片的**实际路径**修改对应参数。

deploy/cpp/docs/windows_vs2015_build.md

+8-8
Original file line numberDiff line numberDiff line change
@@ -15,7 +15,7 @@
1515
1. 打开`cmd`, 执行 `cd /d D:\projects`
1616
2. `git clone http://gitlab.baidu.com/Paddle/PaddleSeg.git`
1717

18-
`C++`预测库代码在`D:\projects\PaddleSeg\inference` 目录,该目录不依赖任何`PaddleSeg`下其他目录。
18+
`C++`预测库代码在`D:\projects\PaddleSeg\deploy\cpp` 目录,该目录不依赖任何`PaddleSeg`下其他目录。
1919

2020

2121
### Step2: 下载PaddlePaddle C++ 预测库 fluid_inference
@@ -24,9 +24,9 @@ PaddlePaddle C++ 预测库主要分为两大版本:CPU版本和GPU版本。其
2424

2525
| 版本 | 链接 |
2626
| ---- | ---- |
27-
| CPU版本 | [fluid_inference_install_dir.zip](https://bj.bcebos.com/paddlehub/paddle_inference_lib/fluid_install_dir_win_cpu_1.6.zip) |
28-
| CUDA 9.0版本 | [fluid_inference_install_dir.zip](https://bj.bcebos.com/paddlehub/paddle_inference_lib/fluid_inference_install_dir_win_cuda9_1.6.1.zip) |
29-
| CUDA 10.0版本 | [fluid_inference_install_dir.zip](https://bj.bcebos.com/paddlehub/paddle_inference_lib/fluid_inference_install_dir_win_cuda10_1.6.1.zip) |
27+
| CPU版本 | [fluid_inference_install_dir.zip](https://paddle-wheel.bj.bcebos.com/1.6.2/win-infer/mkl/cpu/fluid_inference_install_dir.zip) |
28+
| CUDA 9.0版本 | [fluid_inference_install_dir.zip](https://paddle-wheel.bj.bcebos.com/1.6.2/win-infer/mkl/post97/fluid_inference_install_dir.zip) |
29+
| CUDA 10.0版本 | [fluid_inference_install_dir.zip](https://paddle-wheel.bj.bcebos.com/1.6.2/win-infer/mkl/post107/fluid_inference_install_dir.zip) |
3030

3131
解压后`D:\projects\fluid_inference`目录包含内容为:
3232
```
@@ -70,19 +70,19 @@ call "C:\Program Files (x86)\Microsoft Visual Studio 14.0\VC\vcvarsall.bat" amd6
7070

7171
```bash
7272
# 切换到预测库所在目录
73-
cd /d D:\projects\PaddleSeg\inference\
73+
cd /d D:\projects\PaddleSeg\deply\cpp\
7474
# 创建构建目录, 重新构建只需要删除该目录即可
7575
mkdir build
7676
cd build
7777
# cmake构建VS项目
78-
D:\projects\PaddleSeg\inference\build> cmake .. -G "Visual Studio 14 2015 Win64" -DWITH_GPU=ON -DPADDLE_DIR=D:\projects\fluid_inference -DCUDA_LIB=D:\projects\cudalib\v9.0\lib\x64 -DOPENCV_DIR=D:\projects\opencv -T host=x64
78+
D:\projects\PaddleSeg\deploy\cpp\build> cmake .. -G "Visual Studio 14 2015 Win64" -DWITH_GPU=ON -DPADDLE_DIR=D:\projects\fluid_inference -DCUDA_LIB=D:\projects\cudalib\v9.0\lib\x64 -DOPENCV_DIR=D:\projects\opencv -T host=x64
7979
```
8080

8181
在使用**CPU版本**预测库进行编译时,可执行下列操作。
8282

8383
```bash
8484
# 切换到预测库所在目录
85-
cd /d D:\projects\PaddleSeg\inference\
85+
cd /d D:\projects\PaddleSeg\deploy\cpp\
8686
# 创建构建目录, 重新构建只需要删除该目录即可
8787
mkdir build
8888
cd build
@@ -102,7 +102,7 @@ D:\projects\PaddleSeg\inference\build> msbuild /m /p:Configuration=Release cpp_i
102102

103103
上述`Visual Studio 2015`编译产出的可执行文件在`build\release`目录下,切换到该目录:
104104
```
105-
cd /d D:\projects\PaddleSeg\inference\build\release
105+
cd /d D:\projects\PaddleSeg\deploy\cpp\build\release
106106
```
107107

108108
之后执行命令:

deploy/cpp/docs/windows_vs2019_build.md

+6-5
Original file line numberDiff line numberDiff line change
@@ -15,7 +15,7 @@ Windows 平台下,我们使用`Visual Studio 2015` 和 `Visual Studio 2019 Com
1515

1616
### Step1: 下载代码
1717

18-
1. 点击下载源代码:[下载地址](https://github.com/PaddlePaddle/PaddleSeg/archive/release/v0.2.0.zip)
18+
1. 点击下载源代码:[下载地址](https://github.com/PaddlePaddle/PaddleSeg/archive/release/v0.3.0.zip)
1919
2. 解压,解压后目录重命名为`PaddleSeg`
2020

2121
以下代码目录路径为`D:\projects\PaddleSeg` 为例。
@@ -27,9 +27,9 @@ PaddlePaddle C++ 预测库主要分为两大版本:CPU版本和GPU版本。其
2727

2828
| 版本 | 链接 |
2929
| ---- | ---- |
30-
| CPU版本 | [fluid_inference_install_dir.zip](https://bj.bcebos.com/paddlehub/paddle_inference_lib/fluid_install_dir_win_cpu_1.6.zip) |
31-
| CUDA 9.0版本 | [fluid_inference_install_dir.zip](https://bj.bcebos.com/paddlehub/paddle_inference_lib/fluid_inference_install_dir_win_cuda9_1.6.1.zip) |
32-
| CUDA 10.0版本 | [fluid_inference_install_dir.zip](https://bj.bcebos.com/paddlehub/paddle_inference_lib/fluid_inference_install_dir_win_cuda10_1.6.1.zip) |
30+
| CPU版本 | [fluid_inference_install_dir.zip](https://paddle-wheel.bj.bcebos.com/1.6.1/win-infer/mkl/cpu/fluid_inference_install_dir.zip) |
31+
| CUDA 9.0版本 | [fluid_inference_install_dir.zip](https://paddle-wheel.bj.bcebos.com/1.6.1/win-infer/mkl/post97/fluid_inference_install_dir.zip) |
32+
| CUDA 10.0版本 | [fluid_inference_install_dir.zip](https://paddle-wheel.bj.bcebos.com/1.6.1/win-infer/mkl/post107/fluid_inference_install_dir.zip) |
3333

3434
解压后`D:\projects\fluid_inference`目录包含内容为:
3535
```
@@ -74,6 +74,7 @@ fluid_inference
7474
| *CUDA_LIB | CUDA的库路径 |
7575
| OPENCV_DIR | OpenCV的安装路径 |
7676
| PADDLE_DIR | Paddle预测库的路径 |
77+
7778
**注意**在使用CPU版本预测库时,需要把CUDA_LIB的勾去掉。
7879
![step4](https://paddleseg.bj.bcebos.com/inference/vs2019_step5.png)
7980

@@ -89,7 +90,7 @@ fluid_inference
8990
上述`Visual Studio 2019`编译产出的可执行文件在`out\build\x64-Release`目录下,打开`cmd`,并切换到该目录:
9091

9192
```
92-
cd /d D:\projects\PaddleSeg\inference\out\build\x64-Release
93+
cd /d D:\projects\PaddleSeg\deploy\cpp\out\build\x64-Release
9394
```
9495

9596
之后执行命令:

0 commit comments

Comments
 (0)