第一步:安装cudatoolkit
- 使用nvidia-smi确定适合自己显卡驱动的版本
- 使用conda search cudatoolkit获取可用版本
- 执行 conda install -c anaconda cudatoolkit=X.X.X
- 在~/.bashrc文件中添加 export LD_LIBRARY_PATH="$LD_LIBRARY_PATH:/miniconda3_path/envs/tensorflow_env/lib"
- 执行 source ~/.bashrc
第二步:安装安装cudnn
使用conda search cudatoolkit获取可用版本,选择和自己的cuda版本对应的cudnn
第三步:安装TensorRT
- 从here下载 与cuda版本对应的TensorRT,选择tar.gz文件,例如我下载的是TensorRT-8.0.3.4.Linux.x86_64-gnu.cuda-11.3.cudnn8.2.tar.gz
- 执行tar -xzvf TensorRT-8.0.3.4.Linux.x86_64-gnu.cuda-11.3.cudnn8.2.tar.gz
- 在~/.bashrc文件中添加 export LD_LIBRARY_PATH="$LD_LIBRARY_PATH:/path/to/TensorRT/lib"
- 执行 source ~/.bashrc
- tensorflow-gpu tensorflow 服务器 教程 gputensorflow-gpu tensorflow服务器 教程 tensorflow-gpu tensorflow tensorflow-gpu tensorflow2版本 tensorflow-gpu tensorflow windows cudnn tensorflow-gpu tensorflow cudnn cuda tensorflow gpu tensorflow环境gpu tensorflow-keras tensorflow keras gpu tensorflow centos gpu tensorflow centos docker gpu