cuda-pytorch

在分布式nvidia cuda-pytorch中同时使用MPI和NCCL会造成死锁——分布式pytorch的backend不能同时使用MPI和NCCL

参考原文: https://docs.nvidia.com/deeplearning/nccl/user-guide/docs/mpi.html#inter-gpu-communication-with-cuda-aware-mpi 说实话,我不太认为有人在使用分布式pytorch的时候会同时开两个 ......
分布式 同时 pytorch NCCL cuda-pytorch
共1篇  :1/1页 首页上一页1下一页尾页