Windows环境下老显卡跑PyTorch GPU版本方示例分析,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。从pytorch 1.3开始 不再支持GPU的算力在3.5及其以下的显卡。这时,你只能安装1.2版本的官方Pytorch。如果够用就安装它吧,省心省力。但是如果你要用其它包需要更高版本的torch支持,比如:torch geometric需要至少1.4版本。你只能使用官方的CPU版本,因为官方的版本不再直接支持GPU算力3.5以下版本,简化版本的分发(Torch已经很大了)。到了Torch 1.7时,GPU算力至少要达到5.2。 这时,我们需要在Windows上重新编译Pytorch 源码,得到适合自己显卡的Torch。在编译时,系统会自动把GPU算力下限设为当前机器显卡的算力,比如GT 730M 1G 显卡算力为3.5。下面以Torch 1.7为例来说明整个操作过程。原帖子上说最新的VS 2019有点问题,我并没有去证实。但是个人认为,原理上应该不会这样的,或者说不是关键问题。但是我还是按帖子上的说法,安装了16.6.5版本Professional版本。https://docs.microsoft.com/en-us/visualstudio/releases/2019/history 里面的16.6.5版本。只需要安装 C++桌面开发即可。去Nvidia官网下 https://developer.nvidia.com/cuda-toolkit下载的版本选择cuda 10.1,cuda_10.1.105_418.96_win10.exe需要安装NVCC,与Visual Studio相关的插件部分。这个的安装可以参考windows_cudnn_install. ( https://github.com/pytorch/pytorch/blob/master/.circleci/scripts/windows_cudnn_install.sh)可以看到对应cuda10.1为v7.6.4.38,即cudnn-10.1-windows10-x64-v7.6.4.38.zip(不断地更新中)https://developer.nvidia.com/compute/machine-learning/cudnn/secure/7.6.4.38/Production/10.1_20190923/cudnn-10.1-windows10-x64-v7.6.4.38.zip将文件解压出来后,移动到Cuda toolkit安装路径中。(只是为了简化配置过程中的目录的设定)这个的安装可以参考install_mklhttps://github.com/pytorch/pytorch/blob/master/.jenkins/pytorch/win-test-helpers/installation-helpers/install_mkl.bat根据目前的官方文档下载:https://s3.amazonaws.com/ossci-windows/mkl_2020.0.166.7z参考i 香港云主机nstall_magmahttps://github.com/pytorch/pytorch/blob/master/.jenkins/pytorch/win-test-helpers/installation-helpers/install_magma.bat需要注意的是,要注意区别release和debug版本,如果你想下载cuda110的release版本,就xxx_cuda110_release,否则就是xxx_cuda110_debug。编译的时候release就用release版本,debug就用debug版本根据目前的官方文档下载:https://s3.amazonaws.com/ossci-windows/magma_2.5.4_cuda101_release.7z参考install_sccachehttps://github.com/pytorch/pytorch/blob/master/.jenkins/pytorch/win-test-helpers/installation-helpers/install_sccache.bat根据官方文档下载:https://s3.amazonaws.com/ossci-windows/sccache.exehttps://s3.amazonaws.com/ossci-windows/sccache-cl.exe下载:ninja-win.ziphttps://github.com/ninja-build/ninja/releasesmkl, magma, sccache 和ninja下载解压后最好放在同一个目录下。Nvcc和randomtemp.exe先不管它们,后面再说。Torch官方文档推荐使用conda环境。这里我还是使用pip。实践证明没有问题。生成一个批处理文件进行环境变量的设置。注意几点:1)如果编译的是Cuda10的话,原帖上说:“set TORCH_CUDA_ARCH_LIST=3.7+PTX;5.0;6.0;6.1;7.0;7.5;8.”TORCH_CUDA_ARCH_LIST要去掉 8.0。我这里直接设定为3.5。这里设定的就是算力下限。2)编译debug/release版本是,下载对应的Magma debug/release版本包3)如果只编译CPU版本的话,设置USE_CUDA=04)这里将randomtemp.exe直接下载到本地。5)脚本会自动复制nvcc.exe到设定目录。它是编译gpu代码的工具。6)关闭了分布式训练的功能。set USE_DISTRIBUTED=0根据Torch官方文档:这里—recursive是递归下载Torch依赖的第三方git库。这里存在的问题是,在国内连接github的速度并不稳定,为了以免下载的源码出问题,我选择下载zip打包后的源码。注:直接在github上进行下载是最方便的。 只是需要几个小时的时间,下载的速度只有20~50k/s,下载整个项目需要数个小时时间。(项目有600M以上,我没有坚持下载完全。中途断线了)性子急的,才用下面的方法。快,但需要细心。重要的地方是,这种打包下载是不能自动下载Torch所依赖的第三方库。只能自己手动下载与Torch版本所对应的第三方库。(与当前准备编译Torch版本所对应的第三方库,这很重要,泪!)通过Tag标签,找到自己准备编译的1.7版本。下载打包后的源码。https://github.com/pytorch/pytorch/archive/v1.7.0.zip这个也可以到国内的Gitee镜像站下载。可以直接在国内Gitee上使用指令git clone –recursive(我没有实验过,但是原理上是可行的。但是下载第三方库时,依然会访问github上的库)https://gitee.com/mirrors/pytorch?_from=gitee_search然后,进入Torch 1.7.0 分支的third_party。下载它所依赖的第三方库。https://github.com/pytorch/pytorch/tree/v1.7.0/third_party一共36个库文件。我全部下载的打包zip源码。其中fbgemm库是一个关键库,它又依赖了三个其它的第三方库。请注意它们之间版本对应关系(到github上看清楚上面的版本链接)。对于Torch,FBGEMM不一定对应是最新版本。不同版本函数接口不一样,会导致编译的失败。另外,ideep也依赖于自己的第三方库mkl-dnn @ 5ef631a。这也是一个关键的库。最后,把全部源码根据Git上的形式整合到一起。这时源码全部准备好了。(注意:由于手动整合源码,主要问题是确保各个第三方库版本与当前的Torch版本是配合的。是配合的。是配合的。)如果直接在网上git下载源码,就不会存在版本不对的问题,但是有可能下载不动,或者残缺的风险。自己动手,丰衣足食!请使用Powershell terminal, 而不要使用cmd。(在cmd中,中文的显示有问题。万一编译出错,你都不知道它在说什么)。也不需要管理员权限。给它也行。进入Powershell terminal,首先运行前面生成批处理文件./set_env.bat,进行环境变量的设置。然后,编译libtorch。python toolsbuild_libtorch.py我只进行了库文件的编译。在i5-4200M的机器上,整个编译过程近6个小时,生成12G左右的临时文件和编译文件。(注意:不要尝试在VS环境下直接cmake和编译库,因为官方脚本还做了其它事情)到官方网站下载 1.7 GPU cu101版本。安装后,用自己编译生成的两个库文件,替换掉官方提供的。下面官方的cuda有600M。自己生成的只有它的八分之一。当然,也没有了分布式训练功能,因为前面没有选择它。再进行一下测试。看完上述内容,你们掌握Windows环境下老显卡跑PyTorch GPU版本方示例分析的方法了吗?如果还想学到更多技能或想了解更多相关内容,欢迎关注开发云行业资讯频道,感谢各位的阅读!
这篇文章给大家介绍springboot怎样开启声明式事务,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。springboot开启事务很简单,只需要一个注解@Transactional 就可以了。因为在springboot中已经默认对jpa、…
免责声明:本站发布的图片视频文字,以转载和分享为主,文章观点不代表本站立场,本站不承担相关法律责任;如果涉及侵权请联系邮箱:360163164@qq.com举报,并提供相关证据,经查实将立刻删除涉嫌侵权内容。