model.to(device)十分缓慢
跑eeqa
这个项目,运行到model.to(device)
这行代码的时候,十分缓慢。按理来说,以往的项目model
很快就能加载到GPU上的。
后来经过谷歌搜索之后,发现可能的原因是:eeqa
这个项目使用的是torch==1.2.0
,其对应的CUDA==9.2
。而在实验室的服务器上CUDA==11.1
。
我将torch
版本修改为1.7.0
(其对应的CUDA==11.1
)之后,重新运行model.to(device)
,能够迅速执行完成。
综上,坑的地方就是GPU版本的torch
与实验室的服务器上CUDA==11.1
上进行匹配。
To Reproduce
# takes seconds with CUDA 10.0 and minutes with CUDA 10.1
torch.zeros(25000, 300, device=torch.device("cuda"))
上午调代码发现昨天的bug可以修复,不用重写代码了
下午把剩下的代码看完了,跑了实验,发现跑出来的结果和论文差别很大,不知道是不是原作者给的源代码有错。得发邮件问问了。
晚上,出去散步2小时,补了一些白天不懂的代码知识。