NVIDIA-SMI has failed because it couldn’t communicate with the NVIDIA driver .

AI拉呱
Nov 6, 2023

--

报错

  1. 执行nvidia-smi报错
NVIDIA-SMI has failed because it couldn"t communicate with the NVIDIA driver .
Make sure that the atest NVIDIA driver is installed and running.
  1. 运行使用gpu的docker容器时
NVIDIA Docker - initialization error: nvml error: driver not loaded

原因分析

  1. 大概率是因为重启后内核升级了 (起码我的问题是因为这样)。
  2. 驱动文件被删除

解决办法

  1. 查看显卡连接是否正常
$ sudo lshw -C display

应该会输出

  1. 查看已安装内核
$ dpkg --get-selections |grep linux-image
  1. 查看在使用内核
$ uname -a

如果本地有多核内核大概可能是因为内核升级导致驱动无法识别

  1. 查看本地之前安装的驱动版本
$ ls /usr/src | grep nvidia

输出:nvidia-515.105.01 (记住:515.105.01 这个版本号)
5… 此时只需要执行

$ sudo apt-get install dkms
$ sudo dkms install -m nvidia -v 515.105.01(515.105.01表示的是驱动版本号,上面查到的)
  1. 此时应该是解决了此问题
$ nvidia-smi

可以看到gpu的列表

防患于未然

1)命令行关闭系统自动更新,使用命令打开文件并编辑

$ sudo gedit /etc/apt/apt.conf.d/10periodic

将双引号中的“1”全部置“0”即可,修改后保存。

--

--

AI拉呱
AI拉呱

Written by AI拉呱

专注于人工智与网络安全方面的研究,现任资深算法研究员,兼职硕士研究生导师;热爱机器学习和深度学习算法应用,深耕大语言模型微调、量化、私域部署。曾获多次获得AI竞赛大奖,拥有多项发明专利和学术论文。对于AI算法有自己独特见解和经验。曾辅导十几位非计算机学生转行到算法岗位就业。

No responses yet