web-dev-qa-db-fra.com

Comment exécuter le serveur Xorg sur un GPU intégré?

J'ai 2 GPU dédiés Nvidia GTX1080 et 1 GPU intégré Intel installés sur ma machine. Je souhaite utiliser les GPU nvidia uniquement pour les calculs scientifiques. Même si j'ai branché les moniteurs sur la carte principale, le serveur Xorg utilise l'un des GPU nvidia et alloue près de 700 Mo de mémoire.

Comment puis-je forcer le serveur Xorg à utiliser uniquement le processeur graphique Intel?

lspci | grep 'VGA' sortie:

00:02.0 VGA compatible controller: Intel Corporation Device 5912 (rev 04)
01:00.0 VGA compatible controller: NVIDIA Corporation Device 1b80 (rev a1)
02:00.0 VGA compatible controller: NVIDIA Corporation Device 1b80 (rev a1)

nvidia-smi sortie:

Tue Jan  2 15:24:18 2018       
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 384.98                 Driver Version: 384.98                    |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  GeForce GTX 1080    Off  | 00000000:01:00.0 Off |                  N/A |
| 32%   59C    P5    16W / 180W |   1322MiB /  8114MiB |      4%      Default |
+-------------------------------+----------------------+----------------------+
|   1  GeForce GTX 1080    Off  | 00000000:02:00.0 Off |                  N/A |
| 33%   60C    P2    56W / 180W |   7858MiB /  8114MiB |     27%      Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID   Type   Process name                             Usage      |
|=============================================================================|
|    0     12818      G   /usr/lib/xorg/Xorg                           638MiB |
|    0     13476      G   compiz                                       278MiB |
|    0     14230      G   ...-token=A9CF4CD99B5947DB32E9E4B117997A68   404MiB |
|    1     25764      C   python                                      7847MiB |
+-----------------------------------------------------------------------------+
3
mkocabas
  1. Changez les profils PRIME en Intel (mode d'économie d'énergie) dans les paramètres du serveur NVIDIA X
  2. Déconnexion/Connexion
  3. ajouter
    LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:/usr/local/cuda-8.0/lib64:/usr/lib/nvidia-xxx (le mien est nvidia-384) dans le fichier ~/.bashrc
  4. lancer nvidia-smi

Si cela ne fonctionne pas, assurez-vous que le démarrage sécurisé est désactivé dans les paramètres UEFI.

2
Salih Karagoz