Изолировать интегрированный Intel (igpu) от Nvidia (GPU)

В значительной степени этот вопрос был задан, но махинации в ответах отчасти устарели или, честно говоря, не являются окончательными. Поэтому, рискуя «уже заданным» штрафом, моя цель:

Я пытаюсь изолировать интегрированное видео Intel, чтобы служить всем функциям в качестве основного, и изолировать графический процессор Nvidia для работы с Cuda, который монитор не подключен.

Вот основная ссылка / предыдущий запрос:

Как настроить igpu для xserver и nvidia gpu для cuda?

К сожалению, после нескольких дней попыток бороться с моим xorg.conf в форме, это не сработало. Мне также не хочется пытаться bumblebee, потому что более сложная проблема, пока я не понимаю ее лучше, кажется глупой.

Мои текущие xorg.conf в значительной степени скопированы из предыдущего потока:

Section "ServerLayout"
    Identifier "layout"
    Screen 0 "nvidia"
    Inactive "intel"
EndSection

Section "Device"
    Identifier "intel"
    Driver "modesetting"
    BusID "PCI:0@0:2:0"
    Option "AccelMethod" "None"
EndSection

Section "Screen"
    Identifier "intel"
    Device "intel"
EndSection

Section "Device"
    Identifier "nvidia"
    Driver "nvidia"
    BusID "PCI:5@0:0:0"
    Option "ConstrainCursor" "off"
EndSection

Section "Screen"
    Identifier "nvidia"
    Device "nvidia"
    Option "AllowEmptyInitialConfiguration" "on"
    Option "IgnoreDisplayDevices" "CRT"
EndSection

И вы можете увидеть процессы на GPU:

root@zeus:~# nvidia-smi
Mon Nov 27 16:48:35 2017       
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 384.90                 Driver Version: 384.90                    |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  GeForce GTX 106...  Off  | 00000000:05:00.0 Off |                  N/A |
|  0%   42C    P8     6W / 120W |    257MiB /  3013MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID   Type   Process name                             Usage      |
|=============================================================================|
|    0      1798      G   /usr/lib/xorg/Xorg                            59MiB |
|    0      4052      G   /usr/bin/gnome-shell                         192MiB |
|    0      9880      G   /usr/bin/python                                2MiB |
+-----------------------------------------------------------------------------+

Что действительно расстраивает по этому поводу что в lua / conky существует цветовая аномалия. Цвета фактически меняются (например, зеленый теперь красный).

Эта установка была сделана с помощью --dkms --no-opengl-files

.
0
задан 28 November 2017 в 00:54

1 ответ

1113 Похоже, я был близко. Окончательное решение можно найти здесь: https://devtalk.nvidia.com/default/topic/970144/linux/intel-for-display-nvidia-for-cuda-optimus-bug-/1

  1. Использование Prime переключиться на Intel sudo prime-select intel
  2. Удалить ссылку sudo rm /usr/bin/nvidia-smi
  3. Создать оболочку bash для установленной версии (384 в моем случае) , Обратите внимание, что вам придется обновить это, когда вы делаете драйвер.

nano /usr/bin/nvidia-smi

#!/bin/bash
export LD_LIBRARY_PATH=/usr/lib/nvidia-384; /etc/alternatives/x86_64-linux-gnu_nvidia_smi "$@"
  1. sudo chmod +x /usr/bin/nvidia-smi

Перезагрузка

0
ответ дан 28 November 2017 в 00:54

Другие вопросы по тегам:

Похожие вопросы: