Кто-нибудь успешно установил CUDA 7.5 на Ubuntu 14.04.3 LTS x86_64?

Моя догадка - та же самая причина, по которой потоп (другой торрент-клиент) делает то же самое. Когда он заканчивает загрузку, он использует алгоритмы хэша для проверки целостности файлов и следит за тем, чтобы загруженный файл был в порядке. Другими словами, он проверяет, что загруженный файл на 100% совпадает с другими клиентами. Хеширование - дорогостоящий процесс процессора, особенно если мы имеем дело с большими файлами. В моем случае у меня есть intel i3 (не верхняя часть линии, а довольно хороший процессор), и для проверки требуется около 1 минуты на каждый ГБ. Он также может зависеть от количества файлов, поскольку хэширование выполняется парным файлом (если у вас несколько ГБ многих небольших архивов, это займет больше времени). Я бы не стал беспокоиться об этом, это хорошая функция протокола bittorrent, и он не оплачивает ее отключение (вы можете получить неработающие изо и сломанные видеофайлы).

Надеюсь, это поможет.

1
задан 11 November 2016 в 00:19

9 ответов

Установка CUDA немного сложна. Я выполнил следующие шаги, и это работает для меня. Вы также можете ссылаться на эту ссылку.

Подтверждение среды:

lspci | grep -i nvidia (убедитесь, что отображается информация о плате NVIDIA) uname -m (убедитесь, что она x86_64) gcc --version (убедитесь, что он установлен)

Установка CUDA -

lspci | grep -i nvidia (убедитесь, что отображается информация о плате NVIDIA)

lspci | grep -i nvidia (убедитесь, что отображается информация о плате NVIDIA)

sudo apt-get install build-essential
echo blacklist nouveau option nouveau modeset=0 |sudo tee -a /etc/modprobe.d/blacklist-nouveau.conf 
sudo update-initramfs -u
uname -m (убедитесь, что это x86_64)

uname -m (убедитесь, что это x86_64)

gcc --version (убедитесь, что он установлен)

gcc --version (убедитесь, что он установлен)

Accept EULA условия Скажите ДА, чтобы установить драйвер NVIDIA Скажите ДА, чтобы установить CUDA Toolkit + Driver Скажите ДА, чтобы установить образцы CUDA Скажите НЕТ перестраивать любые конфигурации Xserver с помощью Nvidia Проверьте, существуют ли файлы /dev/nvidia*. Если они этого не делают, выполните следующие
sudo modprobe nvidia
Перечислите переменные пути среды
export PATH=/usr/local/cuda-7.5/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda-7.5/lib64:$LD_LIBRARY_PATH
Проверьте версию драйвера
cat /proc/driver/nvidia/version`
Проверьте версию драйвера CUDA
nvcc –V
снова включите подсветку
sudo service lightdm start
Ctrl + Alt + F7 и войдите в систему система через GUI Создайте образцы CUDA, перейдите в папку NVIDIA_CUDA-7.5_Samples через терминал, затем выполните следующую команду:
make
cd bin/x86_64/linux/release/
./deviceQuery
./bandwidthTest
Оба теста должны в конечном итоге вывести «PASS» в терминале. Перезагрузите систему
8
ответ дан 23 May 2018 в 17:37
  • 1
    Большое спасибо! Это, наконец, работает на моем Asus UX32VD (ноутбук Optimus с GeForce 620M). Я пробовал все и все. Вчера я мог получить nvidia-352, работая с Bumblebee, но после установки инструментария CUDA я не смог запустить ни один из образцов (как будто у меня не было карты CUDA, и да, я использовал optirun). Другие драйверы породили меня в петли регистрации или черный unity-greeter! Я не могу тебя отблагодарить : ) – M2X 18 July 2016 в 04:36
  • 2
    Единственное, что мне нужно было изменить здесь, было от option до options в разделе черного списка нуворишей. – TheM00s3 11 August 2016 в 02:42
  • 3
    У меня есть рабочий стол HP с NVIDIA GeForce GTX 680. Ваша инструкция в основном работала, за исключением того, что драйвер графической карты, который поставляется с файлом запуска (cuda_7.5.18_linux.run), заставляет lightdm прекратить работу после перезагрузки (после grub вы увидите черный экран с бесконечным мигающим курсором). Моим решением было сначала удалить этот драйвер с помощью sudo apt-get purge nvidia-* и установить его, используя последний файл запуска, загруженный с официального сайта NVIDIA. И он отлично работает. Альтернативное решение было бы чем-то вроде решения (A) в askubuntu.com/a/676772/194156 – Xin 29 August 2016 в 11:19

Есть два способа установить подходящий CUDA-драйвер (для Optimus и других встроенных графических чипсетов на гибридных материнских платах) - первое, что описано здесь, является самым простым, а второе описание более громоздким, но эффективным тоже: [!d0 ]

A)

sudo add-apt-repository ppa:graphics-drivers/ppa
sudo apt-get update
sudo apt-get install nvidia-355 nvidia-prime
sudo reboot

B)

Описание метода B здесь, но уже старше (объясняется пользователем dschinn1001) - этот метод B более унизителен и может быть рискованным, но не вредным. :

Как установить драйвер Nvidia GT 520 и Cuda 5.0 в Ubuntu13.04?

Бета-драйвер-пакет для Nvidia для загрузки для Linux находится здесь:

Как установить драйвер Nvidia GT 520 и Cuda 5.0 в Ubuntu13.04?

Метод A более прост, но не ясен, как он взаимодействует с xscreensaver и методом B старше, но пакет драйверов также обновляется в последнее время, и после того, как метод B завершен, он должен работать лучше, если xscreensaver обеспечивает установку xscreensaver. (Я тестировал метод B на 13.10, и это работало очень хорошо, даже с xscreensaver. И я думаю, что остальная часть этого потока зависит от аппаратного обеспечения.)

Кроме того, и в отношении шмеля с Optimus- графические чипсеты, эти настройки для шмеля также необходимы:

Как настроить nVidia Optimus / Bumblebee в 14.04

2
ответ дан 23 May 2018 в 17:37

Звучит как ошибка lp 1428972.

Пользователь fennytansy добавил обходное решение в lp bug 1428972 :

sudo apt-get install libglew-dev libcheese7 libcheese-gtk23 libclutter-gst-2.0-0 libcogl15 libclutter-gtk-1.0-0 libclutter-1.0-0

1
ответ дан 23 May 2018 в 17:37
  • 1
    после запуска экрана команды стал черным. Я могу получить доступ только к tty1? Знаете ли вы какие-либо другие решения? – Karesh Arunakirinathan 12 October 2015 в 14:55

Я успешно установил CUDA с помощью метода runfile. Это немного сложнее, потому что ваш основной графический драйвер также должен быть установлен с использованием метода runfile (см. Здесь).

Попробуйте установить также драйвер. Это можно сделать с помощью метода runfile. Он предложит вам каждую часть установки, и вы можете отключить библиотеки GL и инструментальные средства. Центр управления единством также дал мне проблемы, из-за необходимости использования CUDA для использования libGLU.so вместо libGL.so. Это простое решение при создании собственных примеров обучения.

1
ответ дан 23 May 2018 в 17:37

Попробуйте удалить драйвер nvidia и напрямую установить cuda без него. На новом Ubuntu 14.04 я выполнил инструкции с сайта nvidia. Помимо проверки совместимых версий вещей (gcc, kernel), инструкции были следующими:

sudo dpkg -i cuda-repo-ubuntu1404_7.5-18_amd64.deb 
sudo apt-get update
sudo apt-get install cuda 

К счастью, правильный драйвер nvidia был установлен как побочный продукт описанных выше шагов.

1
ответ дан 23 May 2018 в 17:37

Я провел целый день, пытаясь использовать «ppa: graphics-drivers / ppa» для обновления драйверов NVIDIA до версии 352. Все провалилось. После одной установки gpu-manager.log сообщила, что драйверы были установлены, а Xorg.0.log сообщал об обратном.

Драйвер nouveau был удален и занесен в черный список: sudo apt-get --purge удалить xserver-xorg-video-nouveau cat /etc/modprobe.d/nouveau-nomodeset-jsrobin.conf blacklist nouveau options nouveau modeset = 0 alias nouveau off alias lbm-nouveau off

Я, наконец, сдался и использовал чисто «решение NVIDIA ... bin».

Черный список, как показано выше. полностью удалил Nouveau Xserver, как указано выше. Установите системную биосистему, чтобы PCIe (две карты nvidia) были первичными и дезактивировали интерфейс материнской платы HD4600. загрузился в режим восстановления, активировал сеть, затем перешел в режим консоли. Ran "NVIDIA-Linux-x86_64-352.41.run -uninstall", чтобы убедиться, что ничего не осталось. Удалены все старые каталоги в / etc, / usr / local, которые выглядели как остатки прошлых настроек cuda или nvidia. Ran "NVIDIA-Linux-x86_64-352.41.run" Ran "NVIDIA-Linux-x86_64-352.41.run --check", чтобы убедиться, что все было правильно (было). Затем запустите «cuda_7.5.18_linux.run», чтобы завершить установку. Вещи в настоящее время работают. Оба монитора работают и работают. В настоящее время работает над созданием файлов образцов cuda. Обязательно используйте флаги «--help» на установочных ящиках NVIDIA. Основная причина, по которой я решил отправиться в маршрут бина (наряду с одной из альтернатив, которые не работают, заключается в том, что подход «bin» обеспечивает легкий путь к восстановлению после обновления «mesa» OpenGL.
1
ответ дан 23 May 2018 в 17:37

Пожалуйста, обратитесь к: https://github.com/astorfi/Caffe_Deep_Learning/blob/master/Installation/readme.md. Это связано с установкой Caffe по существу, но он также обращается к установке CUDA.

0
ответ дан 23 May 2018 в 17:37
  • 1
    Привет @amirsani_torfi, добро пожаловать в ask.ubuntu. Обратите внимание, что, хотя ваша ссылка может предоставить информацию, необходимую для решения заданного вопроса, ссылки могут быть удалены в любое время. Я бы предположил, что вместо этого вы отредактируете свой вопрос, чтобы включить важную информацию из этой ссылки. – Tshilidzi Mudau 27 October 2016 в 10:12

Я попробовал sudo su и apt-get install cuda вместо sudo apt-get install cuda. Это сработало.

 sudo dpkg -i cuda-repo-ubuntu1404_7.5-18_amd64.deb
 sudo apt-get update
 sudo su
 apt-get install cuda
-1
ответ дан 23 May 2018 в 17:37
  • 1
    Добро пожаловать в Ask Ubuntu, приятно видеть, как вы делитесь знаниями. Однако это не форум, это сайт Q & amp; A, проверьте эту помощь tour . Дублирование других ответов (из 661266 пользователей) не помогает, вы сможете голосовать, когда получаете достаточную репутацию. – user.dz 5 February 2016 в 13:54
  • 2
    @Sneetsher Спасибо за ваш комментарий. Я попытался ответить 661266, но это не сработало. Когда я использовал "su" вместо «sudo», он работал. Я не знаю, почему именно. Тем не менее, он работал со мной. Я считаю, что для кого-то стоит попробовать мое решение. – softgearko 11 February 2016 в 11:59

-problems with lightdm log in (login loop)

-проблемы с драйвером istall («Ошибка установки драйвера: похоже, что X-сервер запущен ...»)

Чтобы успешно установить NVidia CUDA Toolkit на Ubuntu 16.04 64bit, мне просто нужно было сделать:

сделать liveImage Ubuntu на pendrive (достаточно ручка 8 ГБ) - такая попытка спасет тонну нервы, перед неудачной установкой на вашу хост-систему Linux !!! войдите в активную сессию в pendrive («Попробуйте Ubuntu, перед установкой») добавьте пользователя sudo в сеанс live: sudo adduser admin (#pass: admin1) sudo usermod -aG sudo admin logout из live сеанса, войдите в систему как #admin загрузить CUDA Toolkit с официального сайта NVidia (~ 1,5 ГБ) измените привилегии для загруженного файла установщика (НЕ УСТАНАВЛИВАЙТЕ НА ЭТОЙ ШАГЕ!): sudo chmod + x cuda_X.X.run переключится в консольный вид: Ctr + Alt + F1 (для включения терминала ) Ctr + Alt + F7 (для переключения с терминала на графический сервер) в режиме консоли (Ctr + Alt + F1) войти в систему: login: admin pass: admin1 остановить графический запуск службы: sudo service lightdm остановить проверку, если графический сервер выключен - после переключения Ctr + Alt + F7 монитор должен быть чистым, переключиться обратно на консольный просмотр Ctr + Alt + F1 установить CUDA Toolkit с такой конфигурацией: sudo ./cuda_X.X.run (нажмите «q» для прочтения лицензии ) не устанавливайте библиотеку OpenGL, не обновляйте конфигурацию системы X, другие параметры делают yes и paths по умолчанию включаются в графическую подачу r: sudo service lightdm start log in as user (если вы автоматически регистрируетесь в качестве #ubuntu при выходе из сеанса в реальном времени): login: admin pass: admin1 проверить, что работает с nvcc-компилятором, при условии простой параллельной векторной суммы на GPU Блоки: сохранить vecSum. cu и book.h в новых файлах, компилировать и запускать в терминале: /usr/local/cuda-8.0/bin/nvcc vecSum.cu & amp; & amp; & amp; & amp; & amp; clear & amp; & amp; ./a.out проверить распечатку консоли - он должен быть похож на: 0.000000 + 0.000000 = 0.000000
-1.100000 + 0.630000 = -0.000000

-2.200000 + 2.520000 = 0.319985

-3.300000 + 5.670000 = 2.119756
-4.400000 + 10.080000 = 5.679756
-5.500000 + 15.750000 = 10.250000
-6.600000 + 22.680000 = 16.017500
-7.700000 + 30.870001 = 23.170002
-8.800000 + 40.320000 = 31.519997
-9.900000 + 51.029999 = 41.129967
, если все пошло хорошо на живой сеанс pendrive, сделайте то же самое на вашей Linux-системе хоста

P.S. Обратите внимание, что это не идеальный учебник, но отлично работает для меня!

======= vecSum.cu =====

#include "book.h"
#define N 50000
///usr/local/cuda-8.0/bin/nvcc vecSum.cu && clear && ./a.out

//"HOST" = CPU
//"Device" = GPU

__global__ void add( float *a, float *b, float *c )
{
    int tid = blockIdx.x;
    if ( tid < N )
        c[ tid ] = a[ tid ] + b[ tid ];
}

int main ( void )
{
    float a[ N ], b[ N ], c[ N ];
    float *dev_a, *dev_b, *dev_c;
    //GPU memory allocation
    HANDLE_ERROR( cudaMalloc( ( void** )&dev_a, N * sizeof( float ) ) );
    HANDLE_ERROR( cudaMalloc( ( void** )&dev_b, N * sizeof( float ) ) );
    HANDLE_ERROR( cudaMalloc( ( void** )&dev_c, N * sizeof( float ) ) );

    //sample input vectors CPU generation
    for ( int i = 0; i < N; i++ )
    {
        a[ i ] = -i * 1.1;
        b[ i ] = i * i * 0.63;
    }

    //copy/load from CPU to GPU data vectors a[], b[] HostToDevice
    HANDLE_ERROR( cudaMemcpy( dev_a, a, N * sizeof( float ), cudaMemcpyHostToDevice ) );
    HANDLE_ERROR( cudaMemcpy( dev_b, b, N * sizeof( float ), cudaMemcpyHostToDevice ) );

    //calculate sum of vectors on GPU
    add<<<N,1>>> ( dev_a, dev_b, dev_c );

    //copy/load result vector from GPU to CPU c[] DeviceToHost
    HANDLE_ERROR( cudaMemcpy( c, dev_c, N * sizeof( float ), cudaMemcpyDeviceToHost ) );

    //printout results
    for ( int i = 0; i < 10; i++ ) printf( "%f + %f = %f\n", a[ i ], b[ i ], c[ i ] );

    //free memory and constructed objects on GPU
    cudaFree( dev_a );
    cudaFree( dev_b );
    cudaFree( dev_c );

    return 0;
}

=== ====== book.h ======

/*
 * Copyright 1993-2010 NVIDIA Corporation.  All rights reserved.
 *
 * NVIDIA Corporation and its licensors retain all intellectual property and
 * proprietary rights in and to this software and related documentation.
 * Any use, reproduction, disclosure, or distribution of this software
 * and related documentation without an express license agreement from
 * NVIDIA Corporation is strictly prohibited.
 *
 * Please refer to the applicable NVIDIA end user license agreement (EULA)
 * associated with this source code for terms and conditions that govern
 * your use of this NVIDIA software.
 *
 */


#ifndef __BOOK_H__
#define __BOOK_H__
#include <stdio.h>

static void HandleError( cudaError_t err,
                         const char *file,
                         int line ) {
    if (err != cudaSuccess) {
        printf( "%s in %s at line %d\n", cudaGetErrorString( err ),
                file, line );
        exit( EXIT_FAILURE );
    }
}
#define HANDLE_ERROR( err ) (HandleError( err, __FILE__, __LINE__ ))


#define HANDLE_NULL( a ) {if (a == NULL) { \
                            printf( "Host memory failed in %s at line %d\n", \
                                    __FILE__, __LINE__ ); \
                            exit( EXIT_FAILURE );}}

template< typename T >
void swap( T& a, T& b ) {
    T t = a;
    a = b;
    b = t;
}


void* big_random_block( int size ) {
    unsigned char *data = (unsigned char*)malloc( size );
    HANDLE_NULL( data );
    for (int i=0; i<size; i++)
        data[i] = rand();

    return data;
}

int* big_random_block_int( int size ) {
    int *data = (int*)malloc( size * sizeof(int) );
    HANDLE_NULL( data );
    for (int i=0; i<size; i++)
        data[i] = rand();

    return data;
}


// a place for common kernels - starts here

__device__ unsigned char value( float n1, float n2, int hue ) {
    if (hue > 360)      hue -= 360;
    else if (hue < 0)   hue += 360;

    if (hue < 60)
        return (unsigned char)(255 * (n1 + (n2-n1)*hue/60));
    if (hue < 180)
        return (unsigned char)(255 * n2);
    if (hue < 240)
        return (unsigned char)(255 * (n1 + (n2-n1)*(240-hue)/60));
    return (unsigned char)(255 * n1);
}

__global__ void float_to_color( unsigned char *optr,
                              const float *outSrc ) {
    // map from threadIdx/BlockIdx to pixel position
    int x = threadIdx.x + blockIdx.x * blockDim.x;
    int y = threadIdx.y + blockIdx.y * blockDim.y;
    int offset = x + y * blockDim.x * gridDim.x;

    float l = outSrc[offset];
    float s = 1;
    int h = (180 + (int)(360.0f * outSrc[offset])) % 360;
    float m1, m2;

    if (l <= 0.5f)
        m2 = l * (1 + s);
    else
        m2 = l + s - l * s;
    m1 = 2 * l - m2;

    optr[offset*4 + 0] = value( m1, m2, h+120 );
    optr[offset*4 + 1] = value( m1, m2, h );
    optr[offset*4 + 2] = value( m1, m2, h -120 );
    optr[offset*4 + 3] = 255;
}

__global__ void float_to_color( uchar4 *optr,
                              const float *outSrc ) {
    // map from threadIdx/BlockIdx to pixel position
    int x = threadIdx.x + blockIdx.x * blockDim.x;
    int y = threadIdx.y + blockIdx.y * blockDim.y;
    int offset = x + y * blockDim.x * gridDim.x;

    float l = outSrc[offset];
    float s = 1;
    int h = (180 + (int)(360.0f * outSrc[offset])) % 360;
    float m1, m2;

    if (l <= 0.5f)
        m2 = l * (1 + s);
    else
        m2 = l + s - l * s;
    m1 = 2 * l - m2;

    optr[offset].x = value( m1, m2, h+120 );
    optr[offset].y = value( m1, m2, h );
    optr[offset].z = value( m1, m2, h -120 );
    optr[offset].w = 255;
}


#if _WIN32
    //Windows threads.
    #include <windows.h>

    typedef HANDLE CUTThread;
    typedef unsigned (WINAPI *CUT_THREADROUTINE)(void *);

    #define CUT_THREADPROC unsigned WINAPI
    #define  CUT_THREADEND return 0

#else
    //POSIX threads.
    #include <pthread.h>

    typedef pthread_t CUTThread;
    typedef void *(*CUT_THREADROUTINE)(void *);

    #define CUT_THREADPROC void
    #define  CUT_THREADEND
#endif

//Create thread.
CUTThread start_thread( CUT_THREADROUTINE, void *data );

//Wait for thread to finish.
void end_thread( CUTThread thread );

//Destroy thread.
void destroy_thread( CUTThread thread );

//Wait for multiple threads.
void wait_for_threads( const CUTThread *threads, int num );

#if _WIN32
    //Create thread
    CUTThread start_thread(CUT_THREADROUTINE func, void *data){
        return CreateThread(NULL, 0, (LPTHREAD_START_ROUTINE)func, data, 0, NULL);
    }

    //Wait for thread to finish
    void end_thread(CUTThread thread){
        WaitForSingleObject(thread, INFINITE);
        CloseHandle(thread);
    }

    //Destroy thread
    void destroy_thread( CUTThread thread ){
        TerminateThread(thread, 0);
        CloseHandle(thread);
    }

    //Wait for multiple threads
    void wait_for_threads(const CUTThread * threads, int num){
        WaitForMultipleObjects(num, threads, true, INFINITE);

        for(int i = 0; i < num; i++)
            CloseHandle(threads[i]);
    }

#else
    //Create thread
    CUTThread start_thread(CUT_THREADROUTINE func, void * data){
        pthread_t thread;
        pthread_create(&thread, NULL, func, data);
        return thread;
    }

    //Wait for thread to finish
    void end_thread(CUTThread thread){
        pthread_join(thread, NULL);
    }

    //Destroy thread
    void destroy_thread( CUTThread thread ){
        pthread_cancel(thread);
    }

    //Wait for multiple threads
    void wait_for_threads(const CUTThread * threads, int num){
        for(int i = 0; i < num; i++)
            end_thread( threads[i] );
    }

#endif




#endif  // __BOOK_H__
-1
ответ дан 23 May 2018 в 17:37

Другие вопросы по тегам:

Похожие вопросы: