Sebbene le schede grafiche rilasciate da Nvidia siano oggi utilizzate da molti utenti per eseguire software di gioco, dovremmo sapere che queste schede grafiche sono utilizzate in molte aree. Le schede grafiche sono utilizzate soprattutto nelle tecnologie di intelligenza artificiale per completare rapidamente il carico di lavoro. Particolarmente Nvidia progettato da Tesla le schede grafiche sono comunemente utilizzate in questo campo. Gli utenti, d'altra parte, possono eseguire rapidamente studi di intelligenza artificiale con qualsiasi scheda grafica Nvidia sui propri computer.

Uno degli studi sull'intelligenza artificiale CPU Ci sono alcuni problemi con la sua implementazione. Il più importante di questi problemi è che la capacità di dati che può ricevere per transazione è limitata e quindi la durata della transazione in corso è spalmata su un periodo di tempo molto lungo. situato sulla scheda grafica. della GPU una capacità di elaborazione dei dati più potente e la realizzazione istantanea di questi dati sulla memoria RAM sulla scheda grafica anziché sulla memoria RAM del sistema accelera il lavoro dell'intelligenza artificiale. Per riassumere questa situazione CPU Mentre potresti dover aspettare giorni in cui desideri eseguire qualsiasi lavoro di intelligenza artificiale GPU Se fai queste operazioni su di esso, dovrai solo aspettare qualche ora.

Per utilizzare più attivamente le schede grafiche Nvidia, indispensabili soprattutto per la visione artificiale supportata dall'intelligenza artificiale, l'elaborazione delle immagini, il tracciamento degli oggetti, il riconoscimento facciale, l'elaborazione del linguaggio naturale, le tecnologie dei veicoli senza pilota e per contribuire agli studi sull'intelligenza artificiale degli utenti di Pardus. CUDA ve cuDNN Spiegherò la configurazione.

Prima di tutto, dobbiamo conoscere brevemente CUDA e cuDNN. CUDA (Elaborazione dell'architettura dei dispositivi unificati), scritto in linguaggio C. Offre l'opportunità di gestire le unità di memoria e processore appartenenti alla GPU. cuDNN sulla GPU apprendimento profondo utilizzati nelle transazioni Librerie Python (TensorFlow, PyTorch ecc.) È un software creato per accelerare. Attivamente con questi due software Pardus l'intelligenza artificiale lavora accelerato noi saremo.

importante

Per evitare alcuni errori di installazione, puoi rimuovere i driver Nvidia dal tuo sistema con i comandi seguenti.

sudo apt-get purge nvidia *

sudo apt-get autoremove nvidia*

Installazione CUDA

Per prima cosa, vai all'indirizzo specificato nel link. https://developer.nvidia.com/cuda-toolkit

su questa pagina Scaricare Adesso Fare clic sul pulsante.

Nel passaggio successivo, seleziona le opzioni di seguito in ordine. Qui abbiamo scelto il tipo di sistema operativo, l'architettura del processore, la distribuzione e la versione del sistema operativo. Pardus, Debian Poiché è stato sviluppato sulla base del sistema operativo, i seguenti passaggi a Debian Lo faremo in modo appropriato. In questo passo locale, Rete ve file di esecuzione È possibile scegliere le opzioni di installazione. I passaggi successivi continueranno ad essere installati sul server.

Vedremo una schermata come quella qui sotto, quando eseguiamo i passaggi qui, l'installazione di CUDA verrà eseguita correttamente.

wget https://developer.download.nvidia.com/compute/cuda/repos/debian11/x86_64/cuda-keyring_1.0-1_all.deb
sudo dpkg -i cuda-keyring_1.0-1_all.deb
sudo add-apt-repository contrib
sudo apt-get update
sudo apt-get -y installa cuda

In alcuni casi terzo nella linea Potrebbe verificarsi un errore per il comando. Per fare ciò, eseguire le seguenti azioni.

Come correggere l'errore "sudo add-apt-repository contrib".

sudo apt-get install software-properties-common

In alcuni casi, è necessario eseguire manualmente i seguenti passaggi durante l'installazione. Nell'installazione di CUDA, ti viene chiesto il permesso di agire su un pacchetto in conflitto. Conferma questa azione.

Dopo questi passaggi, sullo schermo del terminale verrà visualizzata la seguente schermata e sarà necessario riavviare il sistema dopo questo passaggio.

Dopo il riavvio del sistema, digitare il seguente codice sullo schermo del terminale e verificare l'installazione di CUDA per la scheda video.

nvidia-smi

Abbiamo installato con successo CUDA. Prestare attenzione alla versione CUDA, in particolare per l'installazione di cuDNN. Installeremo cuDNN per CUDA 12.1.

Installazione di cuDNN

Dopo aver installato correttamente CUDA, aprire l'indirizzo specificato al collegamento specificato. Vedrai una schermata come quella qui sotto. su questa schermata Scarica cuDNN Fare clic sul pulsante.

Dopo questo passaggio, devi disporre di un account sviluppatore Nvidia. Per fare ciò, devi creare un account o utilizzare il tuo account sviluppatore esistente.

Dopo le necessarie procedure di accesso, apparirà la seguente pagina e si accettano i termini di utilizzo specificati da Nvidia. Quindi lavoriamo sopra nvidia-smi Selezioniamo la versione pertinente in base alla versione CUDA che abbiamo ottenuto con il comando.

Poiché la versione CUDA menzionata in precedenza è la 12.1 Scarica cuDNN v8.8.1 (8 marzo 2023), per CUDA 12.x sotto la sezione Programma di installazione locale per Debian 11 (Deb) Scarica il pacchetto. Installa questo pacchetto con il seguente comando.

sudo dpkg -i cudnn-local-repo-debian11-8.8.1.3_1.0-1_amd64.deb

Quindi eseguire il seguente comando.

sudo cp /var/cudnn-local-repo-debian11-8.8.1.3/cudnn-local-313BFFCD-keyring.gpg /usr/share/keyrings/

Aggiorna i repository.

sudo apt-get update

Quindi eseguire i seguenti comandi per la libreria di runtime e la libreria per sviluppatori in ordine.

sudo apt-get install libcudnn8=8.9.0.131-1+cuda12.1
sudo apt-get install libcudnn8-dev=8.9.0.131-1+cuda12.1

Dopo questi passaggi, abbiamo installato con successo cuDNN.

avvertimento

Per l'installazione di CUDA e cuDNN, devi prestare attenzione alla scheda grafica che hai e alla libreria di intelligenza artificiale che desideri utilizzare. Ad esempio, le versioni CUDA e cuDNN supportate nelle fonti ufficiali di PyTorch e TensorFlow potrebbero differire. Seleziona le versioni adatte ai tuoi progetti di intelligenza artificiale che vuoi sviluppare.

risorse

https://tr.wikipedia.org/wiki/CUDA

https://developer.nvidia.com/cuda-toolkit

https://developer.nvidia.com/cudnn

https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html