Obwohl die von Nvidia veröffentlichten Grafikkarten heute von vielen Benutzern zum Ausführen von Spielesoftware verwendet werden, sollten wir wissen, dass diese Grafikkarten in vielen Bereichen verwendet werden. Grafikkarten werden insbesondere in Technologien der künstlichen Intelligenz verwendet, um die Arbeitslast schnell zu erledigen. Besonders Nvidia entworfen von Tesla Grafikkarten werden häufig in diesem Bereich verwendet. Benutzer hingegen können mit jeder Nvidia-Grafikkarte auf ihren Computern schnell Studien zur künstlichen Intelligenz durchführen.
Eine der Studien zur künstlichen Intelligenz CPU Es gibt einige Probleme bei der Umsetzung. Das wichtigste dieser Probleme besteht darin, dass die Datenkapazität, die es pro Transaktion empfangen kann, begrenzt ist und daher die Dauer der durchgeführten Transaktion über einen sehr langen Zeitraum verteilt wird. befindet sich auf der Grafikkarte. der GPU Eine leistungsfähigere Datenverarbeitungskapazität und die sofortige Umsetzung dieser Daten auf dem RAM-Speicher der Grafikkarte anstelle des System-RAM-Speichers beschleunigt die Arbeit der künstlichen Intelligenz. Um diese Situation zusammenzufassen CPU Während Sie möglicherweise tagelang warten müssen, wenn Sie Arbeiten an künstlicher Intelligenz durchführen möchten GPU Wenn Sie diese Operationen daran durchführen, müssen Sie nur ein paar Stunden warten.
Um Nvidia-Grafikkarten aktiver zu nutzen, die insbesondere für künstliche Intelligenz unterstützte Computer Vision, Bildverarbeitung, Objektverfolgung, Gesichtserkennung, Verarbeitung natürlicher Sprache und unbemannte Fahrzeugtechnologien unverzichtbar sind, und um zu den Studien der künstlichen Intelligenz von Pardus-Benutzern beizutragen. CUDA ve cuDNN Ich erkläre die Einrichtung.
Zunächst müssen wir uns kurz mit CUDA und cuDNN vertraut machen. CUDA (Computing Unified Device Architecture), geschrieben in C-Sprache. Es bietet die Möglichkeit, die zur GPU gehörenden Speicher- und Prozessoreinheiten zu verwalten. cuDNN auf GPU tiefe Lernen in den Transaktionen verwendet Python-Bibliotheken (TensorFlow, PyTorch etc.) Es ist eine Software, die entwickelt wurde, um zu beschleunigen. Aktiv mit diesen beiden Software Pardus Künstliche Intelligenz arbeitet an beschleunigt wir werden sein.
wichtig
Um einige Installationsfehler zu vermeiden, können Sie Nvidia-Treiber mit den folgenden Befehlen von Ihrem System entfernen.
sudo apt-get bereinigen nvidia *
sudo apt-get autoremove nvidia*
CUDA-Installation
Gehen Sie zunächst zu der im Link angegebenen Adresse. https://developer.nvidia.com/cuda-toolkit
auf dieser Seite Herunterladen Drück den Knopf.

Wählen Sie im nächsten Schritt die folgenden Optionen der Reihe nach aus. Hier haben wir den Betriebssystemtyp, die Prozessorarchitektur, die Betriebssystemverteilung und -version ausgewählt. Pardus, Debian Da es auf Basis des Betriebssystems entwickelt wurde, die folgenden Schritte zu Debian Wir werden es angemessen tun. In diesem Schritt lokal, Netzwerk ve Runfile Sie können die Installationsoptionen auswählen. Die nächsten Schritte werden weiterhin auf dem Server installiert.

Wir sehen einen Bildschirm wie den folgenden, wenn wir die Schritte hier ausführen, wird die CUDA-Installation erfolgreich durchgeführt.

wget https://developer.download.nvidia.com/compute/cuda/repos/debian11/x86_64/cuda-keyring_1.0-1_all.deb
sudo dpkg -i cuda-keyring_1.0-1_all.deb
sudo add-apt-repository beitrag
sudo apt-get update
sudo apt-get -y installiere cuda
In manchen Fällen dritte in der Schlange Für den Befehl kann ein Fehler auftreten. Führen Sie dazu die folgenden Aktionen aus.
So beheben Sie den Fehler „sudo add-apt-repository contrib“.
sudo apt-get install software-Eigenschaften-common
In einigen Fällen müssen Sie die folgenden Schritte während der Installation manuell ausführen. Bei der CUDA-Installation werden Sie um Erlaubnis gebeten, Maßnahmen gegen ein in Konflikt stehendes Paket zu ergreifen. Bestätigen Sie diese Aktion.

Nach diesen Schritten erscheint der folgende Bildschirm auf Ihrem Terminalbildschirm und Sie müssen Ihr System nach diesem Schritt neu starten.

Geben Sie nach dem Neustart Ihres Systems den folgenden Code auf Ihrem Terminalbildschirm ein und überprüfen Sie die CUDA-Installation für Ihre Grafikkarte.
nvidia-smi

Wir haben CUDA erfolgreich installiert. Achten Sie insbesondere bei der cuDNN-Installation auf die CUDA-Version. Wir werden cuDNN für CUDA 12.1 installieren.
cuDNN-Installation
Öffnen Sie nach erfolgreicher Installation von CUDA die angegebene Adresse mit dem angegebenen Link. Sie sehen einen Bildschirm wie den folgenden. auf diesem Bildschirm Laden Sie cuDNN herunter Drück den Knopf.

Nach diesem Schritt müssen Sie über ein Nvidia-Entwicklerkonto verfügen. Dazu müssen Sie ein Konto erstellen oder Ihr vorhandenes Entwicklerkonto verwenden.
Nach den notwendigen Anmeldeprozeduren erscheint die folgende Seite und akzeptiert die von Nvidia vorgegebenen Nutzungsbedingungen. Dann arbeiten wir oben nvidia-smi Wir wählen die relevante Version entsprechend der CUDA-Version aus, die wir mit dem Befehl erhalten haben.

Da die zuvor erwähnte CUDA-Version 12.1 Laden Sie cuDNN v8.8.1 (8. März 2023) für CUDA 12.x herunter unter dem Abschnitt Lokaler Installer für Debian 11 (Deb) Laden Sie das Paket herunter. Installieren Sie dieses Paket mit dem folgenden Befehl.

sudo dpkg -i cudnn-local-repo-debian11-8.8.1.3_1.0-1_amd64.deb
Führen Sie dann den folgenden Befehl aus.
sudo cp /var/cudnn-local-repo-debian11-8.8.1.3/cudnn-local-313BFFCD-keyring.gpg /usr/share/keyrings/
Aktualisieren Sie die Repositorys.
sudo apt-get update
Führen Sie dann die folgenden Befehle für die Laufzeitbibliothek und die Entwicklerbibliothek der Reihe nach aus.
sudo apt-get install libcudnn8=8.9.0.131-1+cuda12.1
sudo apt-get install libcudnn8-dev=8.9.0.131-1+cuda12.1
Nach diesen Schritten haben wir cuDNN erfolgreich installiert.
Verwarnung
Für die Installation von CUDA und cuDNN müssen Sie auf die Grafikkarte achten, die Sie haben, und die Bibliothek für künstliche Intelligenz, die Sie verwenden möchten. Beispielsweise können sich die unterstützten CUDA- und cuDNN-Versionen in den offiziellen Quellen von PyTorch und TensorFlow unterscheiden. Wählen Sie die Versionen aus, die für Ihre KI-Projekte geeignet sind, die Sie entwickeln möchten.
Ressourcen
https://tr.wikipedia.org/wiki/CUDA
https://developer.nvidia.com/cuda-toolkit
https://developer.nvidia.com/cudnn
https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html