Aunque muchos usuarios utilizan las tarjetas gráficas lanzadas por Nvidia para ejecutar software de juegos en la actualidad, debemos saber que estas tarjetas gráficas se utilizan en muchas áreas. Las tarjetas gráficas se utilizan especialmente en tecnologías de inteligencia artificial para completar rápidamente la carga de trabajo. Especialmente Nvidia diseñada por Tesla Las tarjetas gráficas se utilizan popularmente en este campo. Los usuarios, por otro lado, pueden realizar rápidamente estudios de inteligencia artificial con cualquier tarjeta gráfica Nvidia en sus computadoras.

Uno de los estudios de inteligencia artificial. CPU Hay algunos problemas con su implementación. El más importante de estos problemas es que la capacidad de datos que puede recibir por transacción es limitada y, por lo tanto, la duración de la transacción que se está realizando se reparte en un período de tiempo muy largo. ubicado en la tarjeta gráfica. de GPU capacidad de procesamiento de datos más potente y la realización instantánea de estos datos en la memoria RAM de la tarjeta gráfica en lugar de la memoria RAM del sistema acelera el trabajo de la inteligencia artificial. Para resumir esta situación CPU Si bien es posible que deba esperar días cuando desee realizar cualquier trabajo de inteligencia artificial en GPU Si haces estas operaciones en él, solo tendrás que esperar unas horas.

Para utilizar de manera más activa las tarjetas gráficas Nvidia, que son indispensables especialmente para la visión por computadora, el procesamiento de imágenes, el seguimiento de objetos, el reconocimiento facial, el procesamiento del lenguaje natural, las tecnologías de vehículos no tripulados compatibles con inteligencia artificial y para contribuir a los estudios de inteligencia artificial de los usuarios de Pardus. CUDA ve cuDNN Voy a explicar la configuración.

En primer lugar, debemos aprender brevemente sobre CUDA y cuDNN. CUDA (Compute la arquitectura de dispositivos unificados), escrito en lenguaje C. Brinda la oportunidad de administrar las unidades de memoria y procesador pertenecientes a la GPU. cuDNN en la GPU deep learning utilizado en las transacciones Bibliotecas de Python (TensorFlow, PyTorch, etc.) Es un software creado para acelerar. Activamente con estos dos software Pardus trabajo de inteligencia artificial en acelerado estaremos.

importante

Para evitar algunos errores de instalación, puede eliminar los controladores de Nvidia en su sistema con los siguientes comandos.

sudo apt-get purga nvidia*

sudo apt-get autoremove nvidia*

Instalación CUDA

Primero, vaya a la dirección especificada en el enlace. https://developer.nvidia.com/cuda-toolkit

en esta página Descargar Actualmente Clic en el botón.

En el siguiente paso, seleccione las siguientes opciones en orden. Aquí hemos elegido el tipo de sistema operativo, la arquitectura del procesador, la distribución y la versión del sistema operativo. Pardus, Debian Dado que fue desarrollado sobre la base del sistema operativo, los siguientes pasos a Debian Lo haremos como corresponde. en este paso locales, del sistema, ve archivo de ejecución Puede elegir las opciones de instalación. Los siguientes pasos se seguirán instalando en el servidor.

Veremos una pantalla como la que se muestra a continuación, cuando realicemos los pasos aquí, la instalación de CUDA se realizará con éxito.

wget https://developer.download.nvidia.com/compute/cuda/repos/debian11/x86_64/cuda-keyring_1.0-1_all.deb
sudo dpkg -i cuda-keyring_1.0-1_all.deb
sudo add-apt-repositorio contribución
apt-get update sudo
sudo apt-get -y instalar cuda

En algunos casos tercera En la linea Puede ocurrir un error para el comando. Para hacer esto, realice las siguientes acciones.

Cómo corregir el error "sudo add-apt-repository contrib"

sudo apt-get install software-properties-common

En algunos casos, debe realizar los siguientes pasos manualmente durante la instalación. En la instalación de CUDA, se le solicita permiso para tomar medidas en un paquete en conflicto. Confirme esta acción.

Después de estos pasos, aparecerá la siguiente pantalla en la pantalla de su terminal y deberá reiniciar su sistema después de este paso.

Después de que su sistema se haya reiniciado, escriba el siguiente código en la pantalla de su terminal y verifique la instalación de CUDA para su tarjeta de video.

nvidia-smi

Hemos instalado CUDA con éxito. Preste atención a la versión CUDA, especialmente para la instalación de cuDNN. Instalaremos cuDNN para CUDA 12.1.

Instalación de cuDNN

Después de instalar CUDA con éxito, abra la dirección especificada en el enlace especificado. Verá una pantalla como la siguiente. en esta pantalla Descarga cuDNN Clic en el botón.

Después de este paso, debe tener una cuenta de desarrollador de Nvidia. Para hacer esto, debe crear una cuenta o usar su cuenta de desarrollador existente.

Después de los procedimientos de inicio de sesión necesarios, aparecerá la siguiente página y aceptará los términos de uso especificados por Nvidia. Luego trabajamos arriba nvidia-smi Seleccionamos la versión relevante de acuerdo con la versión de CUDA que obtuvimos con el comando.

Dado que la versión de CUDA mencionada anteriormente es 12.1 Descargar cuDNN v8.8.1 (8 de marzo de 2023), para CUDA 12.x bajo la sección Instalador local para Debian 11 (Deb) Descarga el paquete. Instale este paquete con el siguiente comando.

sudo dpkg -i cudnn-local-repo-debian11-8.8.1.3_1.0-1_amd64.deb

Luego ejecute el siguiente comando.

sudo cp /var/cudnn-local-repo-debian11-8.8.1.3/cudnn-local-313BFFCD-keyring.gpg /usr/share/keyrings/

Actualizar los repositorios.

apt-get update sudo

Luego ejecute los siguientes comandos para la biblioteca de tiempo de ejecución y la biblioteca de desarrollador en orden.

sudo apt-get install libcudnn8=8.9.0.131-1+cuda12.1
sudo apt-get install libcudnn8-dev=8.9.0.131-1+cuda12.1

Después de estos pasos, hemos instalado con éxito cuDNN.

advertencia

Para la instalación de CUDA y cuDNN, debe prestar atención a la tarjeta gráfica que tiene y la biblioteca de inteligencia artificial que desea usar. Por ejemplo, las versiones compatibles de CUDA y cuDNN en las fuentes oficiales de PyTorch y TensorFlow pueden diferir. Selecciona las versiones que sean adecuadas para tus proyectos de inteligencia artificial que quieras desarrollar.

recursos

https://tr.wikipedia.org/wiki/CUDA

https://developer.nvidia.com/cuda-toolkit

https://developer.nvidia.com/cudnn

https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html