Comment télécharger, installer et utiliser le GPU Nvidia pour Tensorflow

Contenu

Cet article a été publié dans le cadre du Blogathon sur la science des données.

Vue d'ensemble

  • comprendre les GPU dans le deep learning.
  • Commencer par les prérequis pour l'installation de TensorFlow -GPU.
  • Installation et configuration de l'environnement GPU.
  • Tester et vérifier l'installation du GPU


“Les graphismes ont fait
un grand virage vers l'apprentissage automatique, qui en soi consiste à comprendre
Les données”
_ Jefferson Han, Fondateur et scientifique en chef de Perceptive Pixel

72011tensorflow20pic-8733049

La source: Google images

Comprendre les GPU dans le deep learning

Les processeurs peuvent récupérer des données plus rapidement, mais ils ne peuvent pas traiter plus de données en même temps, puisque le CPU doit faire de nombreuses itérations dans la mémoire principale pour effectuer une tâche simple. D'un autre côté, le GPU est livré avec sa propre mémoire VRAM (RAM vidéo) dédié, donc, fait moins d'appels à la mémoire principale, donc c'est rapide

Le processeur exécute les tâches de manière séquentielle et a moins de cœurs, mais les GPU sont livrés avec des centaines de cœurs plus petits qui fonctionnent en parallèle, ce qui fait du GPU une architecture hautement parallèle, qui améliore les performances.

Commencer par les prérequis pour l'installation de TensorFlow – GPU

Le GPU Tensorflow ne peut fonctionner que si vous disposez d'une carte graphique compatible CUDA. Toutes les nouvelles cartes graphiques NVidia des trois ou quatre dernières années ont activé CUDA.

Cependant, faisons une pause et vérifions si votre carte graphique est compatible CUDA, puisque "Faire des suppositions incorrectes cause de la douleur et de la souffrance à tous", dijo Jennifer jeune.

Pour vérifier les détails de la carte graphique. Ouvrez la fenêtre d'exécution à partir du menu Démarrer et exécutez Control / nom Microsoft.DeviceManager. La carte graphique apparaîtra sous Cartes graphiques

45851display20adapter-5773614

Chaque machine sera équipée de cartes graphiques intégrées placées sur la même puce que le processeur et s'appuyant sur la mémoire système pour gérer les graphiques., alors qu'une carte graphique discrète est une unité distincte du processeur et a des performances de traitement graphique élevées.

Les capacités GPU sont fournies par des cartes graphiques discrètes. Donc, assurez-vous que votre machine a à la fois une carte graphique intégrée et une carte graphique discrète installée.

Les capacités de calcul de chaque carte graphique Nvidia compatible Cuda sont répertoriées sur le site Web de Nvidia.. Uniquement si une carte graphique discrète est disponible dans cette liste, peut prendre en charge le GPU TensorFlow.

44926liste20de20gpus-5739819

La source: https://developer.nvidia.com/cuda-gpus

Une fois que l'on sait que la carte graphique discrète peut prendre en charge le GPU TensorFlow. Commencer l'installation

Pour s'assurer qu'aucun des paramètres ou paramètres NVidia ci-dessus n'affectera l'installation, désinstaller tous les logiciels et pilotes graphiques NVidia (étape facultative).

Installations préalables requises

Paso 1: Installation de Visual Studio 2017

Microsoft Visual Studio est un environnement de développement intégré Microsoft utilisé pour développer des programmes informatiques, ainsi que des sites Web, des applications Web, Webservices et applications mobiles.

La boîte à outils CUDA comprend des modèles de projet Visual Studio et NSight IDE (que vous pouvez utiliser à partir de Visual Studio). Nous devons installer la boîte à outils VC ++ 2017 (CUDA n'est pas encore compatible avec la dernière version de Visual Studio).

  1. Visual Studio peut être téléchargé sur le site officiel de Microsoft Visual Studio. Téléchargez le logiciel en sélectionnant la charge de travail 'Développement de bureau avec c++’ et l'installer.
  2. Boîte à outils Cuda pendant l'installation, installez les bibliothèques nécessaires puis vérifiez les versions de Visual Studio disponibles sur le système puis installez les intégrations Visual Studio. Donc, avoir un Visual Studio installé sur le système est une étape obligatoire à suivre.

Paso 2: Téléchargez et installez le pilote NVIDIA

Pilote Nvidia est le pilote logiciel pour Nvidia GPU graphique installé sur le PC. C'est un programme utilisé pour communiquer du système d'exploitation Windows PC à l'appareil. Ce logiciel est nécessaire dans la plupart des cas pour que le périphérique matériel fonctionne correctement.

Pour décharger, Accédez à la page de téléchargement Nvidia.com et fournissez tous les détails de la carte graphique et du système dans les menus déroulants. Cliquez sur rechercher et nous vous fournirons le lien de téléchargement.

95206ndriver-6758719
61850télécharger20link-7721543

Installez les pilotes téléchargés depuis Nvidia

une fois installé, nous devrions obtenir un dossier NVidia GPU computing toolkit dans les fichiers programme du lecteur C qui contient le sous-dossier CUDA à l'intérieur.

Paso 3: Boîte à outils Cuda

La boîte à outils Nvidia CUDA fournit un environnement de développement pour la création d'applications accélérées par GPU hautes performances. Avec la boîte à outils CUDA, peut développer, optimisez et déployez vos applications sur des systèmes embarqués accélérés par GPU, postes de travail de bureau, centres de données d'entreprise, plateformes basées sur le cloud et supercalculateurs HPC. La boîte à outils comprend des bibliothèques accélérées par GPU, outils de débogage et d'optimisation, un compilateur C / C ++ et une bibliothèque d'exécution pour construire et déployer votre application sur toutes les architectures majeures, y compris x86, Arm y POWER.

Il existe plusieurs versions de CUDA compatibles avec Tensorflow. Nous pouvons trouver la version actuelle de Cuda compatible avec TensorFlow, sur la page Web d'assistance du GPU TensorFlow.

Dans le fichier de la boîte à outils CUDA sur developer.nvidia.com, télécharger la boîte à outils CUDA requise

42876cuda20archive-7450509
76069vers le bas-7654941

Paso 4: Télécharger cuDNN

cuDNN est une bibliothèque avec un ensemble de primitives de bas niveau optimisées pour augmenter la vitesse de traitement des réseaux de neurones profonds (DNN) sur les GPU compatibles CUDA.

Accédez à la page Web de téléchargement de cuDNN sur developer.nvidia.com et téléchargez la version de cuDNN compatible avec la version de CUDA.

76307cudnn20logiciel-4624548

Une fois le téléchargement terminé, extraire le dossier téléchargé. Le dossier téléchargé doit contenir le dossier CUDA et ce dossier CUDA doit correspondre au contenu du dossier CUDA dans le dossier NVidia GPU Calculation Toolkit Program Files. Veuillez vous référer à l'image ci-dessous.

42708dossier-2276804

Copiez cudnn64_88.dll à partir du bac du dernier dossier extrait et collez-le dans le dossier bin similaire à l'intérieur du dossier Cuda du Nvidia GPU Computing Toolkit.

Copiez le fichier cudnn.h à partir du sous-dossier include du dernier dossier extrait et collez-le dans le dossier bin similaire dans le dossier Cuda de la boîte à outils de calcul GPU Nvidia.

Copiez le fichier cudnn.lib de lib> Sous-dossier du dossier X64 du dernier dossier extrait et collez-le dans le dossier bin similaire à l'intérieur du dossier Cuda du Nvidia GPU Computing Toolkit.

Nous avons maintenant terminé le téléchargement et l'installation de Cuda pour GPU. Mettons en place l'environnement.

Installation et configuration de l'environnement GPU

Anaconda est une distribution Python qui permet de configurer un environnement virtuel. En supposant qu'anaconda est déjà installé, commençons par créer un environnement virtuel.

Paso 1: Crémangé une variable d'environnement

Créez un environnement virtuel à partir de l'invite de commande à l'aide de la commande – conda créer -n [env_name] python = [version_python]

Tensor Flow ne prend en charge que certaines versions de Python. Choisissez une version de Python qui prend en charge Tensor lors de la création d'un environnement.

Ensuite, activer l'environnement virtuel à l'aide de la commande – Activer [env_name].

Dans l'environnement virtuel créé, installer la dernière version du GPU tensor flow à l'aide de la commande – pip installer – ignorer-installé – mettre à niveau TensorFlow-GPU

Une fois que nous avons terminé avec l'installation du GPU Tensor Flow, vérifiez si votre machine a des packages python de base comme les pandas, numpy, jupyter y dur. s'ils n'existent pas, les installer.

Installer ipykernel via la commande – pip installer ipykernel

Définissons le nom d'affichage et lions le noyau à la variable d'environnement virtuel à l'aide de la commande – python –m ipykernel install –utilisateur –nom [env_name] –Afficher le nom "n'importe quel nom".

Paso 2: définir le noyau python sur jupyter.

Ouvrez le bloc-notes jupyter et dans la barre de menus, cliquez sur le noyau et changez le noyau en variable d'environnement que nous venons de définir

Tester et vérifier l'installation du GPU.

Pour tout vérifier physique Périphériques GPU disponible pour TensorFlow. Exécutez le code suivant

From tensorflow.python.client import device_lib
print(device_lib.list_local_devices())

Cela imprime tous les appareils disponibles pour Tensorflow

32077gpu-2105104

Pour vérifier si CUDA est activé pour TensorFlow, exécuter le code suivant

Import tensorflow as tf
print(tf.test.is_built_with_cuda())

La sortie sera une valeur booléenne qui renvoie true si TensorFlow est compilé avec CUDA

Pour savoir si le GPU se réveille pendant l'exécution, démarrer l'exécution de tout réseau de neurones complexe.

Le gestionnaire de tâches affiche l'utilisation du GPU et la mémoire occupée pour l'exécution du programme Tensorflow.

11312photo-3764587

si l'onglet processus du gestionnaire de tâches n'affiche pas l'utilisation du GPU, qui est un scénario pour les machines fonctionnant sur le système d'exploitation Windows 8.1, utiliser des outils tiers comme GPUZ pour observer l'utilisation du GPU

39449image-3694118

Maintenant, l'installation et la configuration complètes du GPU sont terminées.

conclusion

    • Il existe de nombreuses plateformes de cloud computing GPU gratuites qui pourraient accélérer nos calculs GPU dans les réseaux de neurones profonds. Alors essayez-les si votre machine ne contient pas de GPU dédié.
    • Toutes les étapes d'installation ci-dessus dépendent les unes des autres, nous devons donc suivre la même séquence que mentionné ci-dessus.
    • Il n'y a aucun moyen de déboguer pourquoi notre machine ne peut pas consommer de GPU dédié, alors ne manquez aucune des étapes.

Abonnez-vous à notre newsletter

Nous ne vous enverrons pas de courrier SPAM. Nous le détestons autant que vous.