Configurer des nœuds compatibles avec les processeurs graphiques (GPU)

Kubernetes offre un support permettant gérer les processeurs graphiques (GPU) à travers différents nœuds d’un cluster, à l’aide de plug-ins de périphérique.

Dans ArcGIS Enterprise on Kubernetes, vous avez la possibilité d’implémenter un plug-in de périphérique pour activer les nœuds des processeurs graphiques (GPU) dans un cluster afin d’optimiser les processus SIG, tels que ceux relatifs à l’analyse raster et au Deep Learning. Par défaut, les fonctionnalités, telles que l’analyse raster sont configurées de façon à être exécutées en mode CPU, mais il est également possible de les exécuter en mode GPU lorsque ces ressources sont disponibles. Examinez si vos charges de travail tireraient un avantage de l’utilisation de nœuds compatibles avec les processeurs graphiques (GPU), car l’utilisation de ces types de nœuds coûte généralement plus cher.

Assurez-vous que vous disposez de ressources GPU suffisantes pour toutes vos charges de travail compatibles avec les GPU. Par exemple, un seul pod d’analyse raster consomme 1 GPU. Pour prendre en charge 10 réplicas de ces pods, vous devez disposer de 10 GPU disponibles sur vos nœuds compatibles avec les GPU.

Activer un GPU

Pour autoriser l’utilisation du GPU pour les charges de travail, procédez comme suit :

  1. Vérifiez que le plug-in de périphérique NVIDIA pour Kubernetes de votre instance est installé.

    Le plug-in de périphérique NVIDIA pour Kubernetes est un daemonset qui vous permet de connaître le nombre de GPU sur chaque nœud d’un cluster, d’exécuter les conteneurs compatibles avec les GPU et de suivre l’intégrité des GPU. Les nœuds GPU sont préconfigurés pour de nombreux environnements cloud. Si le plug-in de périphérique n’est pas installé, reportez-vous à la documentation Plug-in de périphérique NVIDIA pour Kubernetes pour plus d’informations et connaître les étapes d’installation. Si le déploiement a été effectué sur site, l’administrateur doit activer chaque GPU sur chaque nœud du cluster.

    Remarque :

    Dans cette version, ArcGIS Enterprise on Kubernetes n’est pris en charge qu’avec les GPU NVIDIA.

  2. Si vous le souhaitez, créez une étiquette personnalisée pour vos nœuds GPU.

    Nous vous recommandons d’étiqueter les nœuds GPU afin de permettre la planification des charges de travail sur ces nœuds à l’aide des règles de placement de pod. Utilisez la commande suivante pour étiqueter chaque nœud :

    kubectl label nodes <your-node-name> <your-key>=<your-value>
    

  3. Configurez les services pour qu’ils utilisent le GPU.

    Si vous activez le GPU pour les services de notebook, reportez-vous à la page Consulter et mettre à jour les runtimes pour obtenir plus d’informations sur la définition des unités de GPU par nœud. Si vous activez le GPU pour l’analyse raster, reportez-vous à la rubrique Activer les ressources GPU pour les analyses raster.

  4. Vous pouvez utiliser des altérations pour vous assurer que seules les charges de travail nécessitant un GPU sont planifiées sur des nœuds compatibles avec les GPU.

    Appliquez des tolérances à toutes les charges de travail qui doivent s’exécuter sur des nœuds compatibles avec les GPU avant d’altérer les nœuds. Utilisez la commande suivante pour altérer un nœud GPU :

    kubectl taint nodes <your-node-name> nvidia.com/gpu=Exists:NoExecute
    


Dans cette rubrique
  1. Activer un GPU