Informatique Informatique
Référence formation : 4-GPGU - Durée : 3 jours

 
  • Objectifs
  • Pré-requis
  • Pédagogie
Appréhender l'API et les concepts de la technologie CUDA (Compute Unified Device Architecture)
Bonnes connaissances du langage C/C++ et des threads, expérience requise.

Méthodes pédagogiques

Présentation des concepts, démonstration, exécution, synthèse et exercices pratiques d'assimilation

Modalités pédagogiques

Présentiel - Distanciel - AFEST

Moyens pédagogiques

Formateur expert du domaine - 1 ordinateur, 1 support de cours version papier ou numérique, un bloc-note et un stylo par personne - vidéo projecteur - tableau blanc

Modalités d'évaluation

Positionnement préalable oral ou écrit - Evaluation formative tout au long de la formation - Evaluation sommative faite par le formateur ou à l'aide de la certification NULL

Public concerné

Salariés - Demandeur d'emploi - Reconversion professionnelle

Si vous êtes en situation de handicap, vous pouvez joindre notre référent Handicap. Voir notre fiche Accès correspondante.

Contenu pédagogique

Introduction

  • Calcul parallèle hétérogène
  • Architecture des GPUs
  • Pourquoi plus de vitesse ou de parallèlisme ?
  • Accélérer de réelles applications
  • Challenges du calcul parallèle
  • Concept de GPGPU
  • Comparaison des frameworks (CUDA, OpenCL, OpenGL Compute Shader, OpenACC)

Architecture d'éxécution

  • Parallélisme de donnée
  • Notions clefs (Kernel, Thread, Work group, ...)
  • Structure d'un programme CUDA/OpenCL/Compute Shader
  • Device Global Memory et transfert de données
  • Lancement des kernels
  • Mémoire et localité des données

Stratégies d'optimisation

  • Configuration d'éxécution
  • Utilisation de la mémoire
  • Transfert de données efficient
  • Précalculs sur CPU

Examples pratiques

  • Manipulation des données
  • Calculs algébriques
  • Réduction

Outils et bibliothèques

  • NVIDIA Visual Profiler
  • nvcc, CLEW
  • CUBLAS, CUFFT, CUSOLVER
  • Thrust : bibliothèque orientée productivité pour CUDA