Informatique Informatique
Référence formation : 4-IT-DL - Durée : 2 jours

 
  • Objectifs
  • Pré-requis
  • Pédagogie
Comprendre l'évolution des réseaux de neurones et les raisons du succès actuel du Deep LearningUtiliser les bibliothèques de Deep Learning les plus populairesComprendre les principes de conception, les outils de diagnostic et les effets des différents verrous et leviersAcquérir de l'expérience pratique sur plusieurs problèmes réels
Bonnes connaissances en statistiquesBonnes connaissances du Machine Learning

Méthodes pédagogiques

Présentation des concepts, démonstration, exécution, synthèse et exercices pratiques d'assimilation

Modalités pédagogiques

Présentiel - Distanciel - AFEST

Moyens pédagogiques

Formateur expert du domaine - 1 ordinateur, 1 support de cours version papier ou numérique, un bloc-note et un stylo par personne - vidéo projecteur - tableau blanc

Modalités d'évaluation

Positionnement préalable oral ou écrit - Evaluation formative tout au long de la formation - Evaluation sommative faite par le formateur ou à l'aide de la certification NULL

Public concerné

Salariés - Demandeur d'emploi - Reconversion professionnelle

Si vous êtes en situation de handicap, vous pouvez joindre notre référent Handicap. Voir notre fiche Accès correspondante.

Contenu pédagogique

Introduction

  • Créer un premier graphe et l’exécuter dans une session.
  • Cycle de vie de la valeur d’un nœud.
  • Manipuler des matrices.
  • Régression linéaire.
  • Descente de gradient.
  • Fournir des données à l’algorithme d’entraînement.
  • Enregistrer et restaurer des modèles.
  • Visualiser le graphe et les courbes d’apprentissage.
  • Portées de noms. Partage des variables.

Introduction aux réseaux de neurones artificiels

  • Du biologique à l’artificiel.
  • Entraîner un PMC (perceptron multicouche) avec une API TensorFlow de haut niveau.
  • Entraîner un PMC (perceptron multicouche) avec TensorFlow de base.
  • Régler précisément les hyperparamètres d’un réseau de neurones.

Entraînement de réseaux de neurones profonds

  • Problèmes de disparition et d’explosion des gradients.
  • Réutiliser des couches pré-entraînées.
  • Optimiseurs plus rapides.
  • Éviter le sur-ajustement grâce à la régularisation.
  • Recommandations pratiques.

Réseaux de neurones convolutifs

  • L’architecture du cortex visuel.
  • Couche de convolution.
  • Couche de pooling.
  • Architectures de CNN.

Deep Learning avec Keras

  • Régression logistique avec Keras.
  • Perceptron avec Keras.
  • Réseaux de neurones convolutifs avec Keras.

Réseaux de neurones récurrents

  • Neurones récurrents.
  • RNR de base avec TensorFlow.
  • Entraîner des RNR. RNR profonds.
  • Cellule LSTM. Cellule GRU.
  • Traitement automatique du langage naturel.

Autoencodeurs

  • Représentations efficaces des données.
  • ACP avec un autoencodeur linéaire sous-complet.
  • Autoencodeurs empilés.
  • Pré-entraînement non supervisé avec des autoencodeurs empilés.
  • Autoencodeurs débruiteurs. Autoencodeurs épars. Autoencodeurs variationnels. Autres autoencodeurs.