Informatique Informatique
Référence formation : 4-OS-PENTH - Durée : 3 jours

 
  • Objectifs
  • Pré-requis
  • Pédagogie
Implémenter une solution ETL avec PDI. Découvrir le traitement et l'alimentation des données, la sécurisation et l'optimisation des flux.
Connaissance du SQL.

Méthodes pédagogiques

Présentation des concepts, démonstration, exécution, synthèse et exercices pratiques d'assimilation

Modalités pédagogiques

Présentiel - Distanciel - AFEST

Moyens pédagogiques

Formateur expert du domaine - 1 ordinateur, 1 support de cours version papier ou numérique, un bloc-note et un stylo par personne - vidéo projecteur - tableau blanc

Modalités d'évaluation

Positionnement préalable oral ou écrit - Evaluation formative tout au long de la formation - Evaluation sommative faite par le formateur ou à l'aide de la certification NULL

Public concerné

Salariés - Demandeur d'emploi - Reconversion professionnelle

Si vous êtes en situation de handicap, vous pouvez joindre notre référent Handicap. Voir notre fiche Accès correspondante.

Contenu pédagogique

Introduction et découverte de l'environnement

  • Pourquoi Pentaho Data Integration (PDI) ?
  • Historique et présentation
  • Architecture, vue d'ensemble des composants.
  • Installation et Configuration

Découverte des flux

  • Les transformations
  • Les jobs
  • Text file Output et CSV Input
  • Exécuter un job.
  • Exécuter une transformation.

Traitement des données

  • Qualifier les données à traiter : Sort, Unique et Filter Rows...
  • Gérer les chaînes de caractères : String cut
  • Effectuer des calculs : Calculator
  • Joindre des données : Join Rows, Merge Join et Rows...).

Les métadonnées

  • Métadonnées : vue d'ensemble et création.

Travailler avec les bases de données

  • Bases de données supportées.
  • Récupérer une table d'une métadonnée.
  • Interaction avec la base de données.

Développement de transformations avancées

  • Propriétés d'un job et transformation.
  • Utiliser des variables : Set / Get Variables.
  • Copy / Get Rows to Result.
  • Alimenter des données via des services Web
  • Monitoring (" Write to log " et mails).

Gestion des logs et des erreurs

  • Les types d'erreurs.
  • Gérer les erreurs (dans un job, une transformation).
  • Paramètres de gestion d'erreurs.
  • Le composant " Data Validation ".
  • Les niveaux de logs (via la console, sauvegardés en base...).

Fonctionnalités avancées, automatisation et documentation

  • Débogage (prévisualisation et ajout de points d'arrêt).
  • Parallélisation des traitements.
  • Export des travaux.
  • Kitchen : l'exécuteur de jobs (fichiers, repository, tâches planifiées).
  • Documenter ses jobs.