Penthao
Informatique
Référence formation : 4-OS-PENTH - Durée : 3 jours
- Objectifs
- Pré-requis
- Pédagogie
Méthodes pédagogiques
Présentation des concepts, démonstration, exécution, synthèse et exercices pratiques d'assimilation
Modalités pédagogiques
Présentiel - Distanciel - AFEST
Moyens pédagogiques
Formateur expert du domaine - 1 ordinateur, 1 support de cours version papier ou numérique, un bloc-note et un stylo par personne - vidéo projecteur - tableau blanc
Modalités d'évaluation
Positionnement préalable oral ou écrit - Evaluation formative tout au long de la formation - Evaluation sommative faite par le formateur ou à l'aide de la certification NULL
Public concerné
Salariés - Demandeur d'emploi - Reconversion professionnelle
Si vous êtes en situation de handicap, vous pouvez joindre notre référent Handicap. Voir notre fiche Accès correspondante.
Contenu pédagogique
Introduction et découverte de l'environnement
- Pourquoi Pentaho Data Integration (PDI) ?
- Historique et présentation
- Architecture, vue d'ensemble des composants.
- Installation et Configuration
Découverte des flux
- Les transformations
- Les jobs
- Text file Output et CSV Input
- Exécuter un job.
- Exécuter une transformation.
Traitement des données
- Qualifier les données à traiter : Sort, Unique et Filter Rows...
- Gérer les chaînes de caractères : String cut
- Effectuer des calculs : Calculator
- Joindre des données : Join Rows, Merge Join et Rows...).
Les métadonnées
- Métadonnées : vue d'ensemble et création.
Travailler avec les bases de données
- Bases de données supportées.
- Récupérer une table d'une métadonnée.
- Interaction avec la base de données.
Développement de transformations avancées
- Propriétés d'un job et transformation.
- Utiliser des variables : Set / Get Variables.
- Copy / Get Rows to Result.
- Alimenter des données via des services Web
- Monitoring (" Write to log " et mails).
Gestion des logs et des erreurs
- Les types d'erreurs.
- Gérer les erreurs (dans un job, une transformation).
- Paramètres de gestion d'erreurs.
- Le composant " Data Validation ".
- Les niveaux de logs (via la console, sauvegardés en base...).
Fonctionnalités avancées, automatisation et documentation
- Débogage (prévisualisation et ajout de points d'arrêt).
- Parallélisation des traitements.
- Export des travaux.
- Kitchen : l'exécuteur de jobs (fichiers, repository, tâches planifiées).
- Documenter ses jobs.