Centre de formation ACF Grenoble

87, rue Général Mangin - 38000 Grenoble
Tel : 04 76 23 20 50 / 06 81 73 19 35
contact@audit-conseil-formation.com

Demander un Devis
puce

Demande de devis

Formation
Cadre
Nom/Prénom
Société
E-mail
Téléphone
Adresse
Période
Evaluer mon niveau

Formation Big Data : Les fondamentaux

DomaineCERTIFICATION ET FORMATION LEARNING TREE INTERNATIONAL

Programme de cours Big Data : Les fondamentaux :

Durée de la formation : 3 (jours)
Participants : toute personne souhaitant profiter des nombreux avantages liés aux technologies dédiées au Big Data.
Pré-requis : Vous devez avoir des connaissances pratiques de la plateforme Microsoft Windows. Des notions de programmation sont utiles sans toutefois être obligatoires.
Objectifs : acquérir des connaissances pratiques fondamentales des différents concepts, techniques et produits liés au Big Data et d'apprendre à stocker, gérer, traiter et analyser des ensembles volumineux de données non structurées
Moyens pédagogiques, techniques et d'encadrement :
  • 1 poste de travail complet par personne
  • De nombreux exercices d’application
  • Mise en place d’ateliers pratiques
  • Remise d’un support de cours
  • Passage de certification(s) dans le cadre du CPF
  • Mise en place de la Charte contrôle et qualité OPCA
  • Notre plateforme d'évaluation :
    • Evaluation des besoins et objectifs en pré et post formation
    • Evaluation technique des connaissances en  pré et post formation
    • Evaluation générale du stage
Définition
  • Les quatre dimensions du Big Data : volume, vélocité, variété, véracité
  • Présentation de l'ensemble MapReduce, stockage et requêtes
Améliorer les résultats de l'entreprise grâce au Big Data
  • Mesurer l'importance du Big Data au sein d'une entreprise
  • Réussir à extraire des données utiles
  • Intégrer le Big Data aux données traditionnelles
Analyser les caractéristiques de vos données
  • Sélectionner les sources de données à analyser
  • Supprimer les doublons
  • Définir le rôle de NoSQL
Présentation des entrepôts de Big Data
  • Modèles de données : valeur clé, graphique, document, famille de colonnes
  • Système de fichiers distribué Hadoop (HDFS)
  • HBase
  • Hive
  • Cassandra
  • Hypertable
  • Amazon S3
  • BigTable
  • DynamoDB
  • MongoDB
  • Redis
  • Riak
  • Neo4J
Choisir un entrepôt de Big Data
  • Choisir un entrepôt de données en fonction des caractéristiques de vos données
  • Injecter du code dans les données, mettre en œuvre des solutions de stockage des données multilingues
  • Choisir un entrepôt de données capable de s'aligner avec les objectifs de l'entreprise
Intégrer différents entrepôts de données
  • Mapper les données avec le framework de programmation, se connecter aux données et les extraire de l'entrepôt de stockage, transformer les données à traiter
  • Fractionner les données pour Hadoop MapReduce
Utiliser Hadoop MapReduce
  • Créer les composants des tâches Hadoop MapReduce
  • Distribuer le traitement des données entre plusieurs fermes de serveurs, exécuter les tâches Hadoop MapReduce
  • Surveiller l'avancement des flux de tâches
Principes fondamentaux de Hadoop MapReduce
  • Identifier les démons Hadoop
  • Examiner le système de fichiers distribué Hadoop (HDFS)
  • Choisir le mode d'exécution : local, pseudo-distribué, entièrement distribué
Synthétiser les tâches Hadoop MapReduce avec Pig
  • Communiquer avec Hadoop en Pig Latin
  • Exécuter des commandes avec le shell Grunt
  • Rationaliser les traitements de haut niveau
Lancer des requêtes ad hoc sur le Big Data avec Hive
  • Assurer la persistance des données dans le Hive MegaStore
  • Lancer des requêtes avec HiveQL
  • Examiner le format des fichiers Hive
Extraire des données donnant de la valeur à l'entreprise
  • Analyser les données avec Mahout, utiliser des outils de génération d'états pour afficher le résultat du traitement
Élaborer une stratégie dédiée au Big Data
  • Définir les besoins en matière de Big Data
  • Atteindre les objectifs grâce à la pertinence des données
  • Évaluer les différents outils du marché dédiés au Big Data
  • Répondre aux attentes du personnel de l'entreprise
Une méthode analytique innovante
  • Identifier l'importance des traitements métier
  • Cerner le problème
  • Choisir les bons outils
  • Obtenir des résultats exploitables
Analyse statistique du Big Data
  • Exploiter la fonctionnalité RHadoop
  • Générer des états statistiques avec RHadoop
  • Utiliser la visualisation RHadoop
  • Exploiter les résultats des analyses
Mettre en œuvre une solution Big Data
  • Bien choisir les fournisseurs et options d'hébergement
  • Trouver le juste équilibre entre les coûts engendrés et la valeur apportée à l'entreprise
  • Garder une longueur d'avance
Tarif (indicatif) en € : 2100


Pour d'autres cours, Contactez-nous