Programme Big Data : Les fondamentaux

Participants : toute personne souhaitant profiter des nombreux avantages liés aux technologies dédiées au Big Data.

Durée : 3 jours - 21 heures
Tarif : Nous contacter pour une formation INTER – INTRA ou en COURS PARTICULIER

La formation est délivrée en présentiel ou distanciel (e-learning, classe virtuelle, présentiel et à distance). Le formateur alterne entre méthodes démonstrative, interrogative et active (via des travaux pratiques et/ou des mises en situation). La validation des acquis peut se faire via des études de cas, des quiz et/ou une certification.

Cette formation est animée par un consultant-formateur dont les compétences techniques, professionnelles et pédagogiques ont été validées par des diplômes et/ou testées et approuvées par l’éditeur et/ou par Audit Conseil Formation.

Dates des formations
Contactez-nous pour des informations sur les disponibilités pour cette formation.
Logo ACF

Demande de devis

Formation
Cadre
Pôle Emploi
Nom/Prénom
Société
E-mail
Téléphone
Période
Evaluer mon niveau

Les objectifs

acquérir
acquérir
des connaissances pratiques fondamentales des différents concepts, techniques et produits liés au Big Data
objectifs
objectifs
apprendre
apprendre
à stocker, gérer, traiter et analyser des ensembles volumineux de données non structurées

pré-requis

Vous devez avoir des connaissances pratiques de la plateforme Microsoft Windows. Des notions de programmation sont utiles sans toutefois être obligatoires.

Moyens pédagogiques, techniques et d'encadrement

  • 1 poste de travail complet par personne
  • De nombreux exercices d'application
  • Mise en place d'ateliers pratiques
  • Remise d'un support de cours
  • Remise d'une attestation de stage

Modalités d'évaluation des acquis

- Evaluation des besoins et objectifs en pré et post formation
- Evaluation technique des connaissances en pré et post formation
- Evaluation générale du stage

Accessibilité handicapés

  • Au centre d’affaires ELITE partenaire d’ACF à 20 m.
  • Guide d’accessibilité à l’accueil.

Le Programme

Définition

  • Les quatre dimensions du Big Data : volume, vélocité, variété, véracité
  • Présentation de l'ensemble MapReduce, stockage et requêtes

Améliorer les résultats de l'entreprise grâce au Big Data

  • Mesurer l'importance du Big Data au sein d'une entreprise
  • Réussir à extraire des données utiles
  • Intégrer le Big Data aux données traditionnelles

Analyser les caractéristiques de vos données

  • Sélectionner les sources de données à analyser
  • Supprimer les doublons
  • Définir le rôle de NoSQL

Présentation des entrepôts de Big Data

  • Modèles de données : valeur clé, graphique, document, famille de colonnes
  • Système de fichiers distribué Hadoop (HDFS)
  • HBase
  • Hive
  • Cassandra
  • Hypertable
  • Amazon S3
  • BigTable
  • DynamoDB
  • MongoDB
  • Redis
  • Riak
  • Neo4J

Choisir un entrepôt de Big Data

  • Choisir un entrepôt de données en fonction des caractéristiques de vos données
  • Injecter du code dans les données, mettre en œuvre des solutions de stockage des données multilingues
  • Choisir un entrepôt de données capable de s'aligner avec les objectifs de l'entreprise

Intégrer différents entrepôts de données

  • Mapper les données avec le framework de programmation, se connecter aux données et les extraire de l'entrepôt de stockage, transformer les données à traiter
  • Fractionner les données pour Hadoop MapReduce

Utiliser Hadoop MapReduce

  • Créer les composants des tâches Hadoop MapReduce
  • Distribuer le traitement des données entre plusieurs fermes de serveurs, exécuter les tâches Hadoop MapReduce
  • Surveiller l'avancement des flux de tâches

Principes fondamentaux de Hadoop MapReduce

  • Identifier les démons Hadoop
  • Examiner le système de fichiers distribué Hadoop (HDFS)
  • Choisir le mode d'exécution : local, pseudo-distribué, entièrement distribué

Synthétiser les tâches Hadoop MapReduce avec Pig

  • Communiquer avec Hadoop en Pig Latin
  • Exécuter des commandes avec le shell Grunt
  • Rationaliser les traitements de haut niveau

Lancer des requêtes ad hoc sur le Big Data avec Hive

  • Assurer la persistance des données dans le Hive MegaStore
  • Lancer des requêtes avec HiveQL
  • Examiner le format des fichiers Hive

Extraire des données donnant de la valeur à l'entreprise

  • Analyser les données avec Mahout, utiliser des outils de génération d'états pour afficher le résultat du traitement

Élaborer une stratégie dédiée au Big Data

  • Définir les besoins en matière de Big Data
  • Atteindre les objectifs grâce à la pertinence des données
  • Évaluer les différents outils du marché dédiés au Big Data
  • Répondre aux attentes du personnel de l'entreprise

Une méthode analytique innovante

  • Identifier l'importance des traitements métier
  • Cerner le problème
  • Choisir les bons outils
  • Obtenir des résultats exploitables

Analyse statistique du Big Data

  • Exploiter la fonctionnalité RHadoop
  • Générer des états statistiques avec RHadoop
  • Utiliser la visualisation RHadoop
  • Exploiter les résultats des analyses

Mettre en œuvre une solution Big Data

  • Bien choisir les fournisseurs et options d'hébergement
  • Trouver le juste équilibre entre les coûts engendrés et la valeur apportée à l'entreprise
  • Garder une longueur d'avance