Nous utilisons des cookies pour améliorer votre expérience. Pour nous conformer à la nouvelle directive sur la vie privée, nous devons demander votre consentement à l’utilisation de ces cookies. En savoir plus.
Hadoop - Maîtriser l’écosystème Big Data : HDFS, MapReduce, Hive, Spark…
ENI - EAN : 9782409054303
Édition papier
EAN : 9782409054303
Paru le : 20 mai 2026
39,00 €
36,97 €
Bientôt disponible
Pour connaître votre prix et commander, identifiez-vous
A paraître 20 mai 2026
Notre engagement qualité
-
Livraison gratuite
en France sans minimum
de commande -
Manquants maintenus
en commande
automatiquement -
Un interlocuteur
unique pour toutes
vos commandes -
Toutes les licences
numériques du marché
au tarif éditeur -
Assistance téléphonique
personalisée sur le
numérique -
Service client
Du Lundi au vendredi
de 9h à 18h
- EAN13 : 9782409054303
- Réf. éditeur : EIHADOOP
- Collection : EXPERT IT
- Editeur : ENI
- Date Parution : 20 mai 2026
- Disponibilite : Pas encore paru
- Barème de remise : NS
- Nombre de pages : 400
- Format : H:216 mm L:178 mm E:21 mm
- Poids : 670gr
-
Résumé :
Le Big Data occupe aujourd’hui une place centrale dans les architectures décisionnelles modernes. Hadoop en est l’un des piliers historiques et demeure une technologie incontournable pour comprendre les fondements du stockage massif et du traitement distribué de données à grande échelle.
Pensé aussi bien pour les débutants que pour les professionnels souhaitant structurer leurs connaissances, cet ouvrage propose un parcours progressif, clair et structuré, qui accompagne le lecteur depuis les bases du Big Data jusqu’à la réalisation de projets concrets avec Hadoop. Après une introduction aux enjeux du Big Data et à la genèse d’Hadoop, le livre détaille l’architecture du framework, son fonctionnement interne et ses briques fondamentales : HDFS, YARN et MapReduce.
Le lecteur est guidé pas à pas dans l’installation d’un cluster Hadoop en local, puis dans la manipulation du système de fichiers distribué HDFS à travers des commandes, des exemples pratiques et des scénarios proches des environnements professionnels. Les premiers traitements MapReduce en Python permettent ensuite de comprendre en profondeur la logique du calcul distribué.
L’ouvrage ouvre également sur l’écosystème Hadoop moderne avec Hive, Pig, Spark, HBase, Sqoop, Oozie, ainsi que les outils d’ingestion, d’orchestration et de gouvernance. Enfin, plusieurs chapitres sont consacrés à des projets Big Data complets, offrant une approche méthodologique, des bonnes pratiques et des cas d’usage concrets.









