Apache Hadoop



Apache Hadoop est un framework gratuit permettant la création d'applications dans des architectures complexes et distribués . Il fournit un système de partage de fichiers distribués entre des milliers de nœuds ( HDFS : Hadoop Distributed File System )  .
 
Cet outil est entrain de monter en puissance et est aujourd'hui utilisé par des géants de l'informatique et du Yahoo,  Google, Facebook, microsft , Amazon , ebay , IBM ...


Les prérequis matérielles pour installer  Apache Hadoop sont  :
 - Processuer de mayenne gamme .
- De 4 à 32 GB de mémoire .
- Connectivité réseau de 10 GB .

 Pour installer Apache Hadoop dans un serveur Linux , il faut , en tant que root procéder ainsi  :
- Télécharger et extraire le package :
$ wget http://mirror.nyi.net/apache//hadoop/common/stable/hadoop-0.20.203.0rc1.tar.gz
$ tar xvfz hadoop-0.20.203.0rc1.tar.gz  
- Vérifier que Java est bien installée :
 $ java -version
java version "1.6.0_20"
OpenJDK Runtime Environment (IcedTea6 1.9.7) (rhel-1.39.1.9.7.el6-x86_64)
OpenJDK 64-Bit Server VM (build 19.0-b09, mixed mode)  
- Vérifier que le chemin vers Java est correct , le modifier sinon :
 $ grep JAVA ~/hadoop-0.20.204.0/conf/hadoop-env.sh
  export JAVA_HOME=/usr/java/jdk1.6.0_27
 
 
 






Commentaires

Posts les plus consultés de ce blog

Les commandes Fortinet les plus utiles

Comment faire du NAT avec Fortinet

Outil gratuit pour Tester les performances de votre serveur dns public