Apache Hadoop



Apache Hadoop est un framework gratuit permettant la création d'applications dans des architectures complexes et distribués . Il fournit un système de partage de fichiers distribués entre des milliers de nœuds ( HDFS : Hadoop Distributed File System )  .
 
Cet outil est entrain de monter en puissance et est aujourd'hui utilisé par des géants de l'informatique et du Yahoo,  Google, Facebook, microsft , Amazon , ebay , IBM ...


Les prérequis matérielles pour installer  Apache Hadoop sont  :
 - Processuer de mayenne gamme .
- De 4 à 32 GB de mémoire .
- Connectivité réseau de 10 GB .

 Pour installer Apache Hadoop dans un serveur Linux , il faut , en tant que root procéder ainsi  :
- Télécharger et extraire le package :
$ wget http://mirror.nyi.net/apache//hadoop/common/stable/hadoop-0.20.203.0rc1.tar.gz
$ tar xvfz hadoop-0.20.203.0rc1.tar.gz  
- Vérifier que Java est bien installée :
 $ java -version
java version "1.6.0_20"
OpenJDK Runtime Environment (IcedTea6 1.9.7) (rhel-1.39.1.9.7.el6-x86_64)
OpenJDK 64-Bit Server VM (build 19.0-b09, mixed mode)  
- Vérifier que le chemin vers Java est correct , le modifier sinon :
 $ grep JAVA ~/hadoop-0.20.204.0/conf/hadoop-env.sh
  export JAVA_HOME=/usr/java/jdk1.6.0_27
 
 
 






Share this

Related Posts

Previous
Next Post »

Les actualités de l'informatique