web-dev-qa-db-fra.com

http: // localhost: 50070 ne fonctionne pas HADOOP

J'ai déjà installé Hadoop sur ma machine "Ubuntu 13.05" et j'ai maintenant une erreur lorsque je navigue sur localhost: 50070 le navigateur dit que la page n'existe pas.

27
deltascience

Depuis Hadoop 3.0.0 - Alpha 1, la configuration du port a été modifiée:

http://localhost:50070 

a été déplacé à 

http://localhost:9870

voir https://issues.Apache.org/jira/browse/HDFS-9427

64
Benvorth

le port 50070 a été remplacé par 9870 dans 3.0.0-alpha1

En fait, beaucoup d'autres ports ont également changé. Regardez:

Namenode ports: 50470 --> 9871, 50070 --> 9870, 8020 --> 9820
Secondary NN ports: 50091 --> 9869, 50090 --> 9868
Datanode ports: 50020 --> 9867, 50010 --> 9866, 50475 --> 9865, 50075 --> 9864

La source

33
Vitor Alves

Tout d’abord, vérifiez que les processus Java exécutés à l’aide de "jps". Si vous êtes en mode pseudo-distribué, vous devez avoir les processus suivants:

  • Namenode
  • Jobtracker
  • Tasktracker
  • Datanode
  • SecondaryNamenode

S'il vous en manque, utilisez les commandes de redémarrage:

$HADOOP_INSTALL/bin/stop-all.sh
$HADOOP_INSTALL/bin/start-all.sh

C'est peut-être aussi parce que vous n'avez pas ouvert ce port sur la machine:

iptables -A INPUT -p tcp --dport 50070 -j ACCEPT
7
MaC
  • étape 1: bin/stop-all.sh
  • étape 2: bin/hadoop namenode -format
  • étape 3: bin/start-all.sh
6
Azhar Ak

Pour les versions récentes de hadoop (J'utilise 2.7.1)

Les scripts de démarrage et d'arrêt se trouvent dans le dossier sbin. Les scripts sont:

  • ./sbin/start-dfs.sh
  • ./sbin/stop-dfs.sh
  • ./sbin/start-yarn.sh
  • ./sbin/stop-yarn.sh

Cependant, je n'avais rien à faire avec yarn pour que l'instance NameNodeServer soit en cours d'exécution.

Maintenant, mon erreur est que je n’ai pas formaté le NameNodeServer HDFS.

bin/hdfs namenode -format

Je ne sais pas trop ce que cela fait pour le moment, mais cela prépare évidemment l'espace sur lequel le NameNodeServer utilisera pour fonctionner.

6
Muhammad Gelbana

Si vous pouvez ouvrir http: // localhost: 8088/cluster mais ne pouvez pas ouvrir http: // localhost: 50070/ . Peut-être que datanode n'a pas démarré ou que namenode n'a pas été formé.

Hadoop version 2.6.4

  • étape 1:

vérifiez si votre namenode a été formaté, sinon tapez:

$ stop-all.sh
$ /path/to/hdfs namenode -format
$ start-all.sh
  • étape 2: 

vérifiez votre chemin de fichier namenode tmp, à voir dans /tmp, si le répertoire namenode est dans /tmp, vous devez définir le chemin tmp dans core-site.xml, car chaque fois que vous redémarrez ou démarrez votre ordinateur, les fichiers dans /tmp seront supprimés. un chemin de répertoire tmp.

ajoutez ce qui suit.

<property>
    <name>hadoop.tmp.dir</name>
    <value>/path/to/hadoop/tmp</value>
</property>
  • étape 3:

vérifiez l’étape 2, arrêtez hadoop et supprimez le répertoire namenode tmp dans /tmp, puis tapez /path/to/hdfs namenode -format et lancez le hadoop. Le est également un répertoire tmp dans $HADOOP_HOME

Si tout ce qui précède ne vous aide pas, veuillez commenter ci-dessous!

1
GoingMyWay

Activez le port de votre système pour CentOS 7 Passez les commandes ci-dessous.

1.firewall-cmd --get-active-zones

2.firewall-cmd --zone = dmz --add-port = 50070/tcp --permanent

3.firewall-cmd --zone = public --add-port = 50070/tcp --permanent

4.firewall-cmd --zone = dmz --add-port = 9000/tcp --permanent 

5.firewall-cmd --zone = public --add-port = 9000/tcp --permanent 6.firewall-cmd --reload

1
Godasi Satish

Essayer

namenode -format
start-all.sh
stop-all.sh
jps

voir namenode et datanode en cours d'exécution et parcourir

localhost:50070

Si localhost:50070 ne fonctionne toujours pas, vous devez autoriser les ports. Alors, vérifiez

netstat -anp | grep 50070
1
Tikky Mahesh

Tout ce qu’il faut faire, c’est d’abord de démarrer les nœuds hadoop et les trackers, simplement en tapant Start-all.sh sur votre terminal . Pour vérifier que tous les suiveurs et les nœuds sont démarrés, écrivez la commande 'jps' . est bien et fonctionne, dans votre navigateur, tapez l’URL suivante http: // localhost: 50070

0
Vishal Jogiya

si vous utilisez une ancienne version de Hadoop (Hadoop 1.2), vous obtenez une erreur car http: // localhost: 50070/dfshealth.html ne quitte pas. Vérifiez http: // localhost: 50070/dfshealth.jsp qui fonctionne!

0
gerard

Il existe une question similaire à l'adresse suivante: Démarrer Hadoop 50075 Le port n'est pas résolu

Examinez votre fichier core-site.xml pour déterminer le port sur lequel il est défini. Si 0, il choisira un port au hasard, alors assurez-vous de le définir.

0
Josh