web-dev-qa-db-fra.com

mapreduce

Existe-t-il un .NET équivalent à Apache Hadoop?

Qu'est-ce que Map/Reduce?

Mapper et réduire en .NET

Comment fonctionne l'algorithme de tri MapReduce?

Hadoop une carte et multiples Réduire

Chaînage de plusieurs emplois MapReduce à Hadoop

Comment Hadoop effectue-t-il le fractionnement des entrées?

Où le framework hadoop mapreduce envoie-t-il mes instructions System.out.print ()? (stdout)

Équivalent de procédure stockée MongoDB

MongoDB: Terrible MapReduce Performance

Hadoop Streaming Job a échoué en python

Simple Java Framework Map / Reduce

fusionner les fichiers de sortie après la phase de réduction

Comment résoudre «La tentative de tâche_201104251139_0295_r_000006_0 n'a pas pu signaler l'état pendant 600 secondes».

Qu'est-ce que le Dremel de Google? En quoi est-il différent de Mapreduce?

Définition du nombre de tâches de carte et réduction des tâches

Est-il préférable d'utiliser le package Mapred ou MapReduce pour créer un emploi Hadoop?

Ruche incapable de définir manuellement le nombre de réducteurs

Comment écrire des jobs hadoop 'map only'?

Rechercher tous les documents en double dans une collection MongoDB par un champ clé

Changer la taille du fichier fractionné dans Hadoop

Fusion de deux collections dans MongoDB

Appeler un travail mapreduce à partir d'un simple programme Java

Que sont les fichiers SUCCESS et part-r-00000 dans hadoop

méthodes de configuration et de nettoyage du mappeur/réducteur dans Hadoop MapReduce

Qu'est-ce que Hive: Return Code 2 from org.Apache.hadoop.Hive.ql.exec.MapRedTask

Exploser le tableau de Struct dans Hive

Aucune exception de méthode de ce type Hadoop <init>

Quand commence la réduction des tâches dans Hadoop?

Hadoop: Java.lang.ClassCastException: org.Apache.hadoop.io.LongWritable ne peut pas être casté en org.Apache.hadoop.io.Text

Bons exemples de MapReduce

Compter les lignes dans les gros fichiers

Le cadre d'agrégation Mongodb est-il plus rapide que la carte / réduire?

Comment Hadoop traite-t-il les enregistrements répartis à travers les limites de blocs?

Qu'est-ce qu'un conteneur dans YARN?

À quoi sert le comparateur de regroupement dans la carte hadoop

Exécution de tâche spéculative Hadoop

L'écriture sur HDFS ne peut être répliquée que sur des nœuds au lieu de minReplication (= 1)

Avantages de l'utilisation de NullWritable dans Hadoop

hadoop.mapred vs hadoop.mapreduce?

Le format gzip est-il pris en charge dans Spark?

Test d'intégration des tâches Hive

Répertorier le namenode et les datanodes d'un cluster à partir de n'importe quel nœud?

Lecture de fichiers HDFS et locaux en Java

Tapez incompatibilité dans la clé de la carte: org.Apache.hadoop.io.Text attendu, reçu org.Apache.hadoop.io.LongWritable

Comment compiler OpenCV avec Java sous Linux en utilisant la ligne de commande? (Va l'utiliser dans MapReduce)

Taille de fractionnement d'entrée Hadoop par rapport à la taille de bloc

Pig vs Hive vs Native Map Réduire

carte hadoop réduire le tri secondaire

Hive ParseException - impossible de reconnaître une entrée proche de 'end' 'chaîne'

Comment obtenir le nom du fichier d'entrée dans le mappeur dans un programme Hadoop?

Erreur de mémoire insuffisante dans la phase de traitement aléatoire de Mapreduce

taille de bloc de données dans HDFS, pourquoi 64 Mo?

Mappeur entrée paire clé-valeur dans Hadoop

Les emplois MapReduce restent bloqués dans l'état Accepté

Le conteneur fonctionne au-delà des limites de la mémoire

Hadoop DistributedCache est obsolète. Quelle est l'API préférée?

Quel est le but de la phase de réorganisation et de tri dans le réducteur de la programmation de réduction de carte?

MapReduce ou Spark?

Problème de tâche Yarn MapReduce - Erreur de lancement du conteneur AM dans Hadoop 2.3.0

Hadoop: Java.lang.IncompatibleClassChangeError: Interface trouvée org.Apache.hadoop.mapreduce.JobContext, mais la classe était attendue

La clause $ in de MongoDB garantit-elle l'ordre

Vérifier si chaque élément du tableau correspond à la condition

PySpark Drop Rows

Comment spécifier l'ID de clé d'accès AWS et la clé d'accès secrète dans le cadre d'une URL Amazon s3n

Java8: HashMap <X, Y> à HashMap <X, Z> à l'aide de Stream/Map-réduire/Collector

Hadoop Map Reduce lire un fichier texte

Définition de jarres externes sur hadoop classpath

Réduire une paire clé-valeur en une paire liste-clés avec Apache Spark

TypeError: les index de la liste doivent être des entiers et non des str Python

Où est le chemin de classe pour hadoop

Exception dans le fil "principal" Java.lang.NoClassDefFoundError: com/google/common/base/Preconditions

À quoi sert le "mode uber" dans hadoop?

Hadoop Mapper échoue en raison de «Conteneur tué par ApplicationMaster»

Taille fractionnée vs taille de bloc dans Hadoop

Apache peut-il fonctionner sans hadoop?

Hadoop Mapreduce Error Le chemin d'entrée n'existe pas: hdfs: // localhost: 54310/user/hduser/input "

Writable et WritableComparable dans Hadoop?

création d'une partition dans une table externe dans la ruche

/ bin/bash:/bin/Java: aucun fichier ni répertoire de ce type

Le travail MapReduce se bloque, en attendant que le conteneur AM soit alloué

Nombre de réducteurs par défaut

IllegalAccessError au chronomètre Stop de la goyave de org.Apache.hadoop.mapreduce.lib.input.FileInputFormat.listStatus

Déployer votre propre ReduceByKey dans Spark Dataset

Obtenu InterruptedException lors de l'exécution du travail de réduction de nombre de mots

PySpark Comment lire CSV dans Dataframe et le manipuler

Nom de compteur Hadoop tronqué / incohérent

Échec de l'application à 2 reprises en raison d'un conteneur AM: quitté avec exitCode: 1

Pyspark Suppression des valeurs nulles d'une colonne dans la trame de données

Complexité cognitive et son effet sur le code