J'ai utilisé zohmg et créé avec succès mapper, table dans HBase et mes données importées en test (en utilisant --local switch).
Mais j'ai un problème d'insérer mes données après la cartographie dans HBase, cela est erreur que je reçois:Problème avec l'importation de données zohmg dans hbase
Exception in thread "main" java.lang.RuntimeException: class org.apache.hadoop.hbase.mapreduce.TableOutputFormat not org.apache.hadoop.mapred.OutputFormat
at org.apache.hadoop.conf.Configuration.setClass(Configuration.java:1034)
at org.apache.hadoop.mapred.JobConf.setOutputFormat(JobConf.java:471)
at org.apache.hadoop.streaming.StreamJob.setJobConf(StreamJob.java:818)
at org.apache.hadoop.streaming.StreamJob.run(StreamJob.java:122)
at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65)
at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:79)
at org.apache.hadoop.streaming.HadoopStreaming.main(HadoopStreaming.java:50)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.hadoop.util.RunJar.main(RunJar.java:186)
Avez-vous des indices qui pourraient me aider à résoudre ce problème? (Ou peut-être ce problème i avec Dumbo?)
Oui, ce projet n'est actuellement pas développé activement. Maintenant, je vois, que ce correctif n'a pas été validé, mais seul le fichier * .patch a été ajouté. – wlk
Mais je n'arrive toujours pas à le faire fonctionner avec CDH3, avec des patchs ou sans. – wlk