spark 操作 hbase
2015-01-12 18:15
169 查看
添加hbase 的jar 包,在{SPARK_HOME}/conf/spark-env.sh 中添加<span style="white-space:pre"> </span>
<span style="white-space:pre"></span><pre name="code" class="plain">export SPARK_CLASSPATH=/usr/local/hbase/hbase-0.96.2-hadoop2/lib/*
spark 操作 hbase 跟 java 操作hbase 一样一样的。
import org.apache.spark._import org.apache.spark.rdd.NewHadoopRDDimport org.apache.hadoop.conf.Configuration;import org.apache.hadoop.hbase.HBaseConfiguration;import org.apache.hadoop.hbase.mapreduce.TableInputFormatimport org.apache.hadoop.hbase.client.HBaseAdminval configuration = HBaseConfiguration.create();configuration.set("hbase.zookeeper.property.clientPort", "2181");configuration.set("hbase.zookeeper.quorum", "ubuntu3,ubuntu1,ubuntu2");configuration.set("hbase.master", "ubuntu1:60000"); //设置hbase masterconfiguration.addResource("/usr/local/hbase/hbase-0.96.2-hadoop2/conf/hbase-site.xml")configuration.set(TableInputFormat.INPUT_TABLE, "person")val hadmin = new HBaseAdmin(configuration);val hrdd=sc.newAPIHadoopRDD(configuration,classOf[TableInputFormat],classOf[org.apache.hadoop.hbase.io.ImmutableBytesWritable],classOf[org.apache.hadoop.hbase.client.Result])hrdd.count
</pre><pre name="code" class="java">
相关文章推荐
- spark操作hbase
- Spark 下操作 HBase(1.0.0 新 API)
- spark操作HBASE
- Spark操作HBase问题:java.io.IOException: Non-increasing Bloom keys
- Spark操作HBase问题:java.io.IOException: Non-increasing Bloom keys
- Spark操作hbase
- spark-hbase数据操作心得
- Spark 下操作 HBase(1.0.0 新 API)
- spark操作hbase的javaapi
- spark 操作hbase及mysql
- Spark操作hbase
- Spark操作Hbase
- Spark中使用scala方式- 操作Hbase 表:增删改查
- Spark操作Hbase
- spark操作hbase
- Spark 操作 HBase 详解 spark1.4 hbase1.0
- spark操作hbase
- spark1.4 基于rdd操作hbase
- spark操作读取hbase实例
- spark-hbase数据操作心得