现在想用spark读取在192.xxx.xx.xx:xxxx这样一个地址上的hbase集群,用的是linux系统,最好是scala
像先用import org.apache.spark._import org.apache.spark.rdd.NewHadoopRDDimport org.apache.hadoop.hbase.{HBaseConfiguration, HTableDescriptor}import org.apache.hadoop.hbase.client.HBaseAdminimport org.apache.hadoop.hbase.mapreduce.TableInputFormat这样是知道的
主要想问怎么连接到那个地址。。。。
像先用import org.apache.spark._import org.apache.spark.rdd.NewHadoopRDDimport org.apache.hadoop.hbase.{HBaseConfiguration, HTableDescriptor}import org.apache.hadoop.hbase.client.HBaseAdminimport org.apache.hadoop.hbase.mapreduce.TableInputFormat这样是知道的
主要想问怎么连接到那个地址。。。。