-
-
7make ./dsdgen -scale 1 -dir /tmp/data
-
3下面这个是4台96G内存的服务器集群,datablock size128M tpcds1000的测试结果 Q1: 40.155 secs Q2: 77.589 secs Q3: 612.771 sec
-
1cloudwave配置yarn: 进入到hadoop/etc/hadoop 1. 修改yarn-env.sh 加入java路径:export JAVA_HOME=/usr/lib/jvm/java 2. 修改mapred-s
-
2集群配置es : 1 [ES_HOME]/conf/elasticsearch.yml 1.1 所有节点的cluster.name 必须一致。顶格写,去掉注释。格式:clu
-
4客户端开发需要spark-assembly-1.5.2-hadoop2.5.0.jar,已经传到QQ群里 主节点~/.bashrc里要加 for i in `ls /usr/local/cloudwa
-
7Cloudwave的lib除了log相关的都放 各节点 hadoop的lib目录,因为log相关的有冲突 主节点~/.bashrc里要加 for i in `ls
-
0./hadoop jar cloudwave-test.jar com.cloudwave.mapreduce.CloudwaveMapReduceTest -libjars CloudWave.jar
-
0
-
2多个10KB文件 -- 40MB/s
-
0【例】 Hadoop集群: 192.168.2.9(Master:Online) 192.168.2.8(Slave:Standby) Hadoop启动后使用jps查看进程时发现少了namenode选项,于是决定
-
01个客户端 - 468s - 100 0000个1K文件 - 2MB/s 2个客户端 - 489s - 200 0000个1K文件 - 4MB/s 4个客户端 - 554s - 400 0000个1K文件 - 7MB/s
-
0l 测试目的: 测试翰云数据库通过ETL加载数据的性能指标。 l 测试标本: CREATE TABLE GMFZXYR ( ID NUMBER(44,22) , AJBH VARCHAR(30) , RYBH VARCHA
-
1100 0000个1KB的文件 20个线程读到内存 271s
-
126315kB/s import java.io.IOException; import java.sql.Connection; import java.sql.SQLException; import java.util.Properties; import com.clou
-
8节点014到017 100 0000个1024B的文件在/tmp/data目录 单线程 速度1522kB/s
-
1(1)修改配置文件:cdl-loadplan.xml不需要修改,cdl.properties文件需要注意autotablet和autotablet.pk的取值。 autotablet是false表示普通方式导数
-
0jps ps aux | grep 进程号
-
0cdl主要配置如下: cdl.auto.tablet=true cdl.auto.tablet.pk=true cdl.prebuild.tablets=false cdl.thread.count=1 cdl.collect.heapsize=192000000
-
0desc tablet-data <Schema>.<Table> <TabletId>
-
0CREATE TABLE REGION ( R_REGIONKEY INTEGER PRIMARY KEY, R_NAME CHAR(25), R_COMMENT VARCHAR(152) ); CREATE TABLE NATION ( N_NATIONKEY INTEGER
-
0CREATE TABLE REGION ( R_REGIONKEY INTEGER, R_NAME CHAR(25), R_COMMENT VARCHAR(152) ); CREATE TABLE NATION ( N_NATIONKEY INTEGER, N_NAME CHAR
-
0本地server的MasterServer返回给集群上客户端的TableServer的地址格式是windows格式而不是ip,导致在集群的客户端无法连本地的TableServer
-
4硬件 : Centos 64位,8G内存,4核CPU,相同网段(0.13和0.14节点) 条件:普通用户,结构表带有bfile字段 1) 500万数据,每条3K左右,共计14.5G。1
-
0CREATE TABLE REGION ( R_REGIONKEY INTEGER, R_NAME CHAR(25), R_COMMENT VARCHAR(152) ); CREATE TABLE NATION ( N_NATIONKEY INTEGER, N_NAME CHAR
-
01) 1000文件夹,每个文件夹10000个txt文件, 绝大部分文件1B-5KB,极少数文件1MB-100MB。每个文件夹约25M,总共27G,1000万条数据 测试结果:0.25KB/S
-
1q14,q23,q24,q39
-
1conn.commit(); ((CloudConnection) conn).checkPoint();
-
1while (result.next()) { int index = result.getInt(1); CloudPreparedStatement pstmt = (CloudPreparedStatement) conn .prepareStatement("d
-
0先求的where,partition是对where结果的再分区
-
1java -cp .:junit-4.5.jar:cloudwave-test.jar:CloudWave.jar org.junit.runner.JUnitCore com.cloudwave.guard.bfile.CloudBfileTest
-
0亲爱的各位吧友:欢迎来到翰云