[jira] [Created] (KYLIN-2257) executed sql query cannot be reproduced

2016-12-07 Thread Luyuan Zhai (JIRA)
Luyuan Zhai created KYLIN-2257:
--

 Summary: executed sql query cannot be reproduced
 Key: KYLIN-2257
 URL: https://issues.apache.org/jira/browse/KYLIN-2257
 Project: Kylin
  Issue Type: Bug
  Components: Web 
Affects Versions: v1.6.0
 Environment: windows
Reporter: Luyuan Zhai
Assignee: Zhong,Jason
Priority: Minor


I've done several sql query and click the result record to reproduce these sql. 
They worked well at the first time, yet cannot be reproduced in the query 
window simultaneously. 



--
This message was sent by Atlassian JIRA
(v6.3.4#6332)


[jira] [Created] (KYLIN-2256) No horizontal scroll bar in insight result window

2016-12-07 Thread Luyuan Zhai (JIRA)
Luyuan Zhai created KYLIN-2256:
--

 Summary: No horizontal scroll bar in insight result window
 Key: KYLIN-2256
 URL: https://issues.apache.org/jira/browse/KYLIN-2256
 Project: Kylin
  Issue Type: Improvement
  Components: Web 
Affects Versions: v1.6.0
 Environment: windows
Reporter: Luyuan Zhai
Assignee: Zhong,Jason
Priority: Minor


I used learn_kylin as my data source and inputed SQL as: select * from 
kylin_sales limit 5. Then results returned below and in the result window, yet 
I cannot find a horizontal scroll bar to move from left to right even the 
kylin_sales table's width is longer than the result window.



--
This message was sent by Atlassian JIRA
(v6.3.4#6332)


kylin 1.6.0 cardinality can't greater than 5000000 ?

2016-12-07 Thread wang...@snqu.com
I improved the version from 1.5.4.1 to 1.6.0 and modified KYLIN_HOME, and 
modied "kylin.dictionary.max.cardinality=500" to   
"kylin.dictionary.max.cardinality=3000" in file kylin.properties, 
then start kylin 1.6-->create model-->create cube-->build cube
   I got the following error message:

java.lang.RuntimeException: Failed to create dictionary on 
DEFAULT.TEST_500W_TBL.ROWKEY
at 
org.apache.kylin.dict.DictionaryManager.buildDictionary(DictionaryManager.java:325)
at org.apache.kylin.cube.CubeManager.buildDictionary(CubeManager.java:222)
at 
org.apache.kylin.cube.cli.DictionaryGeneratorCLI.processSegment(DictionaryGeneratorCLI.java:50)
at 
org.apache.kylin.cube.cli.DictionaryGeneratorCLI.processSegment(DictionaryGeneratorCLI.java:41)
at 
org.apache.kylin.engine.mr.steps.CreateDictionaryJob.run(CreateDictionaryJob.java:54)
at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70)
at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:84)
at 
org.apache.kylin.engine.mr.common.HadoopShellExecutable.doWork(HadoopShellExecutable.java:63)
at 
org.apache.kylin.job.execution.AbstractExecutable.execute(AbstractExecutable.java:113)
at 
org.apache.kylin.job.execution.DefaultChainedExecutable.doWork(DefaultChainedExecutable.java:57)
at 
org.apache.kylin.job.execution.AbstractExecutable.execute(AbstractExecutable.java:113)
at 
org.apache.kylin.job.impl.threadpool.DefaultScheduler$JobRunner.run(DefaultScheduler.java:136)
at 
java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
at 
java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
at java.lang.Thread.run(Thread.java:745)
Caused by: java.lang.IllegalArgumentException: Too high cardinality is not 
suitable for dictionary -- cardinality: 5359970
at 
org.apache.kylin.dict.DictionaryGenerator.buildDictionary(DictionaryGenerator.java:96)





Re: Issues in building cubes of Apache Kylin

2016-12-07 Thread Billy Liu
Seems you were not using any Hadoop distribution, such HDP or CDH, but
Apache Hadoop, Apache Hive and Apache HBase.

Could you try export HIVE_CONF to your hive config path first?


2016-12-08 13:53 GMT+08:00 Samirul Haque :

> Hi Billy,
>
>
>
> Thanks for your response.
>
>
>
> Output of the bin/find-dependency.sh is :
>
>
>
> KYLIN_HOME is set to /usr/local/kylin
>
> SLF4J: Class path contains multiple SLF4J bindings.
>
> SLF4J: Found binding in [jar:file:/usr/local/hive/lib/
> log4j-slf4j-impl-2.4.1.jar!/org/slf4j/impl/StaticLoggerBinder.class]
>
> SLF4J: Found binding in [jar:file:/usr/local/hadoop/
> share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/
> impl/StaticLoggerBinder.class]
>
> SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an
> explanation.
>
> SLF4J: Actual binding is of type [org.apache.logging.slf4j.
> Log4jLoggerFactory]
>
>
>
> Logging initialized using configuration in jar:file:/usr/local/hive/lib/
> hive-common-2.1.0.jar!/hive-log4j2.properties Async: true
>
> HIVE_CONF is set to: /home/hduser/bin:/home/hduser/
> .local/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/
> bin:/sbin:/bin:/usr/games:/usr/local/games:/usr/local/
> hadoop/bin:/usr/lib/jvm/java-8-openjdk-amd64/bin:/usr/
> local/hive/bin:/usr/local/kylin/bin:/usr/local/Hbase/
> bin:/usr/local/hadoop/bin:/usr/lib/jvm/java-8-openjdk-
> amd64/bin:/usr/local/hive/bin:/usr/local/kylin/bin:/usr/
> local/Hbase/bin:/usr/local/hadoop/bin:/usr/lib/jvm/java-
> 8-openjdk-amd64/bin:/usr/local/hive/bin:/usr/local/
> kylin/bin:/usr/local/Hbase/bin:/usr/local/hadoop/bin:/
> usr/lib/jvm/java-8-openjdk-amd64/bin:/usr/local/hive/bin:
> /usr/local/kylin/bin:/usr/local/Hbase/bin:/usr/local/
> hadoop/bin:/usr/lib/jvm/java-8-openjdk-amd64/bin:/usr/
> local/hive/bin:/usr/local/kylin/bin:/usr/local/Hbase/
> bin:/usr/local/hadoop/bin:/usr/lib/jvm/java-8-openjdk-
> amd64/bin:/usr/local/hive/bin:/usr/local/kylin/bin:/usr/
> local/Hbase/bin:/usr/local/hive/conf, use it to locate hive
> configurations.
>
> HCAT_HOME is set to: /usr/local/hive/hcatalog, use it to find hcatalog
> path:
>
> hive dependency: /home/hduser/bin:/home/hduser/
> .local/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/
> bin:/sbin:/bin:/usr/games:/usr/local/games:/usr/local/
> hadoop/bin:/usr/lib/jvm/java-8-openjdk-amd64/bin:/usr/
> local/hive/bin:/usr/local/kylin/bin:/usr/local/Hbase/
> bin:/usr/local/hadoop/bin:/usr/lib/jvm/java-8-openjdk-
> amd64/bin:/usr/local/hive/bin:/usr/local/kylin/bin:/usr/
> local/Hbase/bin:/usr/local/hadoop/bin:/usr/lib/jvm/java-
> 8-openjdk-amd64/bin:/usr/local/hive/bin:/usr/local/
> kylin/bin:/usr/local/Hbase/bin:/usr/local/hadoop/bin:/
> usr/lib/jvm/java-8-openjdk-amd64/bin:/usr/local/hive/bin:
> /usr/local/kylin/bin:/usr/local/Hbase/bin:/usr/local/
> hadoop/bin:/usr/lib/jvm/java-8-openjdk-amd64/bin:/usr/
> local/hive/bin:/usr/local/kylin/bin:/usr/local/Hbase/
> bin:/usr/local/hadoop/bin:/usr/lib/jvm/java-8-openjdk-
> amd64/bin:/usr/local/hive/bin:/usr/local/kylin/bin:/usr/
> local/Hbase/bin:/usr/local/hive/conf:/usr/local/hive/lib/
> antlr-runtime-3.4.jar:/usr/local/hive/lib/servlet-api-2.
> 4.jar:/usr/local/hive/lib/hive-llap-client-2.1.0.jar:/
> usr/local/hive/lib/twill-zookeeper-0.6.0-incubating.
> jar:/usr/local/hive/lib/bonecp-0.8.0.RELEASE.jar:/usr/
> local/hive/lib/hbase-annotations-1.1.1.jar:/usr/
> local/hive/lib/zookeeper-3.4.6.jar:/usr/local/hive/lib/
> guice-assistedinject-3.0.jar:/usr/local/hive/lib/ivy-2.4.0.
> jar:/usr/local/hive/lib/datanucleus-rdbms-4.1.7.jar:/
> usr/local/hive/lib/parquet-hadoop-bundle-1.8.1.jar:/usr/
> local/hive/lib/hive-exec-2.1.0.jar:/usr/local/hive/lib/
> hbase-common-1.1.1.jar:/usr/local/hive/lib/commons-lang3-
> 3.1.jar:/usr/local/hive/lib/commons-pool-1.5.4.jar:/usr/
> local/hive/lib/accumulo-start-1.6.0.jar:/usr/local/hive/lib/
> twill-common-0.6.0-incubating.jar:/usr/local/hive/lib/jetty-
> 6.1.26.jar:/usr/local/hive/lib/jackson-core-2.4.2.jar:/
> usr/local/hive/lib/commons-httpclient-3.0.1.jar:/usr/
> local/hive/lib/hive-jdbc-2.1.0.jar:/usr/local/hive/lib/
> hive-serde-2.1.0.jar:/usr/local/hive/lib/hbase-prefix-
> tree-1.1.1.jar:/usr/local/hive/lib/commons-lang-2.6.jar:
> /usr/local/hive/lib/opencsv-2.3.jar:/usr/local/hive/lib/jsp-
> api-2.1.jar:/usr/local/hive/lib/antlr-2.7.7.jar:/usr/
> local/hive/lib/libfb303-0.9.3.jar:/usr/local/hive/lib/
> slider-core-0.90.2-incubating.jar:/usr/local/hive/lib/jsp-2.
> 1-6.1.14.jar:/usr/local/hive/lib/metrics-json-3.1.0.jar:/
> usr/local/hive/lib/log4j-slf4j-impl-2.4.1.jar:/usr/
> local/hive/lib/jamon-runtime-2.3.1.jar:/usr/local/hive/lib/
> avro-1.7.7.jar:/usr/local/hive/lib/jetty-all-server-7.6.
> 0.v20120127.jar:/usr/local/hive/lib/activation-1.1.jar:/
> usr/local/hive/lib/derby.jar:/usr/local/hive/lib/stax-api-1.
> 0.1.jar:/usr/local/hive/lib/tephra-api-0.6.0.jar:/usr/
> local/hive/lib/netty-all-4.0.23.Final.jar:/usr/local/hive/
> lib/jersey-client-1.9.jar:/usr/local/hive/lib/metrics-
> core-3.1.0.jar:/usr/local/hive/lib/paranamer-2.

回复:Re: 答复: 答复: 回复:答复: Kylin1.6.0流式Cube查询时间错误

2016-12-07 Thread 汪胜
对于SQL查询记录早了8小时的问题,我使用了JDBC和Kylin 
WEB两种方式进行测试,结果都是查询记录早了8小时。这说明Kylin服务端从HBase中扫描记录时,读取的记录就已经比实际时间早了8小时。所以,可能是Kylin服务端在处理kafka数据的时候,对于时间的处理有些问题。





在2016年12月8日 12:36, Jian Zhong写道:

So, you can get right result you want for non-streaming cube?

Did you query on Kylin UI or use jdbc driver?

2016-12-08 12:32 GMT+08:00 仇同心 :

> streaming cube
>
> -邮件原件-
> 发件人: Jian Zhong [mailto:zhongj...@apache.org]
> 发送时间: 2016年12月8日 12:32
> 收件人: dev@kylin.apache.org
> 主题: Re: 答复: 回复:答复: Kylin1.6.0流式Cube查询时间错误
>
> this only happens in streaming cube or all cubes?
>
> 2016-12-08 11:28 GMT+08:00 Billy Liu :
>
> > here here some threads about getting the right Date from Kylin
> > http://apache-kylin.74782.x6.nabble.com/JDBC-query-result-
> > Date-column-get-wrong-value-td5370.html
> >
> > 在 2016年12月8日 上午11:09,仇同心 写道:
> >
> > > 是的,构建好的segment进行SQL查询的时候,发现这些查询记录的时间也都是早了8小时
> > >
> > >
> > >
> > > -邮件原件-
> > > 发件人: 汪胜 [mailto:sky...@163.com]
> > > 发送时间: 2016年12月8日 11:06
> > > 收件人: dev
> > > 主题: 回复:答复: Kylin1.6.0流式Cube查询时间错误
> > >
> > > 我在查看前端页面代码的时候,发现传到前端的start time和end time都是timestamp的形式,
> > > 我自己对这些timestamp进行转换的时候,发现时间是正确。因此我觉得有可能是前端在转换这些timestamp的时候,
> > > 没有考虑到配置文件的时区问题,但是我还没有进行验证。
> > > 除此之外,我在对构建好的segment进行SQL查询的时候,发现这些查询记录的时间也都是早了8小时,不知道你有没有碰到这个问题?
> > >
> > >
> > >
> > >
> > >
> > > 在2016年12月8日 10:57, 仇同心写道:
> > >
> > > 我也遇到了一样的问题,cube的Last Build Time 是正确的:2016-12-08 10:48:37 GMT+8
> > >
> > > 但是segment的时间早8个小时:
> > > Start Time: 2016-12-08 02:44:00
> > > End Time: 2016-12-08 02:45:00
> > >
> > > 请问这个问题是kylin哪里造成的?
> > >
> > >
> > > 发件人: 汪胜 [mailto:sky...@163.com]
> > > 发送时间: 2016年12月6日 21:17
> > > 收件人: dev
> > > 主题: Re: Kylin1.6.0流式Cube查询时间错误
> > >
> > > 你好,
> > > 非常感谢您的回答,但是我仍然有两个地方不太理解,望指教:
> > >
> > > 1 如果kylin.properties改的是页面上显示的时间,那么为什么在web页面的“Storage”
> > 标签下显示的每个segment的start
> > > time和end time则比电脑早了8个小时,但是cube的创建时间和最后一次修改时间显示却是正确的。
> > > 我在HBase中查看对应cube的JSON数据,在这里面每个segment的起始和结束时间的timestamp,用mysql的from_
> > > unixtime函数转换之后与电脑上的时间是一致的,这是否是前端页面解析的问题?
> > > --
> > > [cid:56910fa5$1$158d4477d62$Coremail$skyyws$163.com]
> > > ---
> > > [cid:1deff3e1$2$158d4477d63$Coremail$skyyws$163.com]
> > > --
> > > [cid:6448603e$3$158d4477d63$Coremail$skyyws$163.com]
> > >
> > > 2
> > > 您说的流式Cube用脚本启动之后,应该手动加上8小时,是否是指:Kylin服务端在处理kafka的数据时,时间会比电脑上的时间少8小时?
> > > (
> > > 我在对流式Cube进行SQL查询时,发现Kylin服务端返回的每一列的时间都比电脑上的晚了8小时)
> > >
> > > [cid:d96b8d1$4$158d4477d63$Coremail$skyyws$163.com]
> > > 这个数据是通过IDEA远程调试得到的来自Kylin服务器的数据,是Kylin通过查询HBase之后返回的。
> > > 每一列数据的时间都比电脑上的实际时间晚了8小时。
> > >
> > >
> > >
> > >
> > > 在2016年12月6日 20:30, Mario Copperfield  > > whfcen...@gmail.com>> 写道:
> > > > kylin.properties改的应该是页面上显示的时间,流式Cube用脚本启动了话和页面上的时间是不一致的,应该手动加上8小时
> > >
> > > On 6 Dec 2016, 19:40 +0800, 汪胜
> > > mailto:sky...@163.com>>,
> > > wrote:
> > > > 你好,
> > > > 我在安装了Kylin1.6.0之后,根据官网的教程,成功地构建了流式cube。但在进行SQL查询的时候,
> > 发现所有的“MINUTE_START”
> > > 列的时间比实际时间少了8个小时,而且在WEB页面上,每个流式segment的起始和结束时间也少了8个小时,
> > > 但是cube的创建时间和最后一次修改时间都是正确的,请问可能是什么原因呢?
> > > > 注:我在kylin.properties文件中将timezone改为了GMT+8
> > >
> > >
> > >
> > >
> >
>


回复:Re: 答复: 答复: 回复:答复: Kylin1.6.0流式Cube查询时间错误

2016-12-07 Thread 汪胜
  我之前使用Kylin的时候从来没有出现过这种问题。在安装Kylin1.6.0之后,才出现这种问题的。
  我在HBase里面查看流式cube对应的json数据时,每个segment的start time和end 
time对应的timestamp都是正确的,但是在Kylin 
WEB上显示的就早了8小时。用JDBC获取的timestamp肯定也是正确的,所以应该是Kylin WEB转换的问题。






在2016年12月8日 12:36, Jian Zhong写道:

So, you can get right result you want for non-streaming cube?

Did you query on Kylin UI or use jdbc driver?

2016-12-08 12:32 GMT+08:00 仇同心 :

> streaming cube
>
> -邮件原件-
> 发件人: Jian Zhong [mailto:zhongj...@apache.org]
> 发送时间: 2016年12月8日 12:32
> 收件人: dev@kylin.apache.org
> 主题: Re: 答复: 回复:答复: Kylin1.6.0流式Cube查询时间错误
>
> this only happens in streaming cube or all cubes?
>
> 2016-12-08 11:28 GMT+08:00 Billy Liu :
>
> > here here some threads about getting the right Date from Kylin
> > http://apache-kylin.74782.x6.nabble.com/JDBC-query-result-
> > Date-column-get-wrong-value-td5370.html
> >
> > 在 2016年12月8日 上午11:09,仇同心 写道:
> >
> > > 是的,构建好的segment进行SQL查询的时候,发现这些查询记录的时间也都是早了8小时
> > >
> > >
> > >
> > > -邮件原件-
> > > 发件人: 汪胜 [mailto:sky...@163.com]
> > > 发送时间: 2016年12月8日 11:06
> > > 收件人: dev
> > > 主题: 回复:答复: Kylin1.6.0流式Cube查询时间错误
> > >
> > > 我在查看前端页面代码的时候,发现传到前端的start time和end time都是timestamp的形式,
> > > 我自己对这些timestamp进行转换的时候,发现时间是正确。因此我觉得有可能是前端在转换这些timestamp的时候,
> > > 没有考虑到配置文件的时区问题,但是我还没有进行验证。
> > > 除此之外,我在对构建好的segment进行SQL查询的时候,发现这些查询记录的时间也都是早了8小时,不知道你有没有碰到这个问题?
> > >
> > >
> > >
> > >
> > >
> > > 在2016年12月8日 10:57, 仇同心写道:
> > >
> > > 我也遇到了一样的问题,cube的Last Build Time 是正确的:2016-12-08 10:48:37 GMT+8
> > >
> > > 但是segment的时间早8个小时:
> > > Start Time: 2016-12-08 02:44:00
> > > End Time: 2016-12-08 02:45:00
> > >
> > > 请问这个问题是kylin哪里造成的?
> > >
> > >
> > > 发件人: 汪胜 [mailto:sky...@163.com]
> > > 发送时间: 2016年12月6日 21:17
> > > 收件人: dev
> > > 主题: Re: Kylin1.6.0流式Cube查询时间错误
> > >
> > > 你好,
> > > 非常感谢您的回答,但是我仍然有两个地方不太理解,望指教:
> > >
> > > 1 如果kylin.properties改的是页面上显示的时间,那么为什么在web页面的“Storage”
> > 标签下显示的每个segment的start
> > > time和end time则比电脑早了8个小时,但是cube的创建时间和最后一次修改时间显示却是正确的。
> > > 我在HBase中查看对应cube的JSON数据,在这里面每个segment的起始和结束时间的timestamp,用mysql的from_
> > > unixtime函数转换之后与电脑上的时间是一致的,这是否是前端页面解析的问题?
> > > --
> > > [cid:56910fa5$1$158d4477d62$Coremail$skyyws$163.com]
> > > ---
> > > [cid:1deff3e1$2$158d4477d63$Coremail$skyyws$163.com]
> > > --
> > > [cid:6448603e$3$158d4477d63$Coremail$skyyws$163.com]
> > >
> > > 2
> > > 您说的流式Cube用脚本启动之后,应该手动加上8小时,是否是指:Kylin服务端在处理kafka的数据时,时间会比电脑上的时间少8小时?
> > > (
> > > 我在对流式Cube进行SQL查询时,发现Kylin服务端返回的每一列的时间都比电脑上的晚了8小时)
> > >
> > > [cid:d96b8d1$4$158d4477d63$Coremail$skyyws$163.com]
> > > 这个数据是通过IDEA远程调试得到的来自Kylin服务器的数据,是Kylin通过查询HBase之后返回的。
> > > 每一列数据的时间都比电脑上的实际时间晚了8小时。
> > >
> > >
> > >
> > >
> > > 在2016年12月6日 20:30, Mario Copperfield  > > whfcen...@gmail.com>> 写道:
> > > > kylin.properties改的应该是页面上显示的时间,流式Cube用脚本启动了话和页面上的时间是不一致的,应该手动加上8小时
> > >
> > > On 6 Dec 2016, 19:40 +0800, 汪胜
> > > mailto:sky...@163.com>>,
> > > wrote:
> > > > 你好,
> > > > 我在安装了Kylin1.6.0之后,根据官网的教程,成功地构建了流式cube。但在进行SQL查询的时候,
> > 发现所有的“MINUTE_START”
> > > 列的时间比实际时间少了8个小时,而且在WEB页面上,每个流式segment的起始和结束时间也少了8个小时,
> > > 但是cube的创建时间和最后一次修改时间都是正确的,请问可能是什么原因呢?
> > > > 注:我在kylin.properties文件中将timezone改为了GMT+8
> > >
> > >
> > >
> > >
> >
>


Re: 答复: 答复: 回复:答复: Kylin1.6.0流式Cube查询时间错误

2016-12-07 Thread Jian Zhong
So, you can get right result you want for non-streaming cube?

Did you query on Kylin UI or use jdbc driver?

2016-12-08 12:32 GMT+08:00 仇同心 :

> streaming cube
>
> -邮件原件-
> 发件人: Jian Zhong [mailto:zhongj...@apache.org]
> 发送时间: 2016年12月8日 12:32
> 收件人: dev@kylin.apache.org
> 主题: Re: 答复: 回复:答复: Kylin1.6.0流式Cube查询时间错误
>
> this only happens in streaming cube or all cubes?
>
> 2016-12-08 11:28 GMT+08:00 Billy Liu :
>
> > here here some threads about getting the right Date from Kylin
> > http://apache-kylin.74782.x6.nabble.com/JDBC-query-result-
> > Date-column-get-wrong-value-td5370.html
> >
> > 在 2016年12月8日 上午11:09,仇同心 写道:
> >
> > > 是的,构建好的segment进行SQL查询的时候,发现这些查询记录的时间也都是早了8小时
> > >
> > >
> > >
> > > -邮件原件-
> > > 发件人: 汪胜 [mailto:sky...@163.com]
> > > 发送时间: 2016年12月8日 11:06
> > > 收件人: dev
> > > 主题: 回复:答复: Kylin1.6.0流式Cube查询时间错误
> > >
> > > 我在查看前端页面代码的时候,发现传到前端的start time和end time都是timestamp的形式,
> > > 我自己对这些timestamp进行转换的时候,发现时间是正确。因此我觉得有可能是前端在转换这些timestamp的时候,
> > > 没有考虑到配置文件的时区问题,但是我还没有进行验证。
> > > 除此之外,我在对构建好的segment进行SQL查询的时候,发现这些查询记录的时间也都是早了8小时,不知道你有没有碰到这个问题?
> > >
> > >
> > >
> > >
> > >
> > > 在2016年12月8日 10:57, 仇同心写道:
> > >
> > > 我也遇到了一样的问题,cube的Last Build Time 是正确的:2016-12-08 10:48:37 GMT+8
> > >
> > > 但是segment的时间早8个小时:
> > > Start Time: 2016-12-08 02:44:00
> > > End Time: 2016-12-08 02:45:00
> > >
> > > 请问这个问题是kylin哪里造成的?
> > >
> > >
> > > 发件人: 汪胜 [mailto:sky...@163.com]
> > > 发送时间: 2016年12月6日 21:17
> > > 收件人: dev
> > > 主题: Re: Kylin1.6.0流式Cube查询时间错误
> > >
> > > 你好,
> > > 非常感谢您的回答,但是我仍然有两个地方不太理解,望指教:
> > >
> > > 1 如果kylin.properties改的是页面上显示的时间,那么为什么在web页面的“Storage”
> > 标签下显示的每个segment的start
> > > time和end time则比电脑早了8个小时,但是cube的创建时间和最后一次修改时间显示却是正确的。
> > > 我在HBase中查看对应cube的JSON数据,在这里面每个segment的起始和结束时间的timestamp,用mysql的from_
> > > unixtime函数转换之后与电脑上的时间是一致的,这是否是前端页面解析的问题?
> > > --
> > > [cid:56910fa5$1$158d4477d62$Coremail$skyyws$163.com]
> > > ---
> > > [cid:1deff3e1$2$158d4477d63$Coremail$skyyws$163.com]
> > > --
> > > [cid:6448603e$3$158d4477d63$Coremail$skyyws$163.com]
> > >
> > > 2
> > > 您说的流式Cube用脚本启动之后,应该手动加上8小时,是否是指:Kylin服务端在处理kafka的数据时,时间会比电脑上的时间少8小时?
> > > (
> > > 我在对流式Cube进行SQL查询时,发现Kylin服务端返回的每一列的时间都比电脑上的晚了8小时)
> > >
> > > [cid:d96b8d1$4$158d4477d63$Coremail$skyyws$163.com]
> > > 这个数据是通过IDEA远程调试得到的来自Kylin服务器的数据,是Kylin通过查询HBase之后返回的。
> > > 每一列数据的时间都比电脑上的实际时间晚了8小时。
> > >
> > >
> > >
> > >
> > > 在2016年12月6日 20:30, Mario Copperfield  > > whfcen...@gmail.com>> 写道:
> > > > kylin.properties改的应该是页面上显示的时间,流式Cube用脚本启动了话和页面上的时间是不一致的,应该手动加上8小时
> > >
> > > On 6 Dec 2016, 19:40 +0800, 汪胜
> > > mailto:sky...@163.com>>,
> > > wrote:
> > > > 你好,
> > > > 我在安装了Kylin1.6.0之后,根据官网的教程,成功地构建了流式cube。但在进行SQL查询的时候,
> > 发现所有的“MINUTE_START”
> > > 列的时间比实际时间少了8个小时,而且在WEB页面上,每个流式segment的起始和结束时间也少了8个小时,
> > > 但是cube的创建时间和最后一次修改时间都是正确的,请问可能是什么原因呢?
> > > > 注:我在kylin.properties文件中将timezone改为了GMT+8
> > >
> > >
> > >
> > >
> >
>


答复: 答复: 回复:答复: Kylin1.6.0流式Cube查询时间错误

2016-12-07 Thread 仇同心
streaming cube

-邮件原件-
发件人: Jian Zhong [mailto:zhongj...@apache.org] 
发送时间: 2016年12月8日 12:32
收件人: dev@kylin.apache.org
主题: Re: 答复: 回复:答复: Kylin1.6.0流式Cube查询时间错误

this only happens in streaming cube or all cubes?

2016-12-08 11:28 GMT+08:00 Billy Liu :

> here here some threads about getting the right Date from Kylin
> http://apache-kylin.74782.x6.nabble.com/JDBC-query-result-
> Date-column-get-wrong-value-td5370.html
>
> 在 2016年12月8日 上午11:09,仇同心 写道:
>
> > 是的,构建好的segment进行SQL查询的时候,发现这些查询记录的时间也都是早了8小时
> >
> >
> >
> > -邮件原件-
> > 发件人: 汪胜 [mailto:sky...@163.com]
> > 发送时间: 2016年12月8日 11:06
> > 收件人: dev
> > 主题: 回复:答复: Kylin1.6.0流式Cube查询时间错误
> >
> > 我在查看前端页面代码的时候,发现传到前端的start time和end time都是timestamp的形式,
> > 我自己对这些timestamp进行转换的时候,发现时间是正确。因此我觉得有可能是前端在转换这些timestamp的时候,
> > 没有考虑到配置文件的时区问题,但是我还没有进行验证。
> > 除此之外,我在对构建好的segment进行SQL查询的时候,发现这些查询记录的时间也都是早了8小时,不知道你有没有碰到这个问题?
> >
> >
> >
> >
> >
> > 在2016年12月8日 10:57, 仇同心写道:
> >
> > 我也遇到了一样的问题,cube的Last Build Time 是正确的:2016-12-08 10:48:37 GMT+8
> >
> > 但是segment的时间早8个小时:
> > Start Time: 2016-12-08 02:44:00
> > End Time: 2016-12-08 02:45:00
> >
> > 请问这个问题是kylin哪里造成的?
> >
> >
> > 发件人: 汪胜 [mailto:sky...@163.com]
> > 发送时间: 2016年12月6日 21:17
> > 收件人: dev
> > 主题: Re: Kylin1.6.0流式Cube查询时间错误
> >
> > 你好,
> > 非常感谢您的回答,但是我仍然有两个地方不太理解,望指教:
> >
> > 1 如果kylin.properties改的是页面上显示的时间,那么为什么在web页面的“Storage”
> 标签下显示的每个segment的start
> > time和end time则比电脑早了8个小时,但是cube的创建时间和最后一次修改时间显示却是正确的。
> > 我在HBase中查看对应cube的JSON数据,在这里面每个segment的起始和结束时间的timestamp,用mysql的from_
> > unixtime函数转换之后与电脑上的时间是一致的,这是否是前端页面解析的问题?
> > --
> > [cid:56910fa5$1$158d4477d62$Coremail$skyyws$163.com]
> > ---
> > [cid:1deff3e1$2$158d4477d63$Coremail$skyyws$163.com]
> > --
> > [cid:6448603e$3$158d4477d63$Coremail$skyyws$163.com]
> >
> > 2 
> > 您说的流式Cube用脚本启动之后,应该手动加上8小时,是否是指:Kylin服务端在处理kafka的数据时,时间会比电脑上的时间少8小时?
> > (
> > 我在对流式Cube进行SQL查询时,发现Kylin服务端返回的每一列的时间都比电脑上的晚了8小时)
> >
> > [cid:d96b8d1$4$158d4477d63$Coremail$skyyws$163.com]
> > 这个数据是通过IDEA远程调试得到的来自Kylin服务器的数据,是Kylin通过查询HBase之后返回的。
> > 每一列数据的时间都比电脑上的实际时间晚了8小时。
> >
> >
> >
> >
> > 在2016年12月6日 20:30, Mario Copperfield  > whfcen...@gmail.com>> 写道:
> > > kylin.properties改的应该是页面上显示的时间,流式Cube用脚本启动了话和页面上的时间是不一致的,应该手动加上8小时
> >
> > On 6 Dec 2016, 19:40 +0800, 汪胜 
> > mailto:sky...@163.com>>,
> > wrote:
> > > 你好,
> > > 我在安装了Kylin1.6.0之后,根据官网的教程,成功地构建了流式cube。但在进行SQL查询的时候,
> 发现所有的“MINUTE_START”
> > 列的时间比实际时间少了8个小时,而且在WEB页面上,每个流式segment的起始和结束时间也少了8个小时,
> > 但是cube的创建时间和最后一次修改时间都是正确的,请问可能是什么原因呢?
> > > 注:我在kylin.properties文件中将timezone改为了GMT+8
> >
> >
> >
> >
>


Re: 答复: 回复:答复: Kylin1.6.0流式Cube查询时间错误

2016-12-07 Thread Jian Zhong
this only happens in streaming cube or all cubes?

2016-12-08 11:28 GMT+08:00 Billy Liu :

> here here some threads about getting the right Date from Kylin
> http://apache-kylin.74782.x6.nabble.com/JDBC-query-result-
> Date-column-get-wrong-value-td5370.html
>
> 在 2016年12月8日 上午11:09,仇同心 写道:
>
> > 是的,构建好的segment进行SQL查询的时候,发现这些查询记录的时间也都是早了8小时
> >
> >
> >
> > -邮件原件-
> > 发件人: 汪胜 [mailto:sky...@163.com]
> > 发送时间: 2016年12月8日 11:06
> > 收件人: dev
> > 主题: 回复:答复: Kylin1.6.0流式Cube查询时间错误
> >
> > 我在查看前端页面代码的时候,发现传到前端的start time和end time都是timestamp的形式,
> > 我自己对这些timestamp进行转换的时候,发现时间是正确。因此我觉得有可能是前端在转换这些timestamp的时候,
> > 没有考虑到配置文件的时区问题,但是我还没有进行验证。
> > 除此之外,我在对构建好的segment进行SQL查询的时候,发现这些查询记录的时间也都是早了8小时,不知道你有没有碰到这个问题?
> >
> >
> >
> >
> >
> > 在2016年12月8日 10:57, 仇同心写道:
> >
> > 我也遇到了一样的问题,cube的Last Build Time 是正确的:2016-12-08 10:48:37 GMT+8
> >
> > 但是segment的时间早8个小时:
> > Start Time: 2016-12-08 02:44:00
> > End Time: 2016-12-08 02:45:00
> >
> > 请问这个问题是kylin哪里造成的?
> >
> >
> > 发件人: 汪胜 [mailto:sky...@163.com]
> > 发送时间: 2016年12月6日 21:17
> > 收件人: dev
> > 主题: Re: Kylin1.6.0流式Cube查询时间错误
> >
> > 你好,
> > 非常感谢您的回答,但是我仍然有两个地方不太理解,望指教:
> >
> > 1 如果kylin.properties改的是页面上显示的时间,那么为什么在web页面的“Storage”
> 标签下显示的每个segment的start
> > time和end time则比电脑早了8个小时,但是cube的创建时间和最后一次修改时间显示却是正确的。
> > 我在HBase中查看对应cube的JSON数据,在这里面每个segment的起始和结束时间的timestamp,用mysql的from_
> > unixtime函数转换之后与电脑上的时间是一致的,这是否是前端页面解析的问题?
> > --
> > [cid:56910fa5$1$158d4477d62$Coremail$skyyws$163.com]
> > ---
> > [cid:1deff3e1$2$158d4477d63$Coremail$skyyws$163.com]
> > --
> > [cid:6448603e$3$158d4477d63$Coremail$skyyws$163.com]
> >
> > 2 您说的流式Cube用脚本启动之后,应该手动加上8小时,是否是指:Kylin服务端在处理kafka的数据时,时间会比电脑上的时间少8小时?(
> > 我在对流式Cube进行SQL查询时,发现Kylin服务端返回的每一列的时间都比电脑上的晚了8小时)
> >
> > [cid:d96b8d1$4$158d4477d63$Coremail$skyyws$163.com]
> > 这个数据是通过IDEA远程调试得到的来自Kylin服务器的数据,是Kylin通过查询HBase之后返回的。
> > 每一列数据的时间都比电脑上的实际时间晚了8小时。
> >
> >
> >
> >
> > 在2016年12月6日 20:30, Mario Copperfield  > whfcen...@gmail.com>> 写道:
> > > kylin.properties改的应该是页面上显示的时间,流式Cube用脚本启动了话和页面上的时间是不一致的,应该手动加上8小时
> >
> > On 6 Dec 2016, 19:40 +0800, 汪胜 mailto:sky...@163.com>>,
> > wrote:
> > > 你好,
> > > 我在安装了Kylin1.6.0之后,根据官网的教程,成功地构建了流式cube。但在进行SQL查询的时候,
> 发现所有的“MINUTE_START”
> > 列的时间比实际时间少了8个小时,而且在WEB页面上,每个流式segment的起始和结束时间也少了8个小时,
> > 但是cube的创建时间和最后一次修改时间都是正确的,请问可能是什么原因呢?
> > > 注:我在kylin.properties文件中将timezone改为了GMT+8
> >
> >
> >
> >
>


Re: 答复: 回复:答复: Kylin1.6.0流式Cube查询时间错误

2016-12-07 Thread Billy Liu
here here some threads about getting the right Date from Kylin
http://apache-kylin.74782.x6.nabble.com/JDBC-query-result-Date-column-get-wrong-value-td5370.html

在 2016年12月8日 上午11:09,仇同心 写道:

> 是的,构建好的segment进行SQL查询的时候,发现这些查询记录的时间也都是早了8小时
>
>
>
> -邮件原件-
> 发件人: 汪胜 [mailto:sky...@163.com]
> 发送时间: 2016年12月8日 11:06
> 收件人: dev
> 主题: 回复:答复: Kylin1.6.0流式Cube查询时间错误
>
> 我在查看前端页面代码的时候,发现传到前端的start time和end time都是timestamp的形式,
> 我自己对这些timestamp进行转换的时候,发现时间是正确。因此我觉得有可能是前端在转换这些timestamp的时候,
> 没有考虑到配置文件的时区问题,但是我还没有进行验证。
> 除此之外,我在对构建好的segment进行SQL查询的时候,发现这些查询记录的时间也都是早了8小时,不知道你有没有碰到这个问题?
>
>
>
>
>
> 在2016年12月8日 10:57, 仇同心写道:
>
> 我也遇到了一样的问题,cube的Last Build Time 是正确的:2016-12-08 10:48:37 GMT+8
>
> 但是segment的时间早8个小时:
> Start Time: 2016-12-08 02:44:00
> End Time: 2016-12-08 02:45:00
>
> 请问这个问题是kylin哪里造成的?
>
>
> 发件人: 汪胜 [mailto:sky...@163.com]
> 发送时间: 2016年12月6日 21:17
> 收件人: dev
> 主题: Re: Kylin1.6.0流式Cube查询时间错误
>
> 你好,
> 非常感谢您的回答,但是我仍然有两个地方不太理解,望指教:
>
> 1 如果kylin.properties改的是页面上显示的时间,那么为什么在web页面的“Storage”标签下显示的每个segment的start
> time和end time则比电脑早了8个小时,但是cube的创建时间和最后一次修改时间显示却是正确的。
> 我在HBase中查看对应cube的JSON数据,在这里面每个segment的起始和结束时间的timestamp,用mysql的from_
> unixtime函数转换之后与电脑上的时间是一致的,这是否是前端页面解析的问题?
> --
> [cid:56910fa5$1$158d4477d62$Coremail$skyyws$163.com]
> ---
> [cid:1deff3e1$2$158d4477d63$Coremail$skyyws$163.com]
> --
> [cid:6448603e$3$158d4477d63$Coremail$skyyws$163.com]
>
> 2 您说的流式Cube用脚本启动之后,应该手动加上8小时,是否是指:Kylin服务端在处理kafka的数据时,时间会比电脑上的时间少8小时?(
> 我在对流式Cube进行SQL查询时,发现Kylin服务端返回的每一列的时间都比电脑上的晚了8小时)
>
> [cid:d96b8d1$4$158d4477d63$Coremail$skyyws$163.com]
> 这个数据是通过IDEA远程调试得到的来自Kylin服务器的数据,是Kylin通过查询HBase之后返回的。
> 每一列数据的时间都比电脑上的实际时间晚了8小时。
>
>
>
>
> 在2016年12月6日 20:30, Mario Copperfield  whfcen...@gmail.com>> 写道:
> > kylin.properties改的应该是页面上显示的时间,流式Cube用脚本启动了话和页面上的时间是不一致的,应该手动加上8小时
>
> On 6 Dec 2016, 19:40 +0800, 汪胜 mailto:sky...@163.com>>,
> wrote:
> > 你好,
> > 我在安装了Kylin1.6.0之后,根据官网的教程,成功地构建了流式cube。但在进行SQL查询的时候,发现所有的“MINUTE_START”
> 列的时间比实际时间少了8个小时,而且在WEB页面上,每个流式segment的起始和结束时间也少了8个小时,
> 但是cube的创建时间和最后一次修改时间都是正确的,请问可能是什么原因呢?
> > 注:我在kylin.properties文件中将timezone改为了GMT+8
>
>
>
>


答复: 回复:答复: Kylin1.6.0流式Cube查询时间错误

2016-12-07 Thread 仇同心
是的,构建好的segment进行SQL查询的时候,发现这些查询记录的时间也都是早了8小时



-邮件原件-
发件人: 汪胜 [mailto:sky...@163.com] 
发送时间: 2016年12月8日 11:06
收件人: dev
主题: 回复:答复: Kylin1.6.0流式Cube查询时间错误

我在查看前端页面代码的时候,发现传到前端的start time和end 
time都是timestamp的形式,我自己对这些timestamp进行转换的时候,发现时间是正确。因此我觉得有可能是前端在转换这些timestamp的时候,没有考虑到配置文件的时区问题,但是我还没有进行验证。
除此之外,我在对构建好的segment进行SQL查询的时候,发现这些查询记录的时间也都是早了8小时,不知道你有没有碰到这个问题?





在2016年12月8日 10:57, 仇同心写道:

我也遇到了一样的问题,cube的Last Build Time 是正确的:2016-12-08 10:48:37 GMT+8

但是segment的时间早8个小时:
Start Time: 2016-12-08 02:44:00
End Time: 2016-12-08 02:45:00

请问这个问题是kylin哪里造成的?


发件人: 汪胜 [mailto:sky...@163.com]
发送时间: 2016年12月6日 21:17
收件人: dev
主题: Re: Kylin1.6.0流式Cube查询时间错误

你好,
非常感谢您的回答,但是我仍然有两个地方不太理解,望指教:

1 如果kylin.properties改的是页面上显示的时间,那么为什么在web页面的“Storage”标签下显示的每个segment的start 
time和end 
time则比电脑早了8个小时,但是cube的创建时间和最后一次修改时间显示却是正确的。我在HBase中查看对应cube的JSON数据,在这里面每个segment的起始和结束时间的timestamp,用mysql的from_unixtime函数转换之后与电脑上的时间是一致的,这是否是前端页面解析的问题?
--
[cid:56910fa5$1$158d4477d62$Coremail$skyyws$163.com]
---
[cid:1deff3e1$2$158d4477d63$Coremail$skyyws$163.com]
--
[cid:6448603e$3$158d4477d63$Coremail$skyyws$163.com]

2 
您说的流式Cube用脚本启动之后,应该手动加上8小时,是否是指:Kylin服务端在处理kafka的数据时,时间会比电脑上的时间少8小时?(我在对流式Cube进行SQL查询时,发现Kylin服务端返回的每一列的时间都比电脑上的晚了8小时)

[cid:d96b8d1$4$158d4477d63$Coremail$skyyws$163.com]
这个数据是通过IDEA远程调试得到的来自Kylin服务器的数据,是Kylin通过查询HBase之后返回的。每一列数据的时间都比电脑上的实际时间晚了8小时。




在2016年12月6日 20:30, Mario Copperfield 
mailto:xwhfcen...@gmail.com>> 写道:
> kylin.properties改的应该是页面上显示的时间,流式Cube用脚本启动了话和页面上的时间是不一致的,应该手动加上8小时

On 6 Dec 2016, 19:40 +0800, 汪胜 mailto:sky...@163.com>>, wrote:
> 你好,
> 我在安装了Kylin1.6.0之后,根据官网的教程,成功地构建了流式cube。但在进行SQL查询的时候,发现所有的“MINUTE_START”列的时间比实际时间少了8个小时,而且在WEB页面上,每个流式segment的起始和结束时间也少了8个小时,但是cube的创建时间和最后一次修改时间都是正确的,请问可能是什么原因呢?
> 注:我在kylin.properties文件中将timezone改为了GMT+8





回复:答复: Kylin1.6.0流式Cube查询时间错误

2016-12-07 Thread 汪胜
我在查看前端页面代码的时候,发现传到前端的start time和end 
time都是timestamp的形式,我自己对这些timestamp进行转换的时候,发现时间是正确。因此我觉得有可能是前端在转换这些timestamp的时候,没有考虑到配置文件的时区问题,但是我还没有进行验证。
除此之外,我在对构建好的segment进行SQL查询的时候,发现这些查询记录的时间也都是早了8小时,不知道你有没有碰到这个问题?





在2016年12月8日 10:57, 仇同心写道:

我也遇到了一样的问题,cube的Last Build Time 是正确的:2016-12-08 10:48:37 GMT+8

但是segment的时间早8个小时:
Start Time: 2016-12-08 02:44:00
End Time: 2016-12-08 02:45:00

请问这个问题是kylin哪里造成的?


发件人: 汪胜 [mailto:sky...@163.com]
发送时间: 2016年12月6日 21:17
收件人: dev
主题: Re: Kylin1.6.0流式Cube查询时间错误

你好,
非常感谢您的回答,但是我仍然有两个地方不太理解,望指教:

1 如果kylin.properties改的是页面上显示的时间,那么为什么在web页面的“Storage”标签下显示的每个segment的start 
time和end 
time则比电脑早了8个小时,但是cube的创建时间和最后一次修改时间显示却是正确的。我在HBase中查看对应cube的JSON数据,在这里面每个segment的起始和结束时间的timestamp,用mysql的from_unixtime函数转换之后与电脑上的时间是一致的,这是否是前端页面解析的问题?
--
[cid:56910fa5$1$158d4477d62$Coremail$skyyws$163.com]
---
[cid:1deff3e1$2$158d4477d63$Coremail$skyyws$163.com]
--
[cid:6448603e$3$158d4477d63$Coremail$skyyws$163.com]

2 
您说的流式Cube用脚本启动之后,应该手动加上8小时,是否是指:Kylin服务端在处理kafka的数据时,时间会比电脑上的时间少8小时?(我在对流式Cube进行SQL查询时,发现Kylin服务端返回的每一列的时间都比电脑上的晚了8小时)

[cid:d96b8d1$4$158d4477d63$Coremail$skyyws$163.com]
这个数据是通过IDEA远程调试得到的来自Kylin服务器的数据,是Kylin通过查询HBase之后返回的。每一列数据的时间都比电脑上的实际时间晚了8小时。




在2016年12月6日 20:30, Mario Copperfield 
mailto:xwhfcen...@gmail.com>> 写道:
> kylin.properties改的应该是页面上显示的时间,流式Cube用脚本启动了话和页面上的时间是不一致的,应该手动加上8小时

On 6 Dec 2016, 19:40 +0800, 汪胜 mailto:sky...@163.com>>, wrote:
> 你好,
> 我在安装了Kylin1.6.0之后,根据官网的教程,成功地构建了流式cube。但在进行SQL查询的时候,发现所有的“MINUTE_START”列的时间比实际时间少了8个小时,而且在WEB页面上,每个流式segment的起始和结束时间也少了8个小时,但是cube的创建时间和最后一次修改时间都是正确的,请问可能是什么原因呢?
> 注:我在kylin.properties文件中将timezone改为了GMT+8





Re: Re: 使用全局字典报错AppendTrieDictionary can't retrive value from id

2016-12-07 Thread wang...@snqu.com
Thank you for your answer, I will try my best to use English to  ask question.

发件人: Billy Liu
发送时间: 2016-12-08 09:15
收件人: dev
主题: Re: Re: 使用全局字典报错AppendTrieDictionary can't retrive value from id
To use GlobalDictionaryBuilder, there are some benefits, but also some
limitation. It's very useful for precise count by using bitmap dictionary,
but could not preserve the value order. That means it supports equals
operator, but not greater(less) than operator.
 
Back to your case, you should define precise count in the Cube measure
settings page(Return Type is Precise(bitmap actually), not  hllc12 in your
json definition).
 
Since you are distinct count on column "NAME", please define Name for
global dictionary. Currently, you have defined
"ROWKEY","SEX","LOCAL","JOB", but without "NAME".
 
Then it should work.
 
By the way, you have so many ultra high cardinality dimensions, and put all
of them as normal dimensions. It will cost too much resource for building
and index storage. If you are caring about TopN requirement, you could
define topN measure also, order by SUM(1), it will be more efficiency
for "select
label, count(label) from USERCASE_20161204 group by label order by label
desc".
 
If you could, please using English also. This is worldwide community,
English is the better language for everyone.
 
2016-12-06 13:24 GMT+08:00 wang...@snqu.com :
 
> Hi Roger
>
> cube的详细定义如下:
> {
>   "uuid": "9a27b749-1989-482a-a3bb-6f4fe1f8f3a0",
>   "last_modified": 1480931382552,
>   "version": "1.6.0",
>   "name": "dmp_cube_590w",
>   "model_name": "dmp_model_590w",
>   "description": "",
>   "null_string": null,
>   "dimensions": [
> {
>   "name": "ROWKEY",
>   "table": "DEFAULT.USERCASE_20161204",
>   "column": "ROWKEY",
>   "derived": null
> },
> {
>   "name": "TIMESTAMP",
>   "table": "DEFAULT.USERCASE_20161204",
>   "column": "TIMESTAMP",
>   "derived": null
> },
> {
>   "name": "NAME",
>   "table": "DEFAULT.USERCASE_20161204",
>   "column": "NAME",
>   "derived": null
> },
> {
>   "name": "SEX",
>   "table": "DEFAULT.USERCASE_20161204",
>   "column": "SEX",
>   "derived": null
> },
> {
>   "name": "LOCAL",
>   "table": "DEFAULT.USERCASE_20161204",
>   "column": "LOCAL",
>   "derived": null
> },
> {
>   "name": "JOB",
>   "table": "DEFAULT.USERCASE_20161204",
>   "column": "JOB",
>   "derived": null
> },
> {
>   "name": "LABEL",
>   "table": "DEFAULT.USERCASE_20161204",
>   "column": "LABEL",
>   "derived": null
> }
>   ],
>   "measures": [
> {
>   "name": "_COUNT_",
>   "function": {
> "expression": "COUNT",
> "parameter": {
>   "type": "constant",
>   "value": "1",
>   "next_parameter": null
> },
> "returntype": "bigint"
>   },
>   "dependent_measure_ref": null
> },
> {
>   "name": "CD_NAME",
>   "function": {
> "expression": "COUNT_DISTINCT",
> "parameter": {
>   "type": "column",
>   "value": "NAME",
>   "next_parameter": null
> },
> "returntype": "hllc12"
>   },
>   "dependent_measure_ref": null
> }
>   ],
>   "dictionaries": [
> {
>   "column": "ROWKEY",
>   "builder": "org.apache.kylin.dict.GlobalDictionaryBuilder"
> },
> {
>   "column": "SEX",
>   "builder": "org.apache.kylin.dict.GlobalDictionaryBuilder"
> },
> {
>   "column": "LOCAL",
>   "builder": "org.apache.kylin.dict.GlobalDictionaryBuilder"
> },
> {
>   "column": "JOB",
>   "builder": "org.apache.kylin.dict.GlobalDictionaryBuilder"
> }
>   ],
>   "rowkey": {
> "rowkey_columns": [
>   {
> "column": "ROWKEY",
> "encoding": "dict",
> "isShardBy": true
>   },
>   {
> "column": "NAME",
> "encoding": "dict",
> "isShardBy": false
>   },
>   {
> "column": "TIMESTAMP",
> "encoding": "dict",
> "isShardBy": false
>   },
>   {
> "column": "SEX",
> "encoding": "dict",
> "isShardBy": false
>   },
>   {
> "column": "LOCAL",
> "encoding": "dict",
> "isShardBy": false
>   },
>   {
> "column": "JOB",
> "encoding": "dict",
> "isShardBy": false
>   },
>   {
> "column": "LABEL",
> "encoding": "dict",
> "isShardBy": false
>   }
> ]
>   },
>   "hbase_mapping": {
> "column_family": [
>   {
> "name": "F1",
> "columns": [
>   {
> "qualifier": "M",
> "measure_refs": [
>   "_COUNT_"
> ]
>   }
> ]
>   },
>   {
> "name": "F2",
> "columns": [
>   {
> "qualifier": "M",
> "measure_refs": [
>   "CD_NAME"
> 

答复: Kylin1.6.0流式Cube查询时间错误

2016-12-07 Thread 仇同心
我也遇到了一样的问题,cube的Last Build Time 是正确的:2016-12-08 10:48:37 GMT+8

但是segment的时间早8个小时:
Start Time: 2016-12-08 02:44:00
End Time: 2016-12-08 02:45:00

请问这个问题是kylin哪里造成的?


发件人: 汪胜 [mailto:sky...@163.com]
发送时间: 2016年12月6日 21:17
收件人: dev
主题: Re: Kylin1.6.0流式Cube查询时间错误

你好,
非常感谢您的回答,但是我仍然有两个地方不太理解,望指教:

1 如果kylin.properties改的是页面上显示的时间,那么为什么在web页面的“Storage”标签下显示的每个segment的start 
time和end 
time则比电脑早了8个小时,但是cube的创建时间和最后一次修改时间显示却是正确的。我在HBase中查看对应cube的JSON数据,在这里面每个segment的起始和结束时间的timestamp,用mysql的from_unixtime函数转换之后与电脑上的时间是一致的,这是否是前端页面解析的问题?
--
[cid:56910fa5$1$158d4477d62$Coremail$skyyws$163.com]
---
[cid:1deff3e1$2$158d4477d63$Coremail$skyyws$163.com]
--
[cid:6448603e$3$158d4477d63$Coremail$skyyws$163.com]

2 
您说的流式Cube用脚本启动之后,应该手动加上8小时,是否是指:Kylin服务端在处理kafka的数据时,时间会比电脑上的时间少8小时?(我在对流式Cube进行SQL查询时,发现Kylin服务端返回的每一列的时间都比电脑上的晚了8小时)

[cid:d96b8d1$4$158d4477d63$Coremail$skyyws$163.com]
这个数据是通过IDEA远程调试得到的来自Kylin服务器的数据,是Kylin通过查询HBase之后返回的。每一列数据的时间都比电脑上的实际时间晚了8小时。




在2016年12月6日 20:30, Mario Copperfield 
mailto:xwhfcen...@gmail.com>> 写道:
> kylin.properties改的应该是页面上显示的时间,流式Cube用脚本启动了话和页面上的时间是不一致的,应该手动加上8小时

On 6 Dec 2016, 19:40 +0800, 汪胜 mailto:sky...@163.com>>, wrote:
> 你好,
> 我在安装了Kylin1.6.0之后,根据官网的教程,成功地构建了流式cube。但在进行SQL查询的时候,发现所有的“MINUTE_START”列的时间比实际时间少了8个小时,而且在WEB页面上,每个流式segment的起始和结束时间也少了8个小时,但是cube的创建时间和最后一次修改时间都是正确的,请问可能是什么原因呢?
> 注:我在kylin.properties文件中将timezone改为了GMT+8





Re:sql query(min/max over) seems to be replicated-more info

2016-12-07 Thread 翟鹿渊
It seems the images cannot be present. So I grabbed part of tables mentioned.
>>Table structure looks as:

| Row 
| TRANS_ID | PART_DT | LSTG_FORMAT_NAME | LEAF_CATEG_ID | LSTG_SITE_ID | 
SLR_SEGMENT_CD | PRICE | ITEM_COUNT | SELLER_ID | USER_ID | REGION |
| 1 | 0 | 2012-12-14 | Others | 88750 | 0 | 11 | 36.2828 | 0 | 1349 | 
ANALYST | Beijing |



>>(Part)Results returned as:

| FP-non GTC | 49.81376 | 145.495 | 0.0537 |
| FP-non GTC | 49.81376 | 145.495 | 0.0537 |
| FP-non GTC | 49.81376 | 145.495 | 0.0537 |
| FP-non GTC | 49.81376 | 145.495 | 0.0537 |
| FP-non GTC | 49.81376 | 145.495 | 0.0537 |
| FP-non GTC | 49.81376 | 145.495 | 0.0537 |
| FP-non GTC | 49.81376 | 145.495 | 0.0537 |
| Others | 49.2756 | 186.9764 | 0.0232 |
| Others | 49.2756 | 186.9764 | 0.0232 |
| Others | 49.2756 | 186.9764 | 0.0232 |
| Others | 49.2756 | 186.9764 | 0.0232 |
| Others | 49.2756 | 186.9764 | 0.0232 |
| Others | 49.2756 | 186.9764 | 0.0232 |
| Others | 49.2756 | 186.9764 | 0.0232 |
| Others | 49.2756 | 186.9764 | 0.0232 |


Does it look more detailed?

Best,
Luyuan(Adora)


At 2016-12-08 10:13:39, "翟鹿渊"  wrote:

Hi Kylin Dev team,

I used a dataset called learn_kylin, the sample data of table kylin_sales looks 
like:

A problem came when I inputed sql query as: " select LSTG_FORMAT_NAME, 
avg(price) over(partition by LSTG_FORMAT_NAME) as price_level, max(price) 
over(partition by LSTG_FORMAT_NAME) as price_max, min(price) over(partition by 
LSTG_FORMAT_NAME) as price_min from kylin_sales" then replicated results 
returned. They look like:


How does this happen and if there is any way to solve it?
Thank you!

Luyuan(Adora)










 

sql query(min/max over) seems to be replicated

2016-12-07 Thread 翟鹿渊
Hi Kylin Dev team,

I used a dataset called learn_kylin, the sample data of table kylin_sales looks 
like:

A problem came when I inputed sql query as: " select LSTG_FORMAT_NAME, 
avg(price) over(partition by LSTG_FORMAT_NAME) as price_level, max(price) 
over(partition by LSTG_FORMAT_NAME) as price_max, min(price) over(partition by 
LSTG_FORMAT_NAME) as price_min from kylin_sales" then replicated results 
returned. They look like:


How does this happen and if there is any way to solve it?
Thank you!

Luyuan(Adora)







[jira] [Created] (KYLIN-2255) Drop v1 CubeStorageQuery

2016-12-07 Thread liyang (JIRA)
liyang created KYLIN-2255:
-

 Summary: Drop v1 CubeStorageQuery
 Key: KYLIN-2255
 URL: https://issues.apache.org/jira/browse/KYLIN-2255
 Project: Kylin
  Issue Type: Improvement
Reporter: liyang
Assignee: liyang


There are two versions of storage query implementation. 
- org.apache.kylin.storage.hbase.cube.v2.CubeStorageQuery
- org.apache.kylin.storage.hbase.cube.v1.CubeStorageQuery

The v2 was created in Aug 2015 and has been stable for a long time. It's time 
to say bye to the v1.



--
This message was sent by Atlassian JIRA
(v6.3.4#6332)


Re: select * clause still case all regionserver crash

2016-12-07 Thread alaleiwang
about v1.5.4,"select * from table limit N" clause seems not to crash
regionserver,but meantime no result return for the clause

--
View this message in context: 
http://apache-kylin.74782.x6.nabble.com/select-clause-still-cause-all-regionserver-crash-tp6474p6535.html
Sent from the Apache Kylin mailing list archive at Nabble.com.


Re: kylin1.6版本增量build的BUG

2016-12-07 Thread Billy Liu
Thanks for the reporting, but the images could not display.

在 2016年12月8日 上午8:55,gaolv123...@163.com 写道:

> kylin1.6版本增量build的BUG
>
> 如下两张图片所示,条件只能是日期嘛?
> 并且手动输入的无效,必须通过控件输入
>
>
> --
> gaolv123...@163.com
>


Re: Re: 使用全局字典报错AppendTrieDictionary can't retrive value from id

2016-12-07 Thread Billy Liu
To use GlobalDictionaryBuilder, there are some benefits, but also some
limitation. It's very useful for precise count by using bitmap dictionary,
but could not preserve the value order. That means it supports equals
operator, but not greater(less) than operator.

Back to your case, you should define precise count in the Cube measure
settings page(Return Type is Precise(bitmap actually), not  hllc12 in your
json definition).

Since you are distinct count on column "NAME", please define Name for
global dictionary. Currently, you have defined
"ROWKEY","SEX","LOCAL","JOB", but without "NAME".

Then it should work.

By the way, you have so many ultra high cardinality dimensions, and put all
of them as normal dimensions. It will cost too much resource for building
and index storage. If you are caring about TopN requirement, you could
define topN measure also, order by SUM(1), it will be more efficiency
for "select
label, count(label) from USERCASE_20161204 group by label order by label
desc".

If you could, please using English also. This is worldwide community,
English is the better language for everyone.

2016-12-06 13:24 GMT+08:00 wang...@snqu.com :

> Hi Roger
>
> cube的详细定义如下:
> {
>   "uuid": "9a27b749-1989-482a-a3bb-6f4fe1f8f3a0",
>   "last_modified": 1480931382552,
>   "version": "1.6.0",
>   "name": "dmp_cube_590w",
>   "model_name": "dmp_model_590w",
>   "description": "",
>   "null_string": null,
>   "dimensions": [
> {
>   "name": "ROWKEY",
>   "table": "DEFAULT.USERCASE_20161204",
>   "column": "ROWKEY",
>   "derived": null
> },
> {
>   "name": "TIMESTAMP",
>   "table": "DEFAULT.USERCASE_20161204",
>   "column": "TIMESTAMP",
>   "derived": null
> },
> {
>   "name": "NAME",
>   "table": "DEFAULT.USERCASE_20161204",
>   "column": "NAME",
>   "derived": null
> },
> {
>   "name": "SEX",
>   "table": "DEFAULT.USERCASE_20161204",
>   "column": "SEX",
>   "derived": null
> },
> {
>   "name": "LOCAL",
>   "table": "DEFAULT.USERCASE_20161204",
>   "column": "LOCAL",
>   "derived": null
> },
> {
>   "name": "JOB",
>   "table": "DEFAULT.USERCASE_20161204",
>   "column": "JOB",
>   "derived": null
> },
> {
>   "name": "LABEL",
>   "table": "DEFAULT.USERCASE_20161204",
>   "column": "LABEL",
>   "derived": null
> }
>   ],
>   "measures": [
> {
>   "name": "_COUNT_",
>   "function": {
> "expression": "COUNT",
> "parameter": {
>   "type": "constant",
>   "value": "1",
>   "next_parameter": null
> },
> "returntype": "bigint"
>   },
>   "dependent_measure_ref": null
> },
> {
>   "name": "CD_NAME",
>   "function": {
> "expression": "COUNT_DISTINCT",
> "parameter": {
>   "type": "column",
>   "value": "NAME",
>   "next_parameter": null
> },
> "returntype": "hllc12"
>   },
>   "dependent_measure_ref": null
> }
>   ],
>   "dictionaries": [
> {
>   "column": "ROWKEY",
>   "builder": "org.apache.kylin.dict.GlobalDictionaryBuilder"
> },
> {
>   "column": "SEX",
>   "builder": "org.apache.kylin.dict.GlobalDictionaryBuilder"
> },
> {
>   "column": "LOCAL",
>   "builder": "org.apache.kylin.dict.GlobalDictionaryBuilder"
> },
> {
>   "column": "JOB",
>   "builder": "org.apache.kylin.dict.GlobalDictionaryBuilder"
> }
>   ],
>   "rowkey": {
> "rowkey_columns": [
>   {
> "column": "ROWKEY",
> "encoding": "dict",
> "isShardBy": true
>   },
>   {
> "column": "NAME",
> "encoding": "dict",
> "isShardBy": false
>   },
>   {
> "column": "TIMESTAMP",
> "encoding": "dict",
> "isShardBy": false
>   },
>   {
> "column": "SEX",
> "encoding": "dict",
> "isShardBy": false
>   },
>   {
> "column": "LOCAL",
> "encoding": "dict",
> "isShardBy": false
>   },
>   {
> "column": "JOB",
> "encoding": "dict",
> "isShardBy": false
>   },
>   {
> "column": "LABEL",
> "encoding": "dict",
> "isShardBy": false
>   }
> ]
>   },
>   "hbase_mapping": {
> "column_family": [
>   {
> "name": "F1",
> "columns": [
>   {
> "qualifier": "M",
> "measure_refs": [
>   "_COUNT_"
> ]
>   }
> ]
>   },
>   {
> "name": "F2",
> "columns": [
>   {
> "qualifier": "M",
> "measure_refs": [
>   "CD_NAME"
> ]
>   }
> ]
>   }
> ]
>   },
>   "aggregation_groups": [
> {
>   "includes": [
> "ROWKEY",
> "NAME",
> "SEX",
> "LOCAL",
> 

kylin1.6版本增量build的BUG

2016-12-07 Thread gaolv123...@163.com
kylin1.6版本增量build的BUG

如下两张图片所示,条件只能是日期嘛?
并且手动输入的无效,必须通过控件输入




gaolv123...@163.com


Re: Issues in building cubes of Apache Kylin

2016-12-07 Thread Billy Liu
Hi Tarun,

what's the output of bin/find-hive-dependency.sh? It seems something wrong
in the environment variables.
Which Hadoop distribution were you using?

2016-12-07 23:04 GMT+08:00 Tarun Vashisth :

> Hi,
>
>
>
> We are trying to build cubes for data and while doing so, we are getting
> the following error during the step 3 of cube creating
>
> File does not exist: hdfs://localhost:54310/app/hadoop/tmp/mapred/staging/
> hduser341814501/.staging/job_local341814501_0007/libjars/
> hive-exec-2.1.0.jar
>
>
> Earlier, it was trying to find the jars at 
> hdfs://localhost:54310/usr/local/hive/lib.
> We manually put all the jars of hive there and after that, it started
> failing at this step.
>
>   *   Is kylin trying to create this directory hduser../ and so on and
> unable to do so? Is it failing at that step?
>
> Hadoop Version: - 2.7.3
> Hive Version: - 2.1.0
> Hbase Version: - 1.2.4
> Kylin Version: - 1.6
>
> Any help would be much appreciated in this regard.
>
>
> Regards,
>
> Tarun
>


Issues in building cubes of Apache Kylin

2016-12-07 Thread Tarun Vashisth
Hi,



We are trying to build cubes for data and while doing so, we are getting the 
following error during the step 3 of cube creating

File does not exist: 
hdfs://localhost:54310/app/hadoop/tmp/mapred/staging/hduser341814501/.staging/job_local341814501_0007/libjars/hive-exec-2.1.0.jar


Earlier, it was trying to find the jars at 
hdfs://localhost:54310/usr/local/hive/lib. We manually put all the jars of hive 
there and after that, it started failing at this step.

  *   Is kylin trying to create this directory hduser../ and so on and unable 
to do so? Is it failing at that step?

Hadoop Version: - 2.7.3
Hive Version: - 2.1.0
Hbase Version: - 1.2.4
Kylin Version: - 1.6

Any help would be much appreciated in this regard.


Regards,

Tarun


Re: Cube Configuration Overwrites doesn't work

2016-12-07 Thread Billy Liu
Hi Peter,

Which version were you using? This override feature is introduced by
KYLIN-2095, which is released in Kylin 1.6.0.

2016-12-07 19:47 GMT+08:00 Jian Zhong :

> Forward to dev list.
>
> -- Forwarded message --
> From: peter zhang 
> Date: Wed, Dec 7, 2016 at 9:03 AM
> Subject: Re: Cube Configuration Overwrites doesn't work
> To: u...@kylin.apache.org
>
>
> In case of inline snapshots break, add attchment
>
> 2016-12-07 9:00 GMT+08:00 peter zhang :
>
>> Hi, Dear Kylin User/Developer,
>>
>> I am a newer of Kylin.
>>
>> I created a cube in kylin and referring your user manual add two hive
>> related tunning parameters as below:
>>
>>
>> ​
>>
>> I excepted this parameter add before create flat hive table of first cube
>> building step, but I can’t find these two configurations in the log. Is
>> there anything wrong of my operation our understanding.
>>
>> Looking forwarding for reply.
>>
>>
>> ​
>>
>>
>> Thanks
>>
>
>
>


Fwd: Cube Configuration Overwrites doesn't work

2016-12-07 Thread Jian Zhong
Forward to dev list.

-- Forwarded message --
From: peter zhang 
Date: Wed, Dec 7, 2016 at 9:03 AM
Subject: Re: Cube Configuration Overwrites doesn't work
To: u...@kylin.apache.org


In case of inline snapshots break, add attchment

2016-12-07 9:00 GMT+08:00 peter zhang :

> Hi, Dear Kylin User/Developer,
>
> I am a newer of Kylin.
>
> I created a cube in kylin and referring your user manual add two hive
> related tunning parameters as below:
>
>
> ​
>
> I excepted this parameter add before create flat hive table of first cube
> building step, but I can’t find these two configurations in the log. Is
> there anything wrong of my operation our understanding.
>
> Looking forwarding for reply.
>
>
> ​
>
>
> Thanks
>


[jira] [Created] (KYLIN-2254) A kind of sub-query does not work

2016-12-07 Thread liyang (JIRA)
liyang created KYLIN-2254:
-

 Summary: A kind of sub-query does not work
 Key: KYLIN-2254
 URL: https://issues.apache.org/jira/browse/KYLIN-2254
 Project: Kylin
  Issue Type: Bug
Reporter: liyang


For example below query does not work.

SELECT
  f.lstg_format_name
  ,sum(price) as sum_price
FROM
  test_kylin_fact f
  inner join
  ( 
select
  lstg_format_name,
  min(slr_segment_cd) as min_seg
from
  test_kylin_fact
group by
  lstg_format_name
  ) t on f.lstg_format_name = t.lstg_format_name
where
  f.slr_segment_cd = min_seg
group by
  f.lstg_format_name




--
This message was sent by Atlassian JIRA
(v6.3.4#6332)


[jira] [Created] (KYLIN-2253) sql union did not remove replicated records (distinct)

2016-12-07 Thread zhou degao (JIRA)
zhou degao created KYLIN-2253:
-

 Summary: sql union  did not remove replicated records (distinct)
 Key: KYLIN-2253
 URL: https://issues.apache.org/jira/browse/KYLIN-2253
 Project: Kylin
  Issue Type: Bug
  Components: Driver - JDBC
Affects Versions: v1.5.4.1
 Environment: apache-kylin-1.6.0-hbase1.x-bin.tar.gz
Reporter: zhou degao
Priority: Critical


sql like following:
select "LOOKUP_TIME_BY_DAY"."THE_YEAR" as "c0", 
"LOOKUP_TIME_BY_DAY"."MONTH_OF_YEAR" as "c1" from "VCGBI_FACT_SALE" as 
"VCGBI_FACT_SALE" join "LOOKUP_TIME_BY_DAY" as "LOOKUP_TIME_BY_DAY" on 
"VCGBI_FACT_SALE"."DEAL_TIME" = "LOOKUP_TIME_BY_DAY"."THE_DATE" group by 
"LOOKUP_TIME_BY_DAY"."THE_YEAR", "LOOKUP_TIME_BY_DAY"."MONTH_OF_YEAR"
union
select "LOOKUP_TIME_BY_DAY"."THE_YEAR" as "c0", 
"LOOKUP_TIME_BY_DAY"."MONTH_OF_YEAR" as "c1" from "VCGBI_FACT_PERSON_MISC_DATA" 
as "VCGBI_FACT_PERSON_MISC_DATA" join "LOOKUP_TIME_BY_DAY" as 
"LOOKUP_TIME_BY_DAY" on "VCGBI_FACT_PERSON_MISC_DATA"."TIME" = 
"LOOKUP_TIME_BY_DAY"."THE_DATE" group by "LOOKUP_TIME_BY_DAY"."THE_YEAR", 
"LOOKUP_TIME_BY_DAY"."MONTH_OF_YEAR" order by 1 ASC, 2 ASC


I got result like following:
20161
20161
20162
20162
20163
20163
20164
20164
20165
20165
20166
20166
20167
20167
20168
20168
20169
20169
201610
201611
201612




--
This message was sent by Atlassian JIRA
(v6.3.4#6332)