-
show functions 内置函数 查看表结构: desc 表名 查看HDFS上的文件:dfs -ls目录 执行操作系统的命令: -! 命令 (!pwd !ls) hive中的数据中的表对应于hadoop上的hdfs上的一个文件夹 dfs -lsr 以递归的方式查看文件中的文件信息章节 执行HQL语句 selece from hive解析成mapredure作业提交hadoop中执行(select * from 不会转换成mapreduce作业,其他的需要转成mapreduce作业) 执行SQL的脚本 source SQL脚本查看全部
-
CLI命令行的方式:1.直接hive 2. hive --sevice cli 退出hive的命令 quit 或者exit 常用的CLI命令 清屏:!clear查看全部
-
Hive的体系结构查看全部
-
Hive的远程模式配置查看全部
-
hadoop有:单机环境、伪分布环境、集群环境查看全部
-
OLTP联机事务处理 OLAP联机分析处理查看全部
-
打包web 操作查看全部
-
静默模式查看全部
-
什么是hive? 1.hive是sql解析引擎,他将sql转化为m/r job 2.hive是hadoop hdfs上的一个数据仓库 3.hive的表和数据其实就是hdfs的目录和文件查看全部
-
Hive是基于Hadoop之上的数据仓库查看全部
-
视图是一个虚表,是不存数据的, 视图建立在已有表带基础 视图可以简化查询 hive中是不支持物化视图 eg. create view empinfo as select e.empno,e.ename,e.sal,e.sal*12 annlsal,d.dname from emp e,dept d where e.deptno=d.deptno;查看全部
-
对数据进行哈希取值,然后放在不同的文件中存储,以减少热块 create table bucket_table1 (name string,age int) clustered by(name)into 5 buckets;查看全部
-
指向已经在hdfs中存在的数据,可以创建partition 它和内部表在元数据的组织上时相同的,而实际存储是有极大的差异 外部表只是一个过程,加载数据和创建表同时完成,并不会移动到数据仓库目录中,只会与外部数据创建一个链接,当删除该表时,仅删除该链接而不删除实际的数据 *创建外部表 step 1,将三个文件放在hdfs中 hdfs dfs -put student01.txt / input hdfs dfs -put student02.txt / input hdfs dos -put student03.txt / input create external table external_student (sid int, sname string, age int) row format delimited fields terminated by ',' location '/input';--数据源的HDFS文件目录查看全部
-
分区表 在数据量特别大的时候,可以根据一定的条件对数据进行分区,这样可以减少扫描的数量,降低查询速度 hive中,表中的partition对应表下的一个目录 可以使用执行计划语句,explain ...比较创建分区后的不同执行过程 eg. create table partition_table(sid int ,sname string) partitioned by(gender string) row format delimited fields termimated by ','; insert into table partition_table partition(gender='M') select sid,sname from t1 where gender ='M'; insert into table partition_table partition(gender='F') select sid,sname from t1 where gender ='F'; 执行计划: explain select * from table查看全部
-
这张图记下来查看全部
举报
0/150
提交
取消