DDL语句,数据库、表的基本操作
文章目录
- DDL语句,数据库、表的基本操作
- 1 创建-数据库
- 2 查询-数据库
- 3 修改-数据库
- 4 删除-数据库
- 5 创建-表
- 5.1 管理表
- 5.2 外部表
- 5.3 管理表与外部表的互相转换
- 6 修改-表
- 7 删除-表
- 8 清除-表
1 创建-数据库
CREATE DATABASE [IF NOT EXISTS] database_name
[COMMENT database_comment]
[LOCATION hdfs_path]
[WITH DBPROPERTIES (property_name=property_value, ...)];
1)创建一个数据库,数据库在HDFS上的默认存储路径是/user/hive/warehouse/*.db。
/user/hive/warehouse就是default库
hive (default)> create database db_hive;
2)避免要创建的数据库已经存在错误,增加if not exists判断。(标准写法)
hive (default)> create database db_hive;
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. Database db_hive already exists
hive (default)> create database if not exists db_hive;
3)创建一个数据库,指定数据库在HDFS上存放的位置(库和表都是以文件夹的形式)
hive (default)> create database db_hive2 location '/db_hive2';
2 查询-数据库
# 显示数据库
1)显示数据库
hive> show databases;
2)过滤显示查询的数据库
hive> show databases like 'db_hive*';
OK
db_hive
db_hive_1
# 查看数据库详情
1)显示数据库信息
hive> desc database db_hive;
OK
db_hive hdfs://hadoop102:8020/user/hive/warehouse/db_hive.db qinjlUSER
2)显示数据库详细信息,extended关键字
hive> desc database extended db_hive;
OK
db_hive hdfs://hadoop102:8020/user/hive/warehouse/db_hive.db qinjlUSER
#切换当前数据库
hive (default)> use db_hive;
#查看当前使用的数据库
hive (default)> select current_database();
3 修改-数据库
用户可以使用ALTER DATABASE命令为某个数据库的DBPROPERTIES设置键-值对属性值,来描述这个数据库的属性信息。数据库的其他元数据信息都是不可更改的,包括数据库名和数据库所在的目录位置。
hive (default)> alter database db_hive set dbproperties('createtime'='20200101');
在hive中查看修改结果
hive> desc database extended db_hive;
db_name comment location owner_name owner_type parameters
db_hive hdfs://hadoop102:8020/user/hive/warehouse/db_hive.db qinjl USER {createtime=20200101}
4 删除-数据库
1)删除空数据库
hive>drop database db_hive2;
2)如果删除的数据库不存在,最好采用 if exists判断数据库是否存在
hive> drop database db_hive;
FAILED: SemanticException [Error 10072]: Database does not exist: db_hive
hive> drop database if exists db_hive2;
3)如果数据库不为空,可以采用cascade命令,强制删除(级联删除,里面的表也会删除)
hive> drop database db_hive;
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. InvalidOperationException(message:Database db_hive is not empty. One or more tables exist.)
hive> drop database db_hive cascade;
5 创建-表
1)建表语法
CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name # EXTERNAL表示创建表是否是外部表
[(col_name data_type [COMMENT col_comment], ...)] # 表的字段名 和字段类型 ,以及对字段的解释
[COMMENT table_comment] # 对于表的解释
[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)] # 分区
[CLUSTERED BY (col_name, col_name, ...) # 分桶
[SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS] # 分几个桶
[ROW FORMAT DELIMITED # 对于当前的表分隔的说明
[FIELDS TERMINATED BY char] # 对于字段的分隔说明 --默认是ascii 码表的001 ^A
yangyang,caicai_susu, xiao yang:18_xiaoxiao yang:19,chao yang_beijing_10011
# 对于此行数据的分隔类型是 ','
[COLLECTION ITEMS TERMINATED BY char] # 对于集合的分隔说明 --默认是ascii 码表的002 ^B
caicai_susu xiao yang:18_xiaoxiao yang:19 chao yang_beijing_10011
# 对于三个集合 map array struct 分隔是'_'
[MAP KEYS TERMINATED BY char] # 对于map的kv分隔类型 --默认是ascii 码表的003 ^C
xiao yang:18
# 对于当前map集合分隔符是 ':'
[LINES TERMINATED BY char] # 对于每行数据而言的分隔类型 '\n'
]
[STORED AS file_format] # 对于当前表对应文件存储类型
[LOCATION hdfs_path] # 指定的hdfs路径 如果不指定默认在库里面
[TBLPROPERTIES (property_name=property_value, ...)] # 表的属性
[AS select_statement] # 根据查询的结果创建表(包括表的结构和数据)
[LIKE table_name] # 模仿一张表(只有表的结构没有数据)
2)字段解释说明
(1)CREATE TABLE:创建一个指定名字的表。如果相同名字的表已经存在,则抛出异常;可以用 IF NOT EXISTS 选项来忽略这个异常。
(2)EXTERNAL:关键字可以创建一个外部表,在建表的同时可以指定一个指向实际数据的路径(LOCATION),在删除表的时候,内部表的元数据和数据会被一起删除,而外部表只删除元数据,不删除数据。
(3)COMMENT:为表和列添加注释。
(4)PARTITIONED BY:创建分区表
(5)CLUSTERED BY:创建分桶表
(6)SORTED BY:对桶中的一个或多个列另外排序
(7)STORED AS:指定存储文件类型
- 常用的存储文件类型:SEQUENCEFILE(二进制序列文件)、TEXTFILE(文本)、RCFILE(列式存储格式文件)
- 如果文件数据是纯文本,可以使用STORED AS TEXTFILE。如果数据需要压缩,使用 STORED AS SEQUENCEFILE。
(8)LOCATION :指定表在HDFS上的存储位置。
(9)AS:后跟查询语句,根据查询结果创建表。
(10)LIKE:允许用户复制现有的表结构,但是不复制数据。
5.1 管理表
1)理论
默认创建的表都是所谓的管理表,有时也被称为内部表。
因为这种表,Hive会控制着数据的生命周期。
当我们删除一个管理表时,Hive也会删除这个表中数据。管理表不适合和其他工具共享数据。
2)案例实操
(1)普通创建表
create table if not exists student(
id int, name string
)
row format delimited fields terminated by '\t'
location '/user/hive/warehouse/student';
(2)根据查询结果创建表(as)(查询的结果会添加到新创建的表中)
hdfs扫描文件是从上往下,加载到hive也是按hfds的顺序读的数据
create table if not exists student2
as select id, name from studet;
(3)根据已经存在的表结构创建表(like)
create table if not exists student3
like student;
(4)查询表的类型
hive (default)> desc formatted student2;
Table Type: MANAGED_TABLE
5.2 外部表
1)理论
因为表是外部表,所以Hive并非认为其完全拥有这份数据。删除该表并不会删除掉这份数据,不过描述表的元数据信息会被删除掉。
2)管理表和外部表的使用场景
每天将收集到的网站日志定期流入HDFS文本文件。在外部表(原始日志表)的基础上做大量的统计分析,用到的中间表、结果表使用内部表存储,数据通过SELECT+INSERT进入内部表。
3)案例实操
创建部门外部表,并向表中导入数据。
(1)建表语句,创建外部表
创建部门表
create external table if not exists dept(
deptno int,
dname string,
loc int
)
row format delimited fields terminated by '\t'
location '/company/dept';
(2)查看表格式化数据
hive (default)> desc formatted dept;
Table Type: EXTERNAL_TABLE
(3)删除外部表(外部表删除后,hdfs中的数据还在,但是metadata中dept的元数据已被删除)
hive (default)> drop table dept;
5.3 管理表与外部表的互相转换
(2)修改内部表student为外部表
alter table student set tblproperties('EXTERNAL'='TRUE');
- 注意:(‘EXTERNAL’=‘TRUE’)和(‘EXTERNAL’=‘FALSE’)为固定写法,区分大小写!
6 修改-表
# 重命名表
1)语法
ALTER TABLE table_name RENAME TO new_table_name
2)实操案例
hive (default)> alter table student2 rename to student3;
# 增加/修改/替换列信息
1)语法
(1)更新列
更新列,列名可以随意修改,列的类型只能小改大,不能大改小(遵循自动转换规则)
ALTER TABLE table_name CHANGE [COLUMN] col_old_name col_new_name column_type [COMMENT col_comment] [FIRST|AFTER column_name]
(2)增加和替换列
ALTER TABLE table_name ADD|REPLACE COLUMNS (col_name data_type [COMMENT col_comment], ...)
注:ADD是代表新增一字段,字段位置在所有列后面(partition列前),REPLACE则是表示替换表中所有字段,REPLACE使用的时候,字段的类型要跟之前的类型对应上,数量可以减少或者增加,其实就是包含了更新列,增加列,删除列的功能。
2)实操案例
(1)查询表结构
hive> desc dept;
(2)添加列
hive (default)> alter table dept add columns(deptdesc string);
(3)查询表结构
hive> desc dept;
(4)更新列
hive (default)> alter table dept change column deptdesc desc string;
(5)查询表结构
hive> desc dept;
(6)替换列
hive (default)> alter table dept replace columns(deptno string, dname string, loc string);
(7)查询表结构
hive> desc dept;
7 删除-表
hive (default)> drop table dept;
8 清除-表
- 注意:Truncate只能删除管理表的数据(元数据信息还在,表(文件夹)还在),不能删除外部表中数据
hive (default)> truncate table student;