您的位置:首页 > 其它

hive权限控制介绍

2016-05-17 10:26 405 查看
hive权限控制介绍 http://www.aboutyun.com/thread-12549-1-1.html (出处: about云开发)



问题导读
1.hive权限控制需要配置那个配置文件?
2.Hive授权的核心是什么?
3.如何实现 角色的授权和撤销?




Hive从0.10版本(包含0.10版本)以后可以通过元数据来控制权限,Hive-0.10之前的版本对权限的控制主要是通过Linux的用户和用户
组来控制,不能对Hive表的CREATE、SELECT、DROP等操作进行控制,当然Hive基于元数据来控制权限也不是完全安全的,目的就是为了防
止用户不小心做了不该做的操作。
在使用Hive的元数据配置权限之前必须现在hive-site.xml中配置两个参数,配置参数如下:

<property>

<name>hive.security.authorization.enabled</name>

<value>true</value>

<description>enable or disable the hive clientauthorization</description>

</property>

<property>

<name>hive.security.authorization.createtable.owner.grants</name>

<value>ALL</value>

<description>the privileges automatically granted to the
ownerwhenever a table gets created. An example like "select,drop"
willgrant select and drop privilege to the owner of the
table</description>

</property>

复制代码

hive.security.authorization.enabled参数是开启权限验
证,默认为false。hive.security.authorization.createtable.owner.grants参数是指表的创建者
对表拥有所有权限,例如创建一个表table1,这个用户对表table1拥有SELECT、DROP等操作。还有个值是NULL,表示表的创建者无法访
问该表,这个肯定是不合理的。

Hive授权的核心就是用户(User)、组(Group)、角色(Role),Hive中的角色和平常认知的角色是有区别的。Hive中的角色可以理解为一部分有一些相同“属性”的用户或组或角色的集合。这里有个递归的概念,就是一个角色可以是一些角色的集合。
举个例子:

用户 组

张三 group_db1

李四 group_db2

王五 group_bothdb

复制代码

有三个用户分别属于group_db1、group_db2、group _bothdb。group _db1、group _db2、group
_bothdb分别表示该组用户可以访问数据库1、数据库2和可以访问1、2两个数据库。现在可以创建role_db1和role_db2,分别并授予访
问数据库1和数据库2的权限。这样只要将role_db1赋给group_db1(或者该组的所有用户),将role_db2赋给group_db2,就
可以是实现指定用户访问指定数据库。最后创建role_bothdb指向
role_db1、role_db2(role_bothdb不需要指定访问那个数据库),然后role_bothdb授予group_bothdb,则
group_bothdb中的用户可以访问两个数据库。
用户和组使用的是Linux机器上的用户和组,而角色必须自己创建。
注意:如果有一个属于组group1的用户jayliu,他通过cli连接到远程的Server上执行操作,而远程的Server上有一个用户jayliu属于group2组,则在权限控制中jayliu是对应的group2组的。

1 创建和删除角色
Hive中的角色定义与关系型数据库中角色的定义类似,它是一种机制,给予那些没有适当权限的所有用户分配一定的权限。下面介绍一下Hive中角色的应用。
1)角色的创建。语法:

CREATE ROLE ROLE_NAME

创建一个role_test1角色,命令如下:

hive> create rolerole_test1;

OK

Time taken: 0.106 seconds

2)删除角色。语法:

DROP ROLE ROLE_NAME

删除role_test1角色,命令如下:

hive> DROP ROLErole_test1;

OK

Time taken: 6.483 seconds

2 角色的授权和撤销
角色的授权(GRANT)就是给角色授予创建表、查询表等操作,撤销(REVOKE)反之。语法如下:

GRANT ROLE role_name [,role_name] ... TO principal_specification [, principal_specification] ...

REVOKE ROLE role_name [,role_name] ... FROM principal_specification [, principal_specification]...

principal_specification :

USER user |GROUP group | ROLE role

看下面的实例。
1)把role_test1角色授权给jayliu用户,命令如下:

hive> grant role role_test1 to user jayliu;

OK

Time taken: 0.102 seconds

2)查看jayliu用户被授权的角色,命令如下:

hive> SHOW ROLE GRANT user jayliu;

OK

role name:role_test1

role name:role_test1

Time taken: 7.913 seconds,Fetched: 2 row(s)

3)取消jayliu用户的role_test1角色,操作命令如下:

hive> revoke role role_test1 from user jayliu;

OK

Time taken: 0.189 seconds

Hive支持的权限控制如下表10-8所示。
表10-8 Hive权限控制

操作
解释
ALL
所有权限
ALTER
允许修改元数据(modify metadata data of object)---表信息数据
UPDATE
允许修改物理数据(modify physical data of object)---实际数据
CREATE
允许进行Create操作
DROP
允许进行DROP操作
INDEX
允许建索引(目前还没有实现)
LOCK
当出现并发的使用允许用户进行LOCK和UNLOCK操作
SELECT
允许用户进行SELECT操作
SHOW_DATABASE
允许用户查看可用的数据库
看下面的实例。
1)把select权限授权给jayliu用户,命令如下:

hive> grant select ondatabase default to user jayliu;

OK

Time taken: 0.188 seconds

2)查看jayliu被授予那些操作权限,命令如下:

hive> show grant user jayliu on database default;

OK

database default

principalName jayliu

principalType USER

privilege Select

grantTime Thu Jul 11 18:17:39 CST 2013

grantor root

Time taken: 7.615 seconds,Fetched: 7 row(s)

3)收回jayliu的select权限,操作如下:

hive> revoke select on database default from user jayliu;

OK

Time taken: 0.147 seconds

4)查看jayliu用户拥有那些权限:

hive> show grant user jayliu on database default;

OK

Time taken: 0.032 seconds

3 超级管理员权限Hive本身有权限管理功能,需要通过配置开启。配置文件内容如下:

<property>

<name>hive.metastore.authorization.storage.checks</name>

<value>true</value>

</property>

<property>

<name>hive.metastore.execute.setugi</name>

<value>false</value>

</property>

<property>

<name>hive.security.authorization.enabled</name>

<value>true</value>

</property>

<property>

<name>hive.security.authorization.createtable.owner.grants</name>

<value>ALL</value>

</property>

其中hive.security.authorization.createtable.owner.grants设置成ALL表示用户对自己创建的表是有所有权限。
开启权限控制有Hive的权限功能还有一个需要完善的地方,那就是“超级管理员”。
Hive中没有超级管理员,任何用户都可以进行Grant/Revoke操作,为了完善“超级管理员”,必须添加hive.semantic.analyzer.hook配置,并实现自己的权限控制类。实现“超级管理员”的步骤如下。
1)编写编写权限控制类,代码如代码清单10-4所示。
代码清单10-4 hive\udaf\ AvgUDAF.java

package com.autoNavi.hive;

importorg.apache.hadoop.hive.ql.parse.ASTNode;

importorg.apache.hadoop.hive.ql.parse.AbstractSemanticAnalyzerHook;

importorg.apache.hadoop.hive.ql.parse.HiveParser;

import org.apache.hadoop.hive.ql.parse.HiveSemanticAnalyzerHookContext;

import org.apache.hadoop.hive.ql.parse.SemanticException;

import org.apache.hadoop.hive.ql.session.SessionState;

public class HiveAdmin extends AbstractSemanticAnalyzerHook {

private static String admin = "admin";

@Override

public ASTNodepreAnalyze(HiveSemanticAnalyzerHookContextcontext,

ASTNodeast) throws SemanticException {

switch (ast.getToken().getType()) {

caseHiveParser.TOK_CREATEDATABASE:

caseHiveParser.TOK_DROPDATABASE:

caseHiveParser.TOK_CREATEROLE:

caseHiveParser.TOK_DROPROLE:

caseHiveParser.TOK_GRANT:

caseHiveParser.TOK_REVOKE:

caseHiveParser.TOK_GRANT_ROLE:

caseHiveParser.TOK_REVOKE_ROLE:

StringuserName = null;

if (SessionState.get() != null

&&SessionState.get().getAuthenticator() != null){

userName=SessionState.get().getAuthenticator().getUserName();

}

if (!admin.equalsIgnoreCase(userName)) {

thrownewSemanticException(userName

+ " can't use ADMIN options, except " + admin +".");

}

break;

default:

break;

}

returnast;

}

}

2)添加控制类HiveAdmin到Hive的配置文件(hive-site.xml)中,代码如下所示:

<property>

<name>hive.semantic.analyzer.hook</name>

<value>com.autonavi.hive.HiveAdmin</value>

</property>

添加了配置文件以后,如果启动了Hive Server,必须关闭重启功能才能生效。
至此,只有admin用户可以进行Grant/Revoke操作。例如,jayliu用户启动Hive的Shell命令,把default数据库中的所有表的查询(SELECT)授权给用户hadoop,命令如下:

hive> GRANT SELECT ON DATABASEdefault TO USER hadoop;

FAILED:SemanticExceptionjayliu can't use ADMIN options, except admin.

Hive的权限控制在Hive的生产环境中使用的非常多,在0.10版本之前Hive是没有提供这个功能的。读者使用这个功能的时候一定要确保Hive的版本在0.10以后。
实例:使用 JDBC开发 Hive 程序在使用 JDBC开发 Hive 程序时, 必须首先开启Hive 的远程服务接口。使用下面命令进行开启:
hive --servicehiveserver &
1 准备测试数据准备一个文件hiveJDBC.txt,文件内容(每行数据之间用tab键隔开)为:
1 hadoop
2 hive
3 Hbase
数据准备好了,接下来使用Hive的JDBC来实现对Hive表的数据加载、表结构信息和数据查询等操作。
2 代码实现Hive的JDBC操作实现表的数据加载、表结构信息和数据查询。代码如代码清单10-3所示。
代码清单10-3 hive\udaf\ HiveJdbcClient.java

packagecom.hive.jdbc;

importjava.sql.Connection;

importjava.sql.DriverManager;

importjava.sql.ResultSet;

importjava.sql.SQLException;

importjava.sql.Statement;

importorg.apache.log4j.Logger;

publicclass HiveJdbcClient {

private static String driverName ="org.apache.hadoop.hive.jdbc.HiveDriver";

private static String url ="jdbc:hive://192.168.153.100:10000/default";

private static String user ="hive";

private static String password = "hive";

private static String sql ="";

private static ResultSet res;

private static final Logger log =Logger.getLogger(HiveJdbcClient.class);

public static void main(String[] args){

try {

Class.forName(driverName);

Connection conn =DriverManager.getConnection(url, user, password);

Statement stmt =conn.createStatement();

// 创建的表名

String tableName ="testHiveJDBC";

/** 第一步:存在就先删除**/

sql = "drop table" + tableName;

stmt.executeQuery(sql);

/** 第二步:不存在就创建**/

sql = "createtable " + tableName + " (key int, value string)

row formatdelimited fields terminated by '\t'";

stmt.executeQuery(sql);

// 执行“show tables”操作

sql = "show tables'" + tableName + "'";

System.out.println("Running:" + sql);

res = stmt.executeQuery(sql);

System.out.println("执行“show tables”运行结果:");

if (res.next()) {

System.out.println(res.getString(1));

}

// 执行“describe table”操作

sql = "describe" + tableName;

System.out.println("Running:" + sql);

res =stmt.executeQuery(sql);

System.out.println("执行“describe table”运行结果:");

while (res.next()){

System.out.println(res.getString(1) + "\t" +res.getString(2));

}

// 执行“load data intotable”操作

String filepath ="/home/hadoop/ziliao/userinfo.txt";

sql = "load datalocal inpath '" + filepath + "' into table " + tableName;

System.out.println("Running:" + sql);

res =stmt.executeQuery(sql);

// 执行“select * query”操作

sql = "select *from " + tableName;

System.out.println("Running:" + sql);

res =stmt.executeQuery(sql);

System.out.println("执行“select * query”运行结果:");

while (res.next()) {

System.out.println(res.getInt(1) + "\t" + res.getString(2));

}

// 执行“regular hive query”操作

sql = "selectcount(1) from " + tableName;

System.out.println("Running:" + sql);

res =stmt.executeQuery(sql);

System.out.println("执行“regular hive query”运行结果:");

while (res.next()) {

System.out.println(res.getString(1));

}

conn.close();

conn = null;

} catch (ClassNotFoundExceptione) {

e.printStackTrace();

log.error(driverName +" not found!", e);

System.exit(1);

} catch (SQLException e) {

e.printStackTrace();

log.error("Connection error!", e);

System.exit(1);

}

}

}

代码实现完成,接下来运行这个代码,操作为Run AS->Java Aplication,Eclipse的控制台会出现如下结果:

Running:show tables 'testHiveJDBC'

执行“show tables”运行结果:

'testHiveJDBC'

Running:describe 'testHiveJDBC'

执行“describe table”运行结果:

key int

value string

Running:load data localinpath '/user/hadoop/hive/hiveJDBC.txt' intotable testHiveJDBC

Running:select * from'testHiveJDBC'

执行“select * query”运行结果:

hadoop

hive

hbase

Running:select count(1)from testHiveJDBC

执行“regular hive query”运行结果:
Hive的JDBC接口在实际开发中是经常用到的。和MySQL的JDBC接口非常的类似。给开发人员提供了远程操作Hive的接口。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  hive privillege