历史版本31 :数据连接 Kerberos 认证 返回文档
编辑时间: 内容长度:图片数:目录数: 修改原因:

目录:

1. 概述编辑

1.1 认证方式简介

1)Kerberos 认证 是 Hadoop 生态的一种通用的认证方式。

2)配置 Kerberos 认证的方式有两种:

  • 直接使用数据连接配置界面中的 Kerberos 认证:主要用于 Hive、HBase 等驱动的认证连接。

  • 配置 JVM 参数后再进入数据连接配置界面进行认证:主要用于按要求填写数据连接配置界面认证成功,创建连接依然抛错的情况,比如 CDH 的 Impala 等数据库。

1.2 支持的数据库

 FineBI 在配置指定的数据连接时支持 Kerberos 认证,支持的数据库类型如下图所示:

  数据库
  Apache Impala注:只能用方法二,不能用方法一
  Hadoop Hive
  Spark
  Transwarp Inceptor(星环)
  Apache Phoenix
  HBase

1.3 数据连接前的准备工作

1)下载环境上的配置文件 krb5.conf、XXX.keytab、principal 。

2)principal 为注册过 KDC 的客户端名称。格式通常为:用户名/部门@公司 。

3) XXX.keytab 为密钥表文件,需要在提供 Kerberos 服务的应用服务器上找到该文件的对应位置。在不同服务器上 keytab 的文件名称可能不一样,这里用 XXX 代替。

2. 方法一:直接使用数据连接配置界面编辑

这里以 Spark 为例。

2.1 复制配置文件

将 krb5.conf 和 XXX.keytab 放到相同目录下,例如放到%FineBI%\webapps\webroot\WEB-INF\resources目录下。

注:当有多个 Kerberos 认证时,keytab 文件最好不要都放置在 reources 目录下,可能会导致认证冲突。此时可以在 resources 下新建各自的文件夹,放置对应的认证文件。

2.2 配置 hosts 文件

配置本地 hosts 文件,例如在路径C:\Windows\System32\drivers\etc\hosts下配置远端映射:192.168.5.127  quickstart.cloudera 。映射格式为「 IP  机器名」。如下图所示:

1574066211785589.png

2.3 设置数据连接

1)选择数据连接配置面板的认证方式为「Kerberos 认证」,按要求填写客户端 principal 和 keytab 密钥路径,keytab 的名称根据实际情况修改。其他按 配置数据连接 中的说明进行数据连接。注意 URL 后需要添加客户端 principal 。数据连接信息示例如下所示:

选项
URL
 jdbc:hive2://192.168.5.127:10000/default;principal=hive/quickstart.cloudera@QUICKSTART.CLOUDERA
客户端 principal 
hive/quickstart.cloudera@QUICKSTART.CLOUDERA
keytab 密钥路径
%FineBI%\webapps\webroot\WEB-INF\resources\hive.keytab

如下图所示:

1577931860577867.png

注:此处需确保 krb5.conf 和 XXX.keytab 放置在相同目录下。

2)点击测试连接,连接成功如下图所示:

1574064965717624.png

3.  方法二:配置 JVM 参数后再进入数据连接配置界面编辑

以 Apache Impala 为例。这里以本地部署下的 BI 为例,若为部署在 Tomcat 下的工程,则配置步骤一致,只需将地址修改为 Tomcat 下的对应地址即可。

3.1 复制配置文件

下载环境上的配置文件 krb5.conf 和 impala.keytab 放置到%FineBI%\webapps\webroot\WEB-INF\resources目录下。

注:当有多个 Kerberos 认证时,keytab 文件最好不要都放置在 reources 目录下,可能会导致认证冲突。此时可以在 resources 下新建各自的文件夹,放置对应的认证文件。

3.2 配置 krb5.ini 文件

准备 krb5.ini 文件,并将该 krb5.ini 文件放置到%FineBI%\webapps\webroot\WEB-INF\resources目录下,内容如下所示:

Client {
    com.sun.security.auth.module.Krb5LoginModule required doNotPrompt = true 
    useKeyTab = true 
    keyTab = "%FineBI%\webapps\webroot\WEB-INF\resources\XXX.keytab"
    principal = "dummy@SOME.REALM"
    debug = true;
};

3.3 添加 JVM 参数

1)进入 FineBI 安装目录 %FineBI%\bin ,找到 finebi.vmoptions 文件,编辑该文件,增加下面 2 个 JVM 参数,如下所示:

-Djava.security.krb5.conf=%FineBI%\webapps\webroot\WEB-INF\resources\krb5.conf
-Djava.security.auth.login.config=%FineBI%\webapps\webroot\WEB-INF\resources\krb5.ini

注:两个参数的值为 krb5.conf 和 krb5.ini 文件的绝对路径。

编辑完成的 finebi.vmoptions 文件示例如下:

-Djava.security.krb5.conf=%FineBI%\webapps\webroot\WEB-INF\resources\krb5.conf 
-Djava.security.auth.login.config=%FineBI%\webapps\webroot\WEB-INF\resources\krb5.ini 
-Xmx4018m 
-Dfile.encoding=UTF-8 
-Djava.io.tmpdir=.\temp

注:此处若使用的不是单机版,而是 Spider 分布式引擎,则需要在该文件中再添加一个参数:-Dzookeeper.sasl.client=false,因为zookeeper 默认认证模式会受到 kerberos 配置的影响而导致 BI 无法启动。

-Dzookeeper.sasl.client=false

2)此时同样也需要配置远端的映射,与方法一一致,详见本文 2.1 章节第 2 小点。

3)选择数据连接配置面板的认证方式为「Kerberos 认证」,按要求填写客户端 principal 和 keytab 密钥路径,keytab 的名称根据实际情况修改。其他按 配置数据连接 中的说明进行数据连接。注意 URL 后面需要加上 AuthMech、KrbHostFQDN、KrbServiceName 三个参数,数据连接信息如下所示:

选项
含义
URL jdbc:impala://192.168.5.127:21050/default;AuthMech=1;KrbHostFQDN=quickstart.cloudera;KrbServiceName=impala
 AuthMech=1 表示使用 kerberos 认证;
KrbHostFQDN 为 impala server,为 krb5.conf 文件中 admin_server 的值;
KrbServiceName为对应的服务名,详细解释参见: 参数详细解释 
  客户端 principal
impala/quickstart.cloudera@QUICKSTART.CLOUDERA

keytab 密钥路径
 %FineBI%\webapps\webroot\WEB-INF\resources\impala.keytab
  存放 impala.keytab 的路径

数据连接界面如下图所示:

1574074668886319.png

4)点击测试连接成功即可。如下图所示:

1574075131333712.png

注1:尽管 Apache Impala 和 Hive 本身驱动不冲突,但是目前不支持同时对 Apache Impala 和 Hive 做 Kerberos 认证,因为 Kerberos 驱动本身会涉及到全局参数,如果被 Apache Impala 使用,那么 Hive 就无法使用。

注2:若使用驱动隔离插件也不支持 Kerberos 认证。

4. 注意事项编辑

4.1 检查服务器及认证信息

检查内容要求
检查 FineBI 服务器所在机器和数据库服务器的系统时间差通常要求时间差小于 5 分钟

检查配置 FineBI 服务器所在机器的 hosts 文件

需确认能通过主机名/域名 ping 通数据库服务器
FineBI 自带的 zookeeper 包与数据库服务端的 zookeeper 版本需要匹配例如:华为 HD 平台连接可能会出现此类报错
检查 principal 名称是否正确

principal 的格式通常为用户名/部门@公司,确认 principal 是否正确的方式是在数据库服务端 shell 执行klist 或者 kinit -k -t /path/to/keytab name_of_principal。或直接通过 beeline、impala-shell 等工具连接开启认证的服务,并查看对应的 principal 信息

例如:Hive 服务对应 principal 为 hive /bigdata@XXX.COM,而 Impala 服务对应的 principal为impala/bigdata@XXX.COM

检查 FineBI 的工程路径确保不带有空格(如 tomcat 9),因为 Kerberos 认证不支持带有空格路径。

4.2 无法连接处理方式

1)若连接失败,可与平台数据库管理员确认相关服务的安全认证配置是否正确,并联系帆软技术支持并提供相关报错日志(提添加 JVM 安全调试参数,如下所示),数据平台数据库版本、对应驱动 JAR 包、相关连接信息、Java 认证连接测试代码或者能连接认证数据库的 shell 工具等。

jvm 安全调试日志参数:

-Djava.security.debug=gssloginconfig,configfile,configparser,logincontext
-Djava.security.krb5.debug=true

2)特殊情况下,如果 Windows 系统下无法连接,可以把 FineBI 测试服务器部署在 Linux 系统上。需保证该服务器能通过相关 shell 工具连上数据库,通过 klist 能看到已缓存的 kgt 信息。

4.3 报错

1)描述:cdh 连接抛错:Unable to obtain Principal Name for authentication 。

原因:JDK 默认安装的 JCE 不能处理超过 128 位的对称密钥。

解决方法:更新 JRE 的 JCE 扩展包。

操作步骤:JCE 安装详情参见:扩展包安装连接 。通常直接到第 4 步即可,下载解压得到 JCE 扩展 JAR 包,然后到 JRE 的指定目录替换文件即可。

2)描述:Transwarp Inceptor(星环)数据库报错 GSS initiate failed 。

原因:驱动本身做了静态全局的操作,kerberos 中心刷新后,驱动内部的静态全局还残留,故数据连接连不上。

解决方法:重启 BI 服务器。