报错:Error: Could not open client transport with JDBC Uri: jdbc:hive2://hadoop102:10000

news/2024/5/20 3:09:12 标签: hadoop, hdfs, java

报错:

Error: Could not open client transport with JDBC Uri: jdbc:hive2://hadoop102:10000: Failed to open new session: java.lang.RuntimeException: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.authorize.AuthorizationException): User: atguigu is not allowed to impersonate atguigu (state=08S01,code=0)

解决方案:

xxx是你使用的用户名字,“*”表示可通过超级代理“xxx”操作hadoop的用户、用户组和主机。

步骤:

1. 在hadoop中/etc/hadoop/core-site.xml(这是我的路径:/opt/module/hadoop-3.1.3/etc/hadoop/core-site.xml)增加如下配置

2. 用xsync命令分发core-site.xml

3.把metastore和hiveserver2停了,然后关闭再开启hadoop集群

4.开启metastore和hiveserver2,继续报错前的操作

<property>
    <name>hadoop.proxyuser.xxx.hosts</name>
    <value>*</value>
</property>
<property>
    <name>hadoop.proxyuser.xxx.groups</name>
    <value>*</value>
</property>

如果开启metastore报端口被占用的错误,可能是因为重复开启服务,使用jps命令,查看进程,把除hadoop集群正常启动的进程和Jps,其他都kill

[atguigu@Hadoop102 hadoop-3.1.3]$ jps
24064 NodeManager
24883 Jps
21942 RunJar
23703 DataNode
24471 RunJar
21336 RunJar
20313 RunJar
18970 RunJar
23582 NameNode
24639 RunJar
[atguigu@Hadoop102 hadoop-3.1.3]$ kill -9 24471
[atguigu@Hadoop102 hadoop-3.1.3]$ kill -9 21336
[atguigu@Hadoop102 hadoop-3.1.3]$ kill -9 20313
[atguigu@Hadoop102 hadoop-3.1.3]$ kill -9 18970
[atguigu@Hadoop102 hadoop-3.1.3]$ kill -9 24639
[atguigu@Hadoop102 hadoop-3.1.3]$ jps
24064 NodeManager
21942 RunJar
23703 DataNode
24906 Jps
23582 NameNode
 

参考:https://blog.csdn.net/u011495642/article/details/84305944


http://www.niftyadmin.cn/n/1303239.html

相关文章

使用元数据服务的方式访问 Hive 使用 JDBC 方式访问 Hive

目录 1.使用元数据服务的方式访问 Hive 2.使用 JDBC 方式访问 Hive 首先一定要开启hadoop集群&#xff01;&#xff01;&#xff01;如果报错连接拒绝&#xff0c;注意有没有开启 1.使用元数据服务的方式访问 Hive 1&#xff09;在 /opt/module/hive/conf/hive-site.xml 文…

Hive的几个重要表

1.metastore数据库的DBS表 包含各表存储信息等 2.metastore数据库的TBLS表 包含各表是否是外部表等 3.metastore数据库的TABLE_PARAMS表 查看numFiles、numRows &#xff08;1&#xff09;如果是刚建表&#xff0c;numFiles、numRows都为0&#xff1b; &#xff08;2&…

IDEA 快捷键拆解系列(十五):经验篇

这是IDEA快捷键拆解系列的第十五篇。 本文整理了一些博主本人在学习工作中比较常用到的快捷键&#xff0c;有需要的可以参考一下&#xff0c;也欢迎留言补充。 类型快捷键描述1. 查找Ctrl N查找类文件2. 查找Ctrl Shift N查找文件3. 查找Ctrl F当前文件查找4. 查找Ctrl R…

union union all

相同点&#xff1a;两者作用都是结合两表 区别&#xff1a;union去重&#xff0c;union all不去重 &#xff08;1&#xff09;如果需求需要去重&#xff0c;只能选择union &#xff08;2&#xff09;如果需求不需要去重&#xff0c;选择union all &#xff08;3&#xff09…

让分区表和数据产生关联的三种方式

如果是自己创建目录&#xff0c;不以正常方式加载数据&#xff0c;则分区表和数据不关联 [atguiguHadoop102 data]$ hadoop fs -mkdir /user/hive/warehouse/dept_par/day2020-10-29 让分区表和数据产生关联的三种方式 &#xff1a; &#xff08;1&#xff09;方式一&#x…

Hive_开窗函数实验注意点

1.数据 numid123356 2.用开窗函数累加第一行至当前行 select sum(id) over(order by id) from num 3.结果 1 3 9 9 14 20 两个9的原因&#xff1a;id为3的有两个&#xff0c;到第一个id为3的时候和第二个id为3的时候都是开窗到第二个id为3的地方。

Hive动态分区

作为partition字段的参数是select最后一个字段 hive (default)> insert into table dept_partition_dy partition(loc) > select deptno, dname, loc from dept; 在hive3里也可以省略partition字段&#xff0c;严格模式下省略partition字段可以直接使用 hive (default…

IDEA 快捷键拆解系列(十六):插件篇

这是IDEA快捷键拆解系列的第十六篇。 本文整理了博主用过的一些IDEA插件。其中&#xff0c;五星是强烈推荐&#xff0c;四星是比较推荐&#xff0c;三星仅供参考&#xff0c;两星的就不多说了&#xff0c;一星是炫酷型的插件&#xff0c;一般帮助也不大。最后&#xff0c;欢迎留…