当前位置: 首页 > news >正文

Hadoop生态圈框架部署(九)- Hive部署

文章目录

  • 前言
  • 一、Hive部署(手动部署)
    • 下载Hive
    • 1. 上传安装包
    • 2. 解压Hive安装包
      • 2.1 解压
      • 2.2 重命名
      • 2.3 解决guava冲突
    • 3. 配置Hive
      • 3.1 配置Hive环境变量
      • 3.2 修改 hive-site.xml 配置文件
      • 3.3 配置MySQL驱动包
      • 3.3.1 下在MySQL驱动包
      • 3.3.2 上传MySQL驱动包
      • 3.3.3 配置MySQL驱动包
    • 4. 初始化MySQL上的存储hive元数据的数据库
    • 5. 进入Hive客户端
    • 6. 设置远程连接
      • 6.1 启动MetaStore服务
      • 6.2 启动HiveServer2服务
      • 6.3 进入Hive客户端
  • 二、在hadoop2部署一个hive作为客户端
    • 1. 在hadoop2部署hive
    • 2. 配置
      • 2.1 配置Hive环境变量
      • 2.2 修改 hive-site.xml 配置文件
    • 3. 进入Hive客户端
  • 注意


前言

随着大数据技术的快速发展,Hive作为一种数据仓库工具,在处理大规模数据集时展现了其独特的优势。它基于Hadoop分布式文件系统(HDFS)之上提供了一种类似SQL的查询语言——HiveQL,使得熟悉关系型数据库的开发者能够轻松地进行数据查询和分析。此外,Hive还支持数据汇总、即席查询以及数据分析等任务,成为企业级数据处理解决方案中的重要组成部分。

本教程旨在为读者提供一份详尽且易于理解的Hive部署教程。通过按照本文档步骤操作,您可以成功地在单机或多机环境中搭建起Hive环境,并实现与Hadoop集群的良好集成。我们将从下载Hive安装包开始,逐步介绍如何上传、解压、配置Hive环境变量及核心配置文件,直至完成Hive服务的启动和客户端访问。不仅如此,我们还将进一步探讨如何设置远程连接,以便用户可以从其他主机上连接到Hive执行查询任务。


一、Hive部署(手动部署)

下载Hive

点击在官网下载Hive3.1.3安装包:https://archive.apache.org/dist/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz

点击在华为镜像站下载Hvie3.1.3安装包:https://repo.huaweicloud.com/apache/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz

1. 上传安装包

通过拖移的方式将下载的Hive安装包apache-hive-3.1.3-bin.tar.gz上传至虚拟机hadoop3/export/software目录。

在这里插入图片描述

2. 解压Hive安装包

2.1 解压

虚拟机hadoop3上传完成后将Hive安装包通过解压方式安装至/export/servers目录。

tar -zxvf /export/software/apache-hive-3.1.3-bin.tar.gz -C /export/servers/

解压完成如下图所示。

在这里插入图片描述

2.2 重命名

虚拟机hadoop3执行如下命令将apache-hive-3.1.3-bin重命名为hive-3.1.3。

mv /export/servers/apache-hive-3.1.3-bin /export/servers/hive-3.1.3

在这里插入图片描述

2.3 解决guava冲突

如下图所示,hadoop中的guava与hive中的guava版本不一致,会产生冲突,需要把hive的guava更换为hadoop的guava高版本。

在这里插入图片描述

虚拟机hadoop3执行如下命令解决guava冲突问题。

rm -f /export/servers/hive-3.1.3/lib/guava-19.0.jar
cp /export/servers/hadoop-3.3.0/share/hadoop/common/lib/guava-27.0-jre.jar /export/servers/hive-3.1.3/lib

在这里插入图片描述

3. 配置Hive

3.1 配置Hive环境变量

虚拟机hadoop3执行如下命令设置Hive环境变量,并加载系统环境变量配置文件。

echo >> /etc/profile
echo 'export HIVE_HOME=/export/servers/hive-3.1.3' >> /etc/profile
echo 'export PATH=$PATH:$HIVE_HOME/bin' >> /etc/profile
source /etc/profile

在这里插入图片描述

3.2 修改 hive-site.xml 配置文件

虚拟机hadoop3使用cat命令把配置内容重定向并写入到 /export/servers/hive-3.1.3/conf/hive-site.xml 文件。

cat >/export/servers/hive-3.1.3/conf/hive-site.xml <<EOF
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration><!-- 配置JDO(Java Data Objects)选项,指定Hive元数据存储的数据库连接URL。这里使用的是MySQL数据库,并且如果数据库不存在则自动创建。 --><property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://hadoop1:3306/hive?createDatabaseIfNotExist=true</value></property><!-- 指定用于连接数据库的JDBC驱动类名 --><property><name>javax.jdo.option.ConnectionDriverName</name><value>com.mysql.cj.jdbc.Driver</value></property><!-- 数据库连接用户名 --><property><name>javax.jdo.option.ConnectionUserName</name><value>root</value></property><!-- 数据库连接密码 --><property><name>javax.jdo.option.ConnectionPassword</name><value>123456</value></property><!-- 指定Hive元数据仓库在HDFS上目录的位置 --><property><name>hive.metastore.warehouse.dir</name><value>/user/hive_local/warehouse</value></property>
</configuration>
EOF

在这里插入图片描述

3.3 配置MySQL驱动包

3.3.1 下在MySQL驱动包

点击下载MySQL驱动jar包:https://repo1.maven.org/maven2/mysql/mysql-connector-java/8.0.30/mysql-connector-java-8.0.30.jar

3.3.2 上传MySQL驱动包

通过拖移的方式将下载的MySQL驱动包上传至虚拟机hadoop3/export/software目录。

在这里插入图片描述

3.3.3 配置MySQL驱动包

虚拟机hadoop3执行如下命令复制MySQL驱动包到/export/servers/hive-3.1.3/lib目录下。

cp /export/software/mysql-connector-java-8.0.30.jar /export/servers/hive-3.1.3/lib/

在这里插入图片描述

4. 初始化MySQL上的存储hive元数据的数据库

虚拟机hadoop3执行如下命令初始化MySQL上的存储hive元数据的数据库。

schematool -initSchema -dbType mysql

在这里插入图片描述

初始化完成如下图所示。

在这里插入图片描述

5. 进入Hive客户端

虚拟机hadoop3执行如下命令在本地进入Hive客户端。

hive

在这里插入图片描述

退出Hive客户端。可以使用exit;命令或者按快捷键Ctrl+c退出。

exit;

在这里插入图片描述

6. 设置远程连接

Hive 提供了两种服务以支持用户的远程连接:

  1. MetaStore 服务:MetaStore 服务负责管理 Hive 的元数据,并通过与关系型数据库的连接来存储和检索这些元数据。

  2. HiveServer2 服务:HiveServer2 服务基于 Thrift 协议实现,提供了通过 JDBC 和 ODBC 连接到 Hive 的功能。它依赖于 MetaStore 服务来获取元数据信息。用户在通过 HiveServer2 服务远程连接到 Hive 之前,需要确保 MetaStore 服务已经启动并运行。

6.1 启动MetaStore服务

虚拟机hadoop3执行如下命令启动MetaStore服务。此时的MetaStore服务是前台启动,退出将会停止MetaStore服务。

hive --service metastore

在这里插入图片描述

可以按快捷键Ctrl+c停止MetaStore服务。

由于前台启动会占用页面,执行其他命令时需要复制一个新标签,我们可以在停止MetaStore服务后使用如下命令把MetaStore服务放到后台启动,并指定日志输出位置。

mkdir -p /export/servers/hive-3.1.3/logs
nohup hive --service metastore > /export/servers/hive-3.1.3/logs/metastore.log 2>&1 &

在这里插入图片描述

可以使用如下命令查看启动后的MetaStore服务进程,此时如果要停止MetaStore服务,需要使用kill命令杀死对应进程。

ps -ef | grep hive

在这里插入图片描述

6.2 启动HiveServer2服务

复制一个hadoop3标签,在虚拟机hadoop3执行如下命令启动HiveServer2服务。此时的HiveServer2服务是前台启动,退出将会停止HiveServer2服务。启动HiveServer2服务后,用户可以通过HiveServer2服务远程连接Hive。

hive --service hiveserver2

在这里插入图片描述

可以按快捷键Ctrl+c停止HiveServer2服务。

由于前台启动会占用页面,执行其他命令时需要复制一个新标签,我们可以在停止HiveServer2服务后使用如下命令把HiveServer2服务放到后台启动,并指定日志输出位置。

nohup hive --service hiveserver2 > /export/servers/hive-3.1.3/logs/hiveserver2.log 2>&1 &

在这里插入图片描述

可以使用如下命令查看启动后的HiveServer2服务进程,此时如果要停止HiveServer2服务,需要使用kill命令杀死对应进程。

ps -ef | grep hive

在这里插入图片描述

6.3 进入Hive客户端

复制一个hadoop3标签,在虚拟机hadoop3执行如下命令远程进入Hive客户端。

beeline -u jdbc:hive2://hadoop3:10000 -n root --hiveconf hive.metastore.uris=thrift://hadoop3:9083
  • 参数 -u:指定HiveServer2服务的JDBC URL。

    • jdbc:hive2://hadoop3:10000 中:
      • hadoop3 是运行HiveServer2服务的服务器主机名。
      • 10000 是HiveServer2服务默认使用的端口号。
  • 参数 -n:指定连接HiveServer2服务时使用的用户名。

    • root 是用户名,该用户必须具有操作HDFS的适当权限。

在这里插入图片描述


二、在hadoop2部署一个hive作为客户端

1. 在hadoop2部署hive

虚拟机hadoop3执行如下命令复制hadoop3安装好的hive到虚拟机hadoop2。

scp -r root@hadoop3:/export/servers/hive-3.1.3 root@hadoop2:/export/servers/

在这里插入图片描述

2. 配置

2.1 配置Hive环境变量

虚拟机hadoop2执行如下命令设置Hive环境变量,并加载系统环境变量配置文件。

echo >> /etc/profile
echo 'export HIVE_HOME=/export/servers/hive-3.1.3' >> /etc/profile
echo 'export PATH=$PATH:$HIVE_HOME/bin' >> /etc/profile
source /etc/profile

在这里插入图片描述

2.2 修改 hive-site.xml 配置文件

虚拟机hadoop2使用cat命令把配置内容重定向并写入到 /export/servers/hive-3.1.3/conf/hive-site.xml 文件。

cat >/export/servers/hive-3.1.3/conf/hive-site.xml <<EOF
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration><!-- 指定Hive Metastore服务的地址 --><property><name>hive.metastore.uris</name><value>thrift://hadoop3:9083</value></property>
</configuration>
EOF

在这里插入图片描述

3. 进入Hive客户端

虚拟机hadoop2执行如下命令远程进入部署在hadoop3的Hive

beeline -u jdbc:hive2://hadoop3:10000 -n root

注意

在Hive安装并配置完成后,每当系统重启后,为了确保Hive能够正常工作,首先需要启动Hadoop集群。

start-all.sh

如果还需要支持远程连接功能,则必须在虚拟机hadoop3上手动启动Hive的MetaStore服务和HiveServer2服务。

mkdir -p /export/servers/hive-3.1.3/logs
nohup hive --service metastore > /export/servers/hive-3.1.3/logs/metastore.log 2>&1 &
nohup hive --service hiveserver2 > /export/servers/hive-3.1.3/logs/hiveserver2.log 2>&1 &

http://www.mrgr.cn/news/78779.html

相关文章:

  • 汽车控制软件下载移动管家手机控车一键启动app
  • 完全二叉树的应用--堆
  • PyTorch介绍
  • 人工智能如何改变你的生活?
  • Webman中实现定时任务
  • 基于 Python、OpenCV 和 PyQt5 的人脸识别上课打卡系统
  • MySQL中如何减少回表
  • 微服务即时通讯系统的实现(服务端)----(3)
  • 基础Web安全|SQL注入
  • 《装甲车内的气体卫士:上海松柏 S-M4 智能型气体传感器详解》
  • 从0开始学PHP面向对象内容之常用设计模式(策略,观察者)
  • 腾讯微众银行前端面试题及参考答案
  • 提升分布式系统响应速度:分布式系统远程调用性能提升之道
  • 开源多媒体处理工具ffmpeg是什么?如何安装?使用ffmpeg将M3U8格式转换为MP4
  • Flink问题总结
  • 预处理详解(完结篇)
  • 4399大数据面试题及参考答案(数据分析和数据开发)
  • IDEA自定义帆软函数步骤详解
  • 解决“ VMware Tools for Windows Vista and later“报错问题
  • Hive元数据表解析
  • 联合汽车电子嵌入式面试题及参考答案
  • SAP SD学习笔记17 - 投诉处理3 - Credit/Debit Memo依赖,Credit/Debit Memo
  • 第144场双周赛:移除石头游戏、两个字符串得切换距离、零数组变换 Ⅲ、最多可收集的水果数目
  • Formality:设置Automated Setup Mode模式
  • 《装甲车内气体检测“神器”:上海松柏 K-5S 电化学传感器模组详解》
  • redis面试复习