spark-hive spark hive

三、Hive学习之SQL、函数

SQL练习 1、count(*)、count(1) 、count('字段名') 区别 从执行结果来看 count(*)包括了所有的列,相当于行数,在统计结果的时候,不会忽略列值为NULL 最慢的 count(1)包括了忽略所有列,用1代表代码行,在统计结果的时候,不会忽略列值为NULL 最快的 co ......
函数 Hive SQL

二、Hive学习

1、Hive分区(十分重要!!) 在大数据中,最常见的一种思想就是分治,我们可以把大的文件切割划分成一个个的小的文件,这样每次操作一个个小的文件就会很容易了,同样的道理,在hive当中也是支持这种思想的,就是我们可以把大的数据,按照每天或者每小时切分成一个个小的文件,这样去操作小的文件就会容易很多了 ......
Hive

一、Hive概述与安装部署

1、Hive基本概念 1.1 Hive简介 Hive本质是将SQL转换为MapReduce的任务进行运算,底层由HDFS来提供数据存储,说白了hive可以理解为一个将SQL转换为MapReduce的任务的工具,甚至更近一步说hive就是一个MapReduce客户端。 思考:计算文件user.txt中 ......
Hive

Iceberg Spark存储过程-表治理工具

一、简介 存储过程(Procedure)是数据库领域的概念,类似于编程语言中的方法或函数,是对实现特定操作的封装,原生的 Spark SQL 中是不支持存储过程的,Iceberg 0.11.0版本之后对其进行了扩展,并提供了部分存储过程的实现。Iceberg 中提供的所有存储过程都在system n ......
过程 Iceberg 工具 Spark

Hive与MySQL的版本关系

Hive支持的MySQL版本 Hive的元数据存储在MySQL数据库中,因此必须要安装和配置MySQL,以便与Hive配合使用。但是,Hive不支持所有MySQL版本,以下是Hive所支持的MySQL版本: MySQL 5.5.x (推荐) MySQL 5.6.x MySQL 5.7.x MySQL ......
版本 MySQL Hive

hive身份验证

Hive 通过HiveServer2对外提供服务,HiveServer2 是一种能使客户端执行 Hive 查询的服务。 HiveServer2 实现了一个新的基于 Thrift 的 RPC 接口,该接口可以处理客户端并发请求。当前版本支持 Kerberos,LDAP 以及自定义可插拔身份验证。新的 ......
身份 hive

EMR-hive集成openldap

LDAP认证:https://help.aliyun.com/zh/emr/emr-on-ecs/user-guide/use-ldap-authentication?spm=a2c4g.11186623.0.i4 OpenLDAP试用说明参考:https://help.aliyun.com/zh/ ......
EMR-hive openldap hive EMR

实验6熟悉的hive的基本操作

今天完成了大数据实验六的hive的基本操作 参照实验6 熟悉Hive的基本操作_hive环境搭建实验报告-CSDN博客、 这位博主的代码,但是前期的启动hive并没有按照博主的来,启动hive大家参照我之前的一篇博客来就行 我是从黑马教程跟着下载的hive ......
基本操作 hive

hive执行sql报错 FAILED: Execution Error, return code 3 from org.apache.hadoop.hive.ql.exec.mr.MapredLocalTask

前言: 执行hive sql报错,sql逻辑是两个表左连接并将数据插入新的表中。 报错信息: [ERROR] 2023-12-05 15:49:49.165 +0800 - execute sql error: Error while processing statement: FAILED: Ex ......
hive MapredLocalTask Execution FAILED apache

DBeaver连接hive

配置maven仓库:窗口,首选项,连接,驱动,Maven,添加 https://repo.huaweicloud.com/repository/maven/ ......
DBeaver hive

datax采集txt文件数据到hive

1、提前创建hive表结构 DROP TABLE IF EXISTS ods.ods_log_1diu; CREATE TABLE IF NOT EXISTS ods.ods_log_1diu ( SI_NO STRING, --varchar(10) not null,主键 SEND_TABLE ......
文件 数据 datax hive txt

spark-sql查询Iceberg时处理流程

1、查询表结构 show create table data_lake_ods.test CREATE TABLE spark_catalog.data_lake_ods.test ( `user_number` BIGINT NOT NULL, `subclazz_number` BIGINT N ......
spark-sql 流程 Iceberg spark sql

关于hadoop hive中使用hive分区功能

很多人习惯了使用第三方的工具 去连接hive或者hbase数据库,并且 使用其中的sql编辑器进行失去了语句 的使用来进行数据的分析等一系列的 操作,但是一些shell命令也可以在其中 运行例如: 1. set hive.exec.dynamic.partition=true; 2. set hiv ......
hive 功能 hadoop

hive向表中导入数据出现FAILED: SemanticException

完整错误信息 FAILED: SemanticException Line 1:23 Invalid path ''~/Downloads/stocks.csv'': No files matching path file:/home/lcz/~/Downloads/stocks.csv 路径错误, ......
SemanticException 数据 FAILED hive

hive启动出现Cannot create directory /tmp/hive. Name node is in safe mode.

原因:进入了安全模式,hdfs在启动开始时会进入安全模式,这时文件系统中的内容不允许修改也不允许删除,直到安全模式结束。 执行命令: hadoop dfsadmin -safemode leave 退出安全模式即可 出现 Safe mode is OFF 表示成功退出 ......
hive directory Cannot create Name

hive启动时有一堆WARN信息

hive启动时有一堆WARN信息 比如: SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/usr/local/hive/lib/log4j-slf4j-impl-2.17.1 ......
信息 hive WARN

Hive的安装与配置

第1关:Hive的安装与配置 在修改 conf 下面的hive-site.xml文件这里,题目给的信息是错误的,正确的内容如下: <?xml version="1.0" encoding="UTF-8" standalone="no"?> <?xml-stylesheet type="text/xs ......
Hive

hive启动出现Either your MetaData is incorrect, or you need to enable "datanucleus.schema.autoCreateTables"

hive启动出现: Required table missing : "`VERSION`" in Catalog "" Schema "". DataNucleus requires this table to perform its persistence operations. Either ......

hive升级元数据报错The reference to entity "useSSL" must end with the ';' delimiter.

使用Hive自带的schematool工具升级元数据,也就是把最新的元数据重新写入MySQL数据库中。 执行以下命令 cd /usr/local/hive ./bin/schematool -initSchema -dbType mysql 出现The reference to entity "us ......
quot delimiter reference 数据 entity

hadoop高可用集群集成hive

hive和hadoop的关系 从上图可以看出实际上外界是通过thrift server这个节点和hadoop的hdfs以及rm进行交互的,中间为driver 因此当我修改完hadoop集群为高可用的时候,hive也需要重新配置环境以下是我hive的全新配置 <configuration> <!-- ......
集群 hadoop hive

spark提交文件支持路径类型

spark-submit 提交文件支持的路径类型 类似以下参数 --files --jars --archives --conf spark.yarn.jars --conf spark.yarn.archive --conf spark.yarn.dist.archives --conf spar ......
路径 类型 文件 spark

spark提交参数 [spark.yarn.dist.jars] 和 [spark.yarn.jars ]区别

spark.yarn.dist.jars 作用 用于指定分发到集群节点上的 JAR 包的路径。 工作原理 Spark 应用程序的执行器会将这些 JAR 包分发到它们的本地文件系统上。这样,应用程序可以在执行期间访问这些 JAR 包。 使用场景 适用于应用程序的依赖项,这些依赖项不需要在整个集群中共享 ......
spark jars yarn 参数 dist

java使用hive-jdbc查询超时:java.sql.SQLException: org.apache.thrift.transport.TTransportException: java.net.SocketTimeoutException: Read timed out

java.sql.SQLException: org.apache.thrift.transport.TTransportException: java.net.SocketTimeoutException: Read timed out at org.apache.hive.jdbc.HiveSt ......

spark离线分析--本地Spark1.6版本读写hive表

1. 搭建好hive环境,并将hive-site.xml文件放到本地工程的resources目录下 2. java测试代码 public class SparkHiveTest{ public static void main(String[] args){ JavaSparkContext jav ......
版本 Spark1 spark Spark hive

hive+mysql的伪分布式数据仓库搭建

1.前言 1.1所使用的配置 VMware 16pro #虚拟机 unbuntu22.04 #操作系统 jdk-8u202 hadoop-3.3.6 hive-3.1.1 mysql-8.054 mysql-connect-j-8.1.0 2.mysql和navicat的安装和使用 2.1mysql ......
分布式 仓库 数据 mysql hive

spark的shuffle和mapreduce的shuffle的区别

功能上,MR的shuffle和Spark的shuffle是没啥区别的,都是对Map端的数据进行分区,要么聚合排序,要么不聚合排序,然后Reduce端或者下一个调度阶段进行拉取数据,完成map端到reduce端的数据传输功能。 方案上,有很大的区别,MR的shuffle是基于合并排序的思想,在数据进入 ......
shuffle mapreduce spark

spark的excutor是动态的资源分配吗,还是写死的?

在Apache Spark中,Executor的资源分配可以是动态的,而不是写死的。Apache Spark提供了一种称为动态资源分配(Dynamic Allocation)的机制,允许根据应用程序的实际需求动态调整Executor的数量。 动态资源分配的主要思想是根据当前应用程序的工作负载来增加或 ......
资源分配 excutor 还是 动态 资源

Apache Spark 认证绕过漏洞(CVE-2020-9480)研究

一、Apache Spark简介 Spark是一种快速、通用、可扩展的大数据分析引擎,2009年诞生于加州大学伯克利分校AMPLab,2010年开源,2013年6月成为Apache孵化项目,2014年2月成为Apache顶级项目。项目是用Scala进行编写。 目前,Spark生态系统已经发展成为一个 ......
漏洞 Apache Spark 2020 9480

Spark SQL快速入门

Spark SQL快速入门 1、概述 spark SQL是Apache用于处理结构化数据的模块。其中包含SQL、DataFrame API、DataSet API,意味着开发人员可以在不同的API之间来回切换,从而使数据处理更加灵活。 Spark SQL(Spark on hive) 数据兼容方面S ......
Spark SQL

Spark Streaming快速入门

Spark Streaming快速入门 一、简介 Spark Streaming 是构建在 Spark Core 基础之上的流处理框架(但实际上是微批次处理框架),是 Spark 非常重要的组成部分。严格意义上来讲,Spark Streaming 是一个准实时,微批次的流处理框架。 特点:Easy ......
Streaming Spark