atlas hive

0.Hive+MySQL安装记录

1.确定安装版本 如何通过官网查找hadoop、hbase、hive版本兼容信息 2.安装流程大概 B站视频 3.安装mysql数据库 centos安装mysql8 check: tar命令 配置文件(/etc/下)--/etc/profile mysql环境变量配置 mysql: error wh ......
MySQL Hive

hive ACID事务得应用场景

Hive的ACID语义可以完成以下使用场景: 1、流数据的接入。许多用户都使用 Apache Flume, Apache Storm, or Apache Kafka 将流式数据导入Hadoop集群。 这些工具都是每秒百万行级的数据写入,而Hive只能每十五分钟到一个小时添加一次分区。快速的增加分区 ......
场景 事务 hive ACID

Hive累积值、平均值、首尾值的计算学习

Hive窗口函数可以计算一定范围内、一定值域内、或者一段时间内的累积和以及移动平均值等;可以结合聚集函数SUM() 、AVG()等使用;可以结合FIRST_VALUE() 和LAST_VALUE(),返回窗口的第一个和最后一个值。 如果只使用partition by子句,未指定order by的话, ......
首尾 平均值 Hive

hive快速入门

hive快速入门 一、简介 hive是facebook,用于解决海量结构化数据的统计分析,现在属于apache软件基金会。hive是一个构建在hadoop之上的数据分析工具,hive没有存储数据的能力只有使用数据的能力,底层是由HDFS来提供数据存储,可以将结构化的数据映射为一张数据表,并且提供类似 ......
hive

Finalshell给虚拟机安装JDK1.8,hadoop-3.3.3,hive3.1.2并配置环境

点击红框按钮,把下载好的jdk,hadoop,hive安装包上传到指定路径 我的路径是/home/用户名/Downloads 查看上传文件 sudo tar -zxvf /home/hxf/Downloads/jdk-8u391-linux-x64.tar.gz -C /opt/module/ su ......
Finalshell 环境 hadoop hive3 JDK1

Hadoop3.x和Hive3.x环境搭建

Hadoop3.3.6 创建hadoop用户 useradd hadoop su - hadoop ssh-keygen -t rsa cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys chmod 0600 ~/.ssh/authorized_keys ......
Hadoop3 环境 Hadoop Hive3 Hive

javaapi、spark、flink 创建Iceberg表,hive 和impala无法正常读取解决

spark、flink 创建Iceberg表中,元数据存储在hive 的meta_store,发现hive 或者impala无法正常读取报错。事实上解决方案是 在spark 、flink 的SQL中执行语句: add iceberg相关引擎的runntime的jar;ALTER TABLE t SE ......
javaapi Iceberg impala flink spark

Hive grouping函数

Grouping函数: 可以接受一列,返回0或1。如果列值为空,则返回1,非空则返回0。它只能在rollup和或cube函数中使用,因为在统计中显示“全部”的那一项统计值时,那一项的标签通常是空的,这时grouping就非常有用,还可以在grouping的基础上进行decode, case等进行美化 ......
函数 grouping Hive

pyspark数据写入文件及数据库hive

原始数据如下 POD9_6ec8794bd3297048d6ef7b6dff7b8be1|#$2023-10-24|#$0833|#$#|#$#|#$99999999999|#$#|#$12345678912 POD9_352858578708f144bb166a77bad743f4|#$2023- ......
数据 pyspark 数据库 文件 hive

Hive

因为传统数仓的不足,大家希望使用上分布式存储,也就是HDFS。然而使用HDFS后发现,基于数据库的数据仓库用SQL就能做查询,现在换到HDFS上面,只能用Mapreduce任务去做分析。给分析代码极大的不便,因此需要一个框架,使用SQL来做HDFS的查询。Hive正是基于类似SQL的语言完成对hdf ......
Hive

Hive中json格式字段清洗与提取

废话不多说,直接上案例 如下是某json字段的查询结果,可以看出它是一个json数组 select sales_price from order_goods where order_number = 'R1001'; -- 结果: [{"threshold_number":1,"group_id": ......
字段 格式 Hive json

作业6 数据仓库Hive

请在以下两题中任选一题作答,其中第一题编程实践满分30,第二题应用调查满分20(1)编程实践:参考教程https://dblab.xmu.edu.cn/blog/4309/,编写HiveQL语句实现WordCount算法,在input文件夹中创建两个测试文件file1.txt和file2.txt,然 ......
仓库 数据 Hive

Hive学习笔记:nvl和coalesce函数的区别

nvl 函数和 coalesce 函数都是用来处理空值的函数,但略有不同。 注意:非 NULL 值为 NULL, 如果是'',' ', 'null', 'NULL'等视为字符串,返回参数本身。 一、nvl函数 nvl 只能处理2个参数,如果第1个不是 null, 则返回第1个参数,否则返回第2个参数 ......
函数 coalesce 笔记 Hive nvl

【1】基于docker搭建hadoop+hive+spark+hbase+zookeeper+scale集群

1、设置主机上的虚拟缓存 当本地内存不足时,可以使用虚拟内存将一些内存数据转移到硬盘上,从而扩展计算机的内存容量。这样可以让计算机运行更复杂、更占用内存的程序,不会出现内存不足的情况。减轻物理存储器不足的压力,设置虚拟内存可以在内存不够的情况下将缓存一时放在硬盘上,解决内存不足问题。 通过虚拟内存, ......
集群 zookeeper docker hadoop hbase

基于docker容器,搭建hadoop+spark+hive+hbase+Zookeeper Scala集群

1.安装Docker和Docker Compose 2.下载镜像 docker pull bde2020/hadoop-base:2.0.0-hadoop3.2.1-java8 docker pull bde2020/hadoop-namenode:2.0.0-hadoop3.2.1-java8 d ......
集群 容器 Zookeeper docker hadoop

Hive学习笔记:多列求最大值、最小值

一、最大值 当在 Hive 中需要对多列数据求最大值时,可以使用函数 greatest(a, b, c, d) 实现。 select greatest(a, b, c) from ( select 10 as a, 20 as b, 30 as c ) dd; -- 结果:30 举个具体栗子:计算用 ......
最大值 笔记 Hive

报错Failed to execute spark task, with exception 'org.apache.hadoop.hive.ql.metadata.HiveException(Failed to create Spark client for Spark session 768047b9-c7f7-459f-9220-5d8d7bdabefe)

在执行hive on spark的时候 上面的错误可能有以下几种问题: 1.版本问题 不匹配 2.时间参数问题 设置的参数太小了 3.在hive-site.xml文件中没有配置spark 的home 我的问题属于第一个问题导致没有跑成功 当时也在想是不是内存出现了问题 ......

Unexpected character '=' (code 61); expected a semi-colon after the reference for entity 'useSSL' at [row,col,system-id]: [8,75,"file:/usr/bigdata/hive-3.1.3/conf/hive-site.xml"]

在初始化hive时报错,出现如下问题: 错误原因:hive-site.xml 配置文件中,数据库的地址带有 & 符号。 将数据库地址中的 & 符号调整为 &,详情如下: 再次初始化hive,执行结果如下: ......
39 hive quot Unexpected semi-colon

hive表加字段

hive原表结构 hive表加新字段interface_type alter table test.test_table add columns(interface_type string); hive表新表结构 ......
字段 hive

dremio hive 连接

dremio 对于hive 的连接实际上有两种方法,一种使用的是hive 的meta store ,一种是使用的hive jdbc server第一中是官方支持的,第二种官方缺少直接的支持,需要自己开发相关的arp 扩展 一些参考实现 cdata 目前提供了一个开源实现,但是jdbc 驱动使用的是自 ......
dremio hive

Hive中的regexp_replace函数

正则表达式替换函数:regexp_replace 语法:regexp_replace(string subject,string pattern,string str) subject为被替换的字符串,pattern为正则表达式,str为替换正则表达式的字符串(将字符串subject中符合正则表达式 ......
regexp_replace 函数 replace regexp Hive

pyspark 连接hive

pyspark连接hive 想要spark能够连接上hive,就需要将hive的一些配置文件放到spark中,让spark可以通过配置文件中的metastore.uris找到hive的元数据库,从而访问hive. 1.将hive的conf文件夹下的hive-site.xml,复制到本地spark的c ......
pyspark hive

大数据Hive词频统计作业总结及出现的权限问题解决(每日总结10.18)

学习网站链接Hive3.1.3安装和使用指南_厦大数据库实验室博客 (xmu.edu.cn) 下面是我自己的作业完成过程 1.首先要启动hdfs集群和hive数据库 2.创建并导入文件 进入到hadop目录下 在命令行窗口输入下面的命令: hadoop fs -mkdir /input1 在电脑桌面 ......
词频 权限 数据 问题 10.18

HBase-通过外部表将Hive数据写入到HBase

a) 准备测试数据 这里准备的csv文件data_test.csv,内容没用''包裹,逗号作为列分隔符 171301,燕青,男,27,发展部 171207,武松,男,39,开发部 171307,李逵,男,41,开发部 320812,宋江,男,45,战略部 321009,顾大嫂,女,38,后勤部 17 ......
HBase 数据 Hive

关于Hive的常用HiveQL操作

创建hive数据仓库: create table docs(line string); 从hdfs上传文件到数据库: load data inpath 'file:///usr/local/hadoop/input' overwrite into table docs; 根据词汇查询词汇数量: cr ......
常用 HiveQL Hive

使用go语言开发hive导出工具

前言 新版 hive 提供了 beeline 工具,可以执行SQL并导出数据,不过操作还是有点复杂的,团队里有些同学不会Linux的基本操作,所以我花了亿点点时间写了个交互式的命令行工具方便使用。 效果 命令行工具,就是这么朴实无华。 探索过程 一开始是打算用 bash 脚本,结果发现根本不会写,b ......
语言 工具 hive

hive词频统计

1.首先在hadoop目录下创建一个input文件夹,并在文件夹里建立两个txt文件并写入信息 第三行的echo命令会讲引号里的内容写入后边的文件,文件不存在的话会自动创建一个. 2.启动hive,创建一个名为docs的表,只含一列,列名为line,类型为string 3.将第一步input文件夹中 ......
词频 hive

终于知道如何利用hive的日期转换函数进行日期格式的清洗啦~(之前用的外部数据清洗)

1、创建合适格式的表result10 create table result10( ip String, time1 String, day String, traffic String, type String, id String) row format delimited fields ter ......
日期 函数 格式 数据 hive

基于Docker搭建Hadoop+Hive

基于Docker搭建Hadoop+Hive 本文主要是照搬这篇文章的https://zhuanlan.zhihu.com/p/242658224,但是这篇文章有一些细节配置没有讲清楚,这里对其进行完善 零、环境信息 电脑配置 Ubuntu 20.04.6 LTS (Focal Fossa) 5.15 ......
Docker Hadoop Hive

hive清洗数据sql语句报错

在本次的测试中sql语句清洗数据时下面,同时观察第一个语句中Date为啥要加这个单引号,原因是Date是sql语句里的可以说是一个关键字的存在,所以必须要单独引用起来以示区别 insert overwrite table article select ip as ip ,`Date` as `Dat ......
语句 数据 hive sql