hadoop hbase hive

Hadoop Yarn Tool接口接入

项目搭建参考 Java实现对Hadoop HDFS的API操作 1.驱动类 package cn.coreqi.mapreduce.tool; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.util.Too ......
接口 Hadoop Yarn Tool

Hadoop Yarn 调度器多队列

1.容量调度器多队列 1.为何需要多队列 调度器默认就1个default队列,不能满足生产的要求。 1个队列在任务极限的情况下,容易资源耗尽。 特殊时期通过对任务的区分可以保证重要的任务队列资源充足 按照框架区分队列,如hive/spark/flink 每个框架的任务放入指定的队列(企业用的不是特别 ......
队列 Hadoop Yarn

Hadoop YARN生产环境核心配置参数

1.ResourceManager相关 配置参数 说明 默认值 备注 yarn.resourcemanager.scheduler.class 配置调度器,默认为容量调度器(Apache) org.apache.hadoop.yarn.server.resourcemanager.scheduler ......
核心 参数 环境 Hadoop YARN

超级好用的 HBase GUI 工具分享

超级好用的 HBase GUI 工具分享 你是否曾为 HBase 数据管理而苦恼?别担心,这一款超级好用的 HBase GUI (HBase Assistant)工具,让您在大数据世界中游刃有余。不再需要繁琐的命令行操作,也不再为复杂的配置感到头疼。 主要功能 直观和设计完善的图形用户界面,让您轻松 ......
工具 HBase GUI

Hadoop YARN

1.Yarn资源调度器 Yarn是一个资源调度平台,负责为运算程序提供服务器运算资源,相当于一个分布式的操作系统平台,而MapReduce等运算程序则相当于运行于操作系统之上的应用程序。 1.Yarn基础架构 Yarn主要由ResourceManager、NodeManager、Applicatio ......
Hadoop YARN

Hadoop 数据压缩

1.概述 1.好处 & 坏处 优点:减少磁盘IO、减少磁盘存储空间 缺点:增加CPU开销 2.压缩的原则 运算密集型的Job,少用压缩 IO密集型的Job,多用压缩 2.MR 支持的压缩编码 1.压缩算法对比介绍 压缩格式 Hadoop自带? 算法 文件扩展名 是否可切片 换成压缩格式后,原来的程序 ......
数据 Hadoop

Hadoop快速入门

Hadoop快速入门 一、大数据思维 分而治之 所谓“分而治之”,就是把一个复杂的算法问题按一定的“分解”方法分为等价的规模较小的若干部分,然后逐个分别找出各部分的解,再把各部分的解组成整个问题的解。 传统的计算都是基于内存去完成的,但是内存是有限的,数据量太大,导致无法在较短时间内迅速解决,也就是 ......
Hadoop

hive Metastore 启动报错 Version information not found in metastore报错处理

修改 conf/hive-site.xml中的 hive.metastore.schema.verification 设置为false。 hive Metastore 启动报错 [main]: Metastore Thrift Server threw an exception... org.apa ......

关于再次出现 Could not open client transport with JDBC Uri: jdbc:hive2://node1:10000: java.net.ConnectException: 拒绝连接 (Connection refused) (state=08S01,code=0)

写在最前边——我报错是因为空间不足 当我时隔两个月再次看到这个报错的时候我是感到绝望的—— ——然而当我查了一遍百度发现唯一一个拥有相同报错解决方法的博客出自我之手的时候我的崩溃的—— ——在我发现曾经的方法无法解决现在的我的报错的时候,我觉得我的心都碎了QAQ 在经历了三天无果的尝试之后,我决定试 ......

Hadoop MapReduce框架原理

1.InputFormat数据输入 1.数据切片与MapTask并行度决定机制 一个Job的Map阶段并行度由客户端在提交Job时的切片数决定 每一个Split切片分配一个MapTask并行实例处理 默认情况下,切片大小 = BlockSize 切片时不考虑数据集整体,而是逐个针对每一个文件单独切片 ......
MapReduce 框架 原理 Hadoop

Hadoop 数据类型及序列化

1.Hadoop数据类型 Java类型 Hadoop Writable类型 Boolean BooleanWritable Writable Writable Writable Writable Writable Writable Writable Writable Writable 2.为何Had ......
序列 类型 数据 Hadoop

EMR-hive集成ranger

hive集成ranger:https://help.aliyun.com/zh/emr/emr-on-ecs/user-guide/enable-hive-in-ranger-and-configure-related-permissions ......
EMR-hive ranger hive EMR

Hadoop MapReduce编程规范

用户编写的程序分为三个部分:Mapper、Reducer和Driver 1.Mapper阶段 用户自定义的Mapper要继承自己的父类 Mapper的输入数据是KV对的形式(KV的类型可自定义) Mapper中的业务逻辑写在map()方法中 Mapper的输出数据是KV对的形式(KV的类型可自定义) ......
MapReduce Hadoop

四、Hive优化

1.1 hive的随机抓取策略 理论上来说,Hive中的所有sql都需要进行mapreduce,但是hive的抓取策略帮我们 省略掉了这个过程,把切片split的过程提前帮我们做了。 set hive.fetch.task.conversion=none; (一旦进行这么设置,select字段名也是 ......
Hive

三、Hive学习之SQL、函数

SQL练习 1、count(*)、count(1) 、count('字段名') 区别 从执行结果来看 count(*)包括了所有的列,相当于行数,在统计结果的时候,不会忽略列值为NULL 最慢的 count(1)包括了忽略所有列,用1代表代码行,在统计结果的时候,不会忽略列值为NULL 最快的 co ......
函数 Hive SQL

头歌——HBase 开发:使用Java操作HBase

第1关:创建表 题目 任务描述 本关任务:使用Java代码在HBase中创建表。 相关知识 为了完成本关任务,你需要掌握:1.如何使用Java连接HBase数据库,2.如何使用Java代码在HBase中创建表。 如何使用Java连接HBase数据库 Java连接HBase需要两个类: HBaseCo ......
HBase Java

Hadoop NameNode(SecondaryNameNode) Fsimage和Edits解析

NameNode被格式化之后,将在NameNode目录下产生一些文件 1.Fsimage文件 Fsimage文件是HDFS文件系统元数据的一个永久性的检查点,其中包含HDFS文件系统的所有目录和文件inode的序列化信息 2.Edits文件 Edits文件存放了HDFS文件系统的所有更新操作的路径, ......

Hadoop 配置的优先级

从低到高 1.默认配置 默认文件 文件存放在Hadoop的jar包中的位置 core-default.xml hadoop-common-3.3.6.jar/core-default.xml hdfs-default.xml hadoop-hdfs-3.3.6.jar/hdfs-default.xm ......
优先级 Hadoop

Java实现对Hadoop HDFS的API操作

1.配置Hadoop的Windows客户端 Hadoop 配置Windows 客户端 2.新建Maven项目[略] 3.添加依赖 <!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-client --> <dependen ......
Hadoop Java HDFS API

Hadoop 配置Windows 客户端

1.根据Hadoop版本下载Windows依赖,并放置到非中文目录下 https://github.com/cdarlint/winutils 2.配置环境变量 HADOOP_HOME -> 放置的目录地址 PATH -> 追加%HADOOP_HOME%\bin 3.测试环境 双击winutils. ......
客户端 Windows 客户 Hadoop

Hadoop HDFS 文件块大小

HDFS中的文件在物理上是分块存储(Block),块的大小可以通过配置参数(dfs.blocksize)来配置,默认大小在Hadoop2.x/3.x版本中是128M,1.x版本中是64M. 建议配置为物理机硬盘每秒的读取速度,如机械硬盘则建议为128M,SSD则配置为256M。 ......
大小 文件 Hadoop HDFS

基于Docker容器搭建hadoop完全分布式集群环境

简介 物理机:windows10 宿主机:Centos7虚拟机,需要安装Docker服务 hadoop集群节点:3个centos7的容器,hadoop1、hadoop2、hadoop3 组件: 容器镜像:Centos7 Docker CE 24.0.7 JDK1.8.0_181 Hadoop3.1. ......
分布式 集群 容器 环境 Docker

Hadoop 常用端口号

端口名称 Hadoop2.x Hadoop3.x HDFS NameNode内部通信端口 8020 / 9000 8020 / 9000 / 9820 HDFS NameNode HTTP UI 50070 9870 YARN MapReduce查看执行任务端口 8088 8088 历史服务器通信端 ......
口号 常用 Hadoop

hbase shell显示中文

1、 查看单个字段的值 后面加上 :toString 2、 查看所有数据 后面加上 {FORMATTER=>'toString'} ......
hbase shell

二、Hive学习

1、Hive分区(十分重要!!) 在大数据中,最常见的一种思想就是分治,我们可以把大的文件切割划分成一个个的小的文件,这样每次操作一个个小的文件就会很容易了,同样的道理,在hive当中也是支持这种思想的,就是我们可以把大的数据,按照每天或者每小时切分成一个个小的文件,这样去操作小的文件就会容易很多了 ......
Hive

一、Hive概述与安装部署

1、Hive基本概念 1.1 Hive简介 Hive本质是将SQL转换为MapReduce的任务进行运算,底层由HDFS来提供数据存储,说白了hive可以理解为一个将SQL转换为MapReduce的任务的工具,甚至更近一步说hive就是一个MapReduce客户端。 思考:计算文件user.txt中 ......
Hive

Hive与MySQL的版本关系

Hive支持的MySQL版本 Hive的元数据存储在MySQL数据库中,因此必须要安装和配置MySQL,以便与Hive配合使用。但是,Hive不支持所有MySQL版本,以下是Hive所支持的MySQL版本: MySQL 5.5.x (推荐) MySQL 5.6.x MySQL 5.7.x MySQL ......
版本 MySQL Hive

虚拟机运行Hadoop | 各种问题解决的心路历程

ps:完成大数据技术实验报告的过程,出项各种稀奇古怪的问题。(知道这叫什么吗?经济基础决定上层建筑,我当时配置可能留下了一堆隐患,总之如果有同样的问题,希望可以帮到你) 一、虚拟机网络连接不通的各种情况 我这里遇到的是,三台虚拟机,两台piing百度不同 原因:改了下内存,重启就又未知的网络名称 解 ......
心路 历程 Hadoop 问题

hive身份验证

Hive 通过HiveServer2对外提供服务,HiveServer2 是一种能使客户端执行 Hive 查询的服务。 HiveServer2 实现了一个新的基于 Thrift 的 RPC 接口,该接口可以处理客户端并发请求。当前版本支持 Kerberos,LDAP 以及自定义可插拔身份验证。新的 ......
身份 hive

EMR-hive集成openldap

LDAP认证:https://help.aliyun.com/zh/emr/emr-on-ecs/user-guide/use-ldap-authentication?spm=a2c4g.11186623.0.i4 OpenLDAP试用说明参考:https://help.aliyun.com/zh/ ......
EMR-hive openldap hive EMR