hdfs

关于hdfs删除数据之后9870报错进入safe mode

1.运行 fsck 命令:首先,运行 Hadoop 的 fsck 命令来检查文件系统的完整性并标记出已删除的文件。在终端或命令提示符中执行以下命令: hdfs fsck / -files -blocks -locations -delete 上述命令会运行 fsck 并删除标记为已删除的文件。这将清 ......
数据 hdfs 9870 safe mode

每日总结(hdfs文件导入到hive表)

1 CREATE TABLE employees ( 2 id INT, 3 name STRING, 4 age INT, 5 salary FLOAT 6 ) 7 ROW FORMAT DELIMITED 8 FIELDS TERMINATED BY ',' 9 STORED AS TEXTFI ......
文件 hdfs hive

Windows访问Kerberos认证HDFS web

我们可以通过Window访问keberos安全认证的HDFS WebUI,如果Windows客户端没有进行kerberos主体认证会导致在HDFS WebUI中看不到HDFS目录,这时需要我们在Window客户端进行Kerberos主体认证,在Window中进行Kerberos认证时可以使用Kerb ......
Kerberos Windows HDFS web

HDFS高可用架构

1 HDFS高可用架构原理1.1 HDFS的基本架构NameNode负责响应客户端的请求,负责管理整个文件系统的元数据HDFS 的读、写操作都必须向 NameNode 申请,元数据非常关键负责维持文件副本的数据SecondNameNode是为了帮助 NameNode 合并编辑日志,减少 NameNo ......
架构 HDFS

hdfs副本数设置

1.调整HDFS副本数 ##该命令只会设置当前已有的文件副本数,不会改默认副本数参数 hadoop fs -setrep -R -w 5 /corelogs 2.查看HDFS当前文件副本数 hadoop fs -ls /corelogs ##显示的第二个参数即为当前副本数 ......
副本 hdfs

HDFS入门

HDFS的块大小设计原则 HDFS常用shell命令 HDFS的读写流程 第一章 HDFS概述 1.1 HDFS产生背景和定义 1.1.1 产生背景 大数据时代,需要一种系统来管理多台机器上的文件,这就是分布式文件管理系统,HDFS就是分布式文件管理系统的一种 1.1.2 HDFS定义 HDFS(H ......
HDFS

使用Python调用Hadoop Hdfs的API

一、Java调用hdfs的api import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.jun ......
Python Hadoop Hdfs API

【Flink系列十八】HDFS_DELEGATION_TOKEN过期的问题解决汇总

排查HDFS_DELEGATION_TOKEN过期问题,以及问题汇总。排查分为三种情况,Spark框架自身的问题,Hadoop全家桶的问题,开发者通过Hive,HDFS,HBASE访问HDFS的问题。 ......

FAILED: SemanticException Unable to determine if hdfs://localhost.localdomain:9000/root/software/apache-hive-3.1.2-bin问题的解决

# 问题描述 在hive数据库里面,使用select语句对表的数据进行查找,就出现了这个错误: ![](https://img2023.cnblogs.com/blog/2808014/202309/2808014-20230908193233783-1417039914.png) # 问题解决 这 ......

hdfs数据读写流程

......
流程 数据 hdfs

HDFS读流程

步骤1:FileSystem通过rpc调用open()方法 步骤2:NameNode校验请求文件的路径,权限等问题,校验成功后返回FSDateInputsteam 步骤3:用户向NameNode请求文件与block的关系,通过映射获取文件block块位置 步骤4:通过机架感知策略就近原则,获取最近b ......
流程 HDFS

HDFS写流程(微观层面)

解释: 步骤1:客户端首先将数据加载到内存中,变成很多的package大小默认为64K,package由两个部分组成,header里面包含了很多的位置信息, 例如属于哪个block,在block什么位置,data部分是存储数据 步骤2:通过FSDateOutputStream将block运输到数据管 ......
微观 层面 流程 HDFS

flume采集文件到HDFS案例

(1):采集需求:比如业务系统使用log4j生成的日志,日志内容不断增加,需要把追加到日志文件中的数据实时采集到hdfs (2):根据需求,首先定义以下3大要素 采集源,即source——监控文件内容更新 : exec ‘tail -F file’ 下沉目标,即sink——HDFS文件系统 : hd ......
案例 文件 flume HDFS

flume采集目录到HDFS案例:

(1)采集需求:某服务器的某特定目录下,会不断产生新的文件,每当有新文件出现,就需要把文件采集到HDFS中去 (2)根据需求,首先定义以下3大要素 a):采集源,即source——监控文件目录 : spooldir b):下沉目标,即sink——HDFS文件系统 : hdfs sink c):sou ......
案例 目录 flume HDFS

HDFS的shell命令(Hadoop fs [参数])

hadoop fs -ls file:/// 操作linux本地文件系统 hadoop fs -ls hdfs://node1:8020/ 操作HDFS分布式文件系统 hadoop fs -ls / 直接根目录,没有指定协议 将加载读取fs.defaultFS值 标准的hadoop上传文件命令: h ......
命令 参数 Hadoop shell HDFS

hdfs常用命令

## 显示文件目录 hadoop fs -ls -R /user/hadoop hadoop fs -lsr /user/hadoop hadoop fs -ls /user/hadoop ## 创建目录 hadoop fs -mkdir -p /user/nima/nima hadoop fs - ......
命令 常用 hdfs

HDFS 读写

参考链接:http://www.cnblogs.com/laov/p/3434917.html ## 写流程: ``` 比如你有一个100M的文件。则写的流程大致如下。 a,Client 将File 分块,分别为block1,和block2 (64M,和36M) b,Client 向NameNode ......
HDFS

hdfs和yarn访问web UI界面

# HDFS(9870或者50070) 总算是访问成功啦! ![](https://img2023.cnblogs.com/blog/2808014/202308/2808014-20230824002329742-97444990.png) /爆哭中....../ # YARN ![](https ......
界面 hdfs yarn web

开启hdfs服务输入jps命令,只出现了jps一个进程问题的解决

# 问题描述 开启hdfs服务之后,输入jps: ![](https://img2023.cnblogs.com/blog/2808014/202308/2808014-20230823233210097-1268842357.png) 本来应该是这样的: ![](https://img2023.c ......
jps 进程 命令 问题 hdfs

idea安装bigdata tool 插件 HDFS客户端

在idea里面下载bigdata tool插件 使用hdfs客户端 一、下载hadoop安装包,并将文件解压 二、在idea的插件里面找到 bbigdata tool插件并进行安装 如果在idea里面下载比较慢,可以在官网下载 Big Data Tools - IntelliJ IDEs Plugi ......
客户端 插件 bigdata 客户 idea

HDFS的文件系统操作命令

下面分享一下最近学到的HDFS的有关文件系统操作shell命令 一、创建文件夹 hadoop fs -mkdir [-p] <path> ... hdfs dfs -mkdir [-p] <path> ... #hadoop fs -mkdir -p /ijc/bigdata #hdfs fs -m ......
命令 文件 系统 HDFS

HDFS集群启停命令

HDFS集群启停命令: 一键启停脚本 #启动 $HADOOP_HOME/sbin/start-dfs.sh #停用 $HADOOP_HOME/sbin/stop-dfs.sh 独立进程启程 #脚本一 hadoop-daemon.sh (start|status|stop) (namenode|sec ......
集群 命令 HDFS

在VMware虚拟机集群上部署HDFS集群

本篇博客跟大家分享一下如何在VMware虚拟机集群上部署HDFS集群 一·、下载hadoop安装包 进入官网:https://hadoop.apache.org 下载hadoop安装包 由于Apache Hadoop是国外网址,下载安装包对于网络要求较高 二、上传压缩包,进行解压 在进行解压之前,保 ......
集群 VMware HDFS

Hadoop部署HDFS集群 启动后只有node1有进程,node2和node3没有反应

最近有人向我询问说:为什么他的HDEF集群一键启动时只有node1进程有反应,node2和node3没有反应 我看完他的问题之后,想到了自己在部署时也遇到了同样的问题,现在来分享一下自己的解决方案 出现这种情况的主要原因是:workers文件没有配置好 解决方法: 输入:vim /export/se ......
node 集群 进程 只有 Hadoop

大数据之HDFS组件

HDFS是Hadoop三大组件(HDFS、MapReduce、YARN)之一 全称是:Hadoop Distributed File System(Hadoop分布式文件系统) 是Hadoop技术栈内提供的分布式数据存储解决方案 可以在多台服务器上构建存储集群,存储海量的数据 ......
组件 数据 HDFS

HDFS shell 常用命令

创建多级目录(-p): hadoop fs -mkdir -p /test/a/b 展示目录: hadoop fs -ls / 递归展示: hadoop fs -ls -R / 从HDFS上下载文件到本地: hadoop fs -get /test/a/b/h.txt hadoop fs -copy ......
命令 常用 shell HDFS

WARNING: Use of this script to execute namenode is deprecated. WARNING: Attempting to execute replacement "hdfs namenode" instead.问题的解决

# 问题描述 在我使用这个命令进行hdfs初始化时: ``` hadoop-daemon.sh start namenode ``` 爆出了这样的警告 # 问题解决 发现是这个命令现在已经有一点过时,需要换成这个命令才行: ``` hdfs namenode ``` ......
namenode WARNING execute quot replacement

HDFS工作流程与机制

# 1、各个角色的职责 ![](https://img2023.cnblogs.com/blog/2808014/202308/2808014-20230812101509538-1098113401.png) 主角色:NameNode ![](https://img2023.cnblogs.com ......
工作流程 流程 机制 HDFS

今日学习HDFS相关内容

# 1、Shell命令行解释说明 # HDFS简介 ![](https://img2023.cnblogs.com/blog/2808014/202308/2808014-20230811144341013-1965117360.png) # HDFS应用场景 ![](https://img2023 ......
内容 HDFS

Hadoop----hdfs dfs常用命令的使用

-mkdir 创建目录 hdfs dfs -mkdir [-p] < paths> -ls 查看目录下内容,包括文件名,权限,所有者,大小和修改时间 hdfs dfs -ls [-R] < args> -put 将本地文件或目录上传到HDFS中的路径 hdfs dfs -put < localsrc ......
命令 常用 Hadoop hdfs dfs