ceph

ceph14安装部署(老版本)

# 1.基础环境配置 | IP | 主机名 | | : : | : : | | 10.0.0.10 | storage01 | | 10.0.0.11 | storage02 | | 10.0.0.12 | storage03 | ## 1.1关闭防火墙与selinux + 所有节点 ```bash ......
版本 ceph 14

ceph config get mgr 和 ceph mgr services 显示的内容不一致怎么办

root@ceph-deploy:~# ceph config get mgrWHO MASK LEVEL OPTION VALUE ROmgr advanced mgr/dashboard/ceph-mgr1/server_addr 10.0.0.104 * mgr advanced mgr/da ......
ceph mgr services 怎么办 内容

go ceph s3文件管理

# 导入依赖 ``` go get gopkg.in/amz.v1/aws go get gopkg.in/amz.v1/s3 ``` # 创建用户 在初始化连接之前,我们需要创建一个用户得到accessKey和secretKey,新增用户的指令如下: ``` docker exec ceph-rg ......
文件 ceph go

docker部署ceph集群

## 1. 创建Ceph专用网络 ``` sudo docker network create --driver bridge --subnet 172.20.0.0/16 ceph-network ``` ## 2. 拉取搭建用镜像 ``` sudo docker pull ceph/daemon ......
集群 docker ceph

ceph 100.000% pgs not active解决方法

https://blog.csdn.net/allway2/article/details/101229622 https://kangyucheng.blog.csdn.net/article/details/116607223?spm=1001.2101.3001.6650.4&utm_medi ......
100.000% 方法 active ceph 100

ceph部署

集群节点规划 Yum源设置 #yum设置 wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo wget -O /etc/yum.repos.d/epel.repo http:// ......
ceph

Ceph-RGW使用

1. Ceph Rgw创建 1.1 打标签 主要作用是根据标签决定rgw运行在那些机器上 ceph orch host label add storage03 rgw ceph orch host label add storage02 rgw 1.2 启动rgw ceph orch apply r ......
Ceph-RGW Ceph RGW

ceph-san跨存储迁移指导文档

CEPH-SAN存储后端迁移指导文档 确认需要进行虚拟机的UUID和宿主机节点当前宿主机节点为FZHZ4-TSTACK-COM05 确认该宿主机节点是否对接FCSAN 对接SAN后需要满足以下条件才可进行跨存储迁移1). HBA卡要插线,确认有端口速率2). 在SAN存储上添加映射关系3). SAN ......
ceph-san 文档 ceph san

CEPH 常用命令

CEPH 常用命令 ceph health detail 查看运行状况详细信息 ceph osd dump 查看osd映射信息 ceph quorum_status --format json-pretty 查看Mon_quorum状态 ceph osd pool ls detail 查看 pool ......
命令 常用 CEPH

Ceph读写流程

Ceph 读写流程概述Ceph的读写流程是由OSD和PG共同完成的,对于OSD而言,OSD的主要任务是进行消息的接收分发,最终将消息存到队列op_wq中。接下来交由ShardedThreadPool线程池中的线程来处理读写,线程会将请求从op_wq中取出,做如下操作。在ReplicatedPG类中进 ......
流程 Ceph

Ceph性能测试总结

Ceph性能测试总结 测试目的: 通过对ceph集群块接口常见性能指标进行简单测试,达到以下几个目的: 了解当前集群配置方案对硬件性能的利用情况; 验证集群性能计算公式的正确性; 识别集群性能瓶颈点; 为后续性能优化提供部分参考; 测试指标: 块接口IOPS,带宽,时延 硬盘性能一般使用以下几个指标 ......
性能 Ceph

ceph满盘导致业务停止后的终极补救措施

ceph满盘导致业务停止后的终极补救措施现象:磁盘满,osd异常此时ceph集群停止业务,且不能执行 rbd rm glance/***** 命令删除任何文件。解决办法:方法一:调高ceph的满盘比例,比如原值0.95为满盘,现在修改为0.98修改所有ceph节点 /etc/ceph/ceph.co ......
终极 措施 业务 ceph

Ceph_osd_应急权重调整方案

1. 问题背景 集群 pg 数量规划不合理,导致在集群存入大量的数据之后,osd 上的数据分布不均衡,部分 osd 的存储百分比接近或超过 85% 告警阈值,在百分比达到 95% 之后,集群会停止 IO。 由于调整 pg 风险高,需要提前做评估和审核,所以需要使用临时解决方案调整 osd 权重的方式 ......
权重 Ceph_osd 方案 Ceph osd

计算节点手动对接ceph

目录目录1计算节点手动对接ceph21、安装ceph包22、拷贝ceph 配置文件23、在新增计算节点上创建密钥文件并存储到libvirt 中24、配置nova 使用ceph 后端存储2计算节点手动对接ceph1、安装ceph包计算节点装ceph-commonyum install ceph-com ......
节点 手动 ceph

ceph pg incomplete修复

1.查看incomplete的pgsceph health detail | grep incompletepg 2.ef is incomplete, acting [10,9,4]pg 2.a9 is incomplete, acting [10,4,3]pg 2.a7 is incomplet ......
incomplete ceph pg

ceph替换坏的日志盘

客户环境,sdX为日志盘损坏,现更换新得sdX盘,目前6个osd down执行以下操作第一步:ssd 以 /dev/sd<X> 指代,分区序号以 <Y> 指代(在 ssd 创建的第一个分区, Y 即是 1,创建第 2 个时, Y 即是 2),命令:sgdisk -n <Y>:0:+5G -t <Y> ......
日志 ceph

Ceph巡检

Ceph巡检 前置检查 指标解释: 获取指令: 判断条件: 告警级别: Err: Warn : Info: 备注信息: Ceph 集群 集群状态 集群整体 Health 状态 指标解释: Ceph 集群的健康状态,分为三种情况: HEALTH_OK HEALTH_WARN HEALTH_ERR 获取 ......
Ceph

ceph的常见命令

1、ceph设置回填速度 for i in {0..125} do ceph tell osd.$i injectargs "--osd_max_backfills 1"; done for i in {0..125} do ceph tell osd.$i injectargs "--osd_re ......
命令 常见 ceph

Ceph集群搭建篇

环境准备 ceph官方文档:https://docs.ceph.com/en/latest/ 本次搭建用到的测试机器,规划如下: | 主机名 | IP | 数据盘 | | | | | | ceph-node01 | 192.168.11.13 | 5块1TB容量硬盘 | | ceph-node02 ......
集群 Ceph

Ceph Pacific版本OSD内存自动调整说明

警告:默认情况下,cephadm 在引导程序上启用osd_memory_target_autotune,mgr/cephadm/autotune_memory_target_ratio 设置为主机总内存的 .7。 ~# ceph config get mgr mgr/cephadm/autotune ......
内存 Pacific 版本 Ceph OSD

Ceph Pacific 版本磁盘预测模块

磁盘预测模块利用 Ceph 设备运行状况检查来收集磁盘运行状况指标,并使用内部预测器模块生成磁盘故障预测并返回到 Ceph。它不需要任何外部服务器进行数据分析和输出结果。其内部预测器的准确率约为70%。 1. 启用 运行以下命令以在 Ceph 环境中启用diskprediction_local模块: ......
磁盘 模块 Pacific 版本 Ceph

Ceph Pacific 各版本镜像说明

16.2.11 容器镜像 root@ubuntu-20-04-lts:~# docker imagesREPOSITORY TAG IMAGE ID CREATED SIZEregistry 2 0d153fadf70b 2 months ago 24.2MBquay.io/ceph/ceph v1 ......
镜像 Pacific 版本 Ceph

Proxmox VE Ceph 集群部署

1、集群安装 参考:https://www.cnblogs.com/a120608yby/p/17295938.html 2、业务及管理网络创建 参考:https://www.cnblogs.com/a120608yby/p/17140953.html 3、Ceph网络创建 # 配置ceph多网卡绑 ......
集群 Proxmox Ceph VE

分布式存储技术(上):HDFS 与 Ceph的架构原理、特性、优缺点解析

面对企业级数据量,单机容量太小,无法存储海量的数据,这时候就需要用到多台机器存储,并统一管理分布在集群上的文件,这样就形成了分布式文件系统。HDFS是Hadoop下的分布式文件系统技术,Ceph是能处理海量非结构化数据存储的对象存储技术,本文将对他们的架构原理、特性和优缺点做介绍。 — 分布式文件系 ......
优缺点 分布式 架构 特性 原理

实战篇:使用rook在k8s上搭建ceph集群

写在开篇 “ 上一次,我发了一篇:《理论篇:让我们一起鲁克鲁克——rook(开源存储编排)》。这次,来一篇实战,使用rook在k8s上把ceph集群搞起来。后续,还会陆续分享如何对接k8s(作为k8s的后端存储)、以及分享一些在生产上的实践经验。 ” 环境规划 | 主机名 | IP | 角色 | 数 ......
集群 实战 rook ceph k8s

ceph分布式存储搭建

CEPH分布式存储搭建 本文通过参考臧 雪 园 老师的文档根据实际操作做修改,详细视频链接参考: https://edu.51cto.com/course/15982.html 集群配置信息: 安装的ceph版本: 配置所需源的地址 wget -O /etc/yum.repos.d/CentOS-B ......
分布式 ceph

Ceph使用---dashboard启用及Prometheus监控

一、Ceph dashboard介绍 Ceph dashboard 是通过一个 web 界面, 对已经运行的 ceph 集群进行状态查看及功能配置等功能, 早期 ceph 使用的是第三方的 dashboard 组件。 如:Calamari Calamari 对外提供了十分漂亮的 Web 管理和监控界 ......
Prometheus dashboard Ceph

ceph集群crush进阶使用

九 ceph集群crush进阶使用 9.1 ceph集群运行图 ceph集群中由mon服务器维护的五种运行图: 1. Monitor map #监视器运行图; 2. OSD map #OSD运行图; 3 . PG map #PG运行图; 4. Crush map (Controllers repli ......
集群 crush ceph

部署高可用radowsgw存储网关,s3cmd实现bucket的管理,Nginx+RGW 的动静分离,基于 prometheus 监控 ceph 集群运行状态

一. 掌握对象存储的特点及使用场景#RadosGW 存储特点 通过对象存储网关将数据存储为对象,每个对象除了包含数据,还包含数据自身的元数据。对象通过 Object ID 来检索,无法通过普通文件系统的挂载方式通过文件路径加文件名称操作来直接访问对象,只能通过 API 来访问,或者第三方客户端(实际 ......
网关 集群 动静 prometheus radowsgw

Ceph radosgw的基本使用

RadosGW 对象存储网关简介 RadosGW 是对象存储(OSS,Object Storage Service)的一种访问实现方式,RADOS 网关也称为 Ceph 对象网关、RadosGW、RGW,是一种服务,使客户端能够利用标准对象存储API 来访问 Ceph 集群,它支持 AWS S3 和 ......
radosgw Ceph