cephfs的部署和使用

发布时间 2023-03-26 11:31:25作者: 滴滴滴

 cephfs使用

  ceph FS 即 ceph filesystem,可以实现文件系统共享功能(POSIX 标准), 客户端通过 ceph协议挂载并使用 ceph 集群作为数据存储服务器,https://docs.ceph.com/en/quincy/cephfs/

  Ceph FS 需要运行 Meta Data Services(MDS)服务,其守护进程为 ceph-mds,ceph-mds进程管理与 cephFS 上存储的文件相关的元数据,并协调对 ceph 存储集群的访问。

  在 linux 系统使用 ls 等操作查看某个目录下的文件的时候,会有保存在磁盘上的分区表记录文件的名称、创建日期、大小、inode 及存储位置等元数据信息,在 cephfs 由于数据是被打散为若干个离散的 object 进行分布式存储,因此并没有统一保存文件的元数据,而且将文件的元数据保存到一个单独的存储出 matedata pool,但是客户端并不能直接访问matedata pool 中的元数据信息,而是在读写数的时候有 MDS(matadata server)进行处理,读数据的时候由 MDS从 matedata pool加载元数据然后缓存在内存(用于后期快速响应其它客户端的请求)并返回给客户端,写数据的时候有 MDS 缓存在内存并同步到 matedata pool。

 

  cephfs 的 mds 的数据结构类似于 linux 系统的根形目录结构及 nginx 中的缓存目录分层一样。

 

  部署 MDS 服务

  在指定的 ceph-mds 服务器部署 ceph-mds 服务,可以和其它服务器混用(如 ceph-mon、ceph-mgr)

  Centos

  [root@ceph-mgr1 ~]# yum install ceph-mds -y

 

  Ubuntu

  root@ceph-mgr1:~# apt-cache madison ceph-mds
  ceph-mds | 16.2.10-1bionic | https://mirrors.tuna.tsinghua.edu.cn/ceph/debian-pacific bionic/main amd64 Packages
  ceph-mds | 12.2.13-0ubuntu0.18.04.10 | http://mirrors.tuna.tsinghua.edu.cn/ubuntu bionic-updates/universe amd64 Packages
  ceph-mds | 12.2.13-0ubuntu0.18.04.10 | http://mirrors.tuna.tsinghua.edu.cn/ubuntu bionic-security/universe amd64 Packages
  ceph-mds | 12.2.4-0ubuntu1 | http://mirrors.tuna.tsinghua.edu.cn/ubuntu bionic/universe amd64 Packages
   
  root@ceph-mgr1:~# apt install ceph-mds
  root@ceph-mgr1:~# apt install ceph-mds=16.2.10-1bionic #也可以指定版本安装取决于apt仓库

 

  进入ceph-deploy节点,指定在ceph-mgr1节点安装ceph-mds

  root@ceph-deploy:~# su - cephadmin
  cephadmin@ceph-deploy:~$ cd ceph-cluster/
  cephadmin@ceph-deploy:~/ceph-cluster$ ceph-deploy mds create ceph-mgr1

 

   验证mds 服务

  cephadmin@ceph-deploy:~/ceph-cluster$ ceph mds stat
  1 up:standby #当前为备用状态,需要分配 pool 才可以使用。

 

  创建 CephFS metadata 和 data 存储池:

  使用 CephFS 之前需要事先于集群中创建一个文件系统,并为其分别指定元数据和数据相关的存储池。

  创建名为 mycephfs 的文件系统,使用 cephfs-metadata 为 元数据存储池,使用 cephfs-data 为数据存储池:

  cephadmin@ceph-deploy:~/ceph-cluster$ ceph osd pool create cephfs-metadata 32 32
  pool 'cephfs-metadata' created #创建元数据 pool
   
  cephadmin@ceph-deploy:~/ceph-cluster$ ceph osd pool create cephfs-data 64 64
  pool 'cephfs-data' created #创建数据存储池

 

  查看ceph当前状态

 

  注意:在实际的生产使用中,cephfs数据存储池存储了几十T的数据,那么元数据的存储池大约占用几个G空间。

 

  创建 cephFS

  创建使用帮助

  cephadmin@ceph-deploy:~/ceph-cluster$ ceph fs new --help
   
  # 文件系统名称 元数据pool data pool
  fs new <fs_name> <metadata> <data> [--force] [--allow-dangerous-metadata- make new filesystem using named pools <metadata> and <data> overlay] [<fscid:int>] [--recover]

 

  创建cephfs,指定fs的元数据池和fs数据池

  cephadmin@ceph-deploy:~/ceph-cluster$ ceph fs new share1 cephfs-metadata cephfs-data

 

  验证cephfs

  列出所有的cephfs

  data pool显示为一个列表,表示可以为fs指定多个data pool

  cephadmin@ceph-deploy:~/ceph-cluster$ ceph fs ls
  name: share1, metadata pool: cephfs-metadata, data pools: [cephfs-data ]

 

  查看cephfs的状态

  cephadmin@ceph-deploy:~/ceph-cluster$ ceph fs status share1

 

  查看ceph状态

 

  验证mds节点状态

  当cephfs创建后,mds节点状态才会为active活动状态

  cephadmin@ceph-deploy:~/ceph-cluster$ ceph mds stat
  share1:1 {0=ceph-mgr1=up:active} #现在已经转变为活动状态

 

本文来自博客园,作者:PunchLinux,转载请注明原文链接:https://www.cnblogs.com/punchlinux/p/17067299.html

 
分类: ceph