一、前言
CephFS(Ceph File System)是Ceph存储解决方案中的一个组件,它提供了一个分布式文件系统,允许用户在多个节点上访问和管理文件数据,相当于是共享文件系统,可应用于k8s的存储,linux系统的共享存储等,需要额外部署mds组件服务
二、部署
cephfs需要用到两个存储池,一个用于存储文件数据,另一个用于存储元数据
数据池(Data Pool):数据池用于存储文件数据。这是实际存储用户文件内容的地方可以配置数据池的副本数和其他参数
元数据池(Metadata Pool):元数据池用于存储文件系统的元数据,如文件名、目录结构等。元数据的管理对于文件系统的性能至关重要。因此,将元数据存储在单独的池中有助于优化性能
创建数据存储池
创建元数据存储池
查看创建的存储池信息
size 3:表示每个对象将被复制成 3 个副本
min_size 2:这表示至少需要 2 个副本在线才能满足数据的可用性需求
crush_rule 0:这指示了使用的 CRUSH 规则的编号。CRUSH 是 Ceph 使用的数据分布算法,用于确定数据在存储集群中的存放位置
object_hash rjenkins:这表示对象的哈希算法是 rjenkins
pg_num 32:这指示了存储池中 PG(Placement Group)的数量
pgp_num 32:这表示在每个 PG 中的副本数
autoscale_mode on:这表示存储池启用了自动扩展模式,即 PG 的数量会根据存储集群的大小自动调整
last_change 133:这是上次更改存储池配置的时间戳
flags hashpspool stripe_width 0:这是一些存储池的标志和参数设置,如是否使用 CRUSH 哈希算法、条带宽度等
application cephfs:这指示了存储池的应用场景,即该存储池用于支持 Ceph 文件系统(CephFS)
创建cephfs并命名为cephfs
创建mds
查看cephfs
默认情况下,ceph只支持一个活跃的MDS,其他的作为备用MDS,所以会看到只有一个mds节点为active状态
至此cephfs部署完成
cephfs的使用
centos系统挂载使用
先安装ceph客户端
编辑yum源
vi /etc/yum.repos.d/ceph.repo
安装eple解决依赖问题
安装ceph客户端
在ceph01管理节点生成密钥
将密钥拷贝到客户端的ceph目录下
在客户端挂载cephfs文件系统
查看挂载的目录
k8s使用cephfs作为存储
创建ceph目录
mkdir /opt/ceph && cd /opt/ceph
将ceph01管理节点生成的密钥拷贝到k8s节点上
k8s的所有工作节点也需要安装ceph-common
将ceph密钥进行base64编码
编辑secret的yaml文件
vi secret.yaml
编辑pv的yaml文件
vi pv.yaml
编辑pvc的yaml文件
vi pvc.yaml
执行yaml文件生成对应服务
查看pv和pvc是否正常
版权声明:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权、违法违规、事实不符,请将相关资料发送至xkadmin@xkablog.com进行投诉反馈,一经查实,立即处理!
转载请注明出处,原文链接:https://www.xkablog.com/kjbd-jg/79611.html