Ceph是一种软件定义存储,Ceph的分布式基因使其可以轻易管理成百上千个节点、PB级及以上存储容量的大规模集群,同时基于计算的扁平寻址设计使得Ceph客户端可以直接和服务端的任意节点通信,从而避免因为存在访问热点而导致性能瓶颈。Ceph是一个统一存储系统,即支持传统的块、文件存储协议,例如SAN和NAS;也支持对象存储协议,例如S3和Swift。
Ceph文件系统(CephFS)Linux内核驱动程序支持CephFS,这也使得CephFS高度适用于各大Linux操作系统发行版。CephFS将数据和元数据分开存储,为上层的应用程序提供较高的性能以及可靠性。
Ceph可以配合云计算平台,轻松实现分布式存储统一架构,完成超融合技术的落地。

官网:https://ceph.io/
中文文档:http://docs.ceph.org.cn/

部署三个分布式Ceph节点,一台Client用于测试
若无则创建/etc/ceph配置文件夹,且所有ceph-deploy命令的执行都要在该文件夹下
#进入/etc/ceph,创建ceph集群

#安装完成后,可以输入ceph -v查看版本检查是否安装成功
#检查集群状态,可以看到此时处于不健康状态
#disk list 列出节点上的所有可用磁盘,这里sdb为为服务器新加的50G磁盘
#对磁盘进行分区:parted磁盘分区,mklabel修改卷标,mkpart分区
#对分区进行格式化,创建挂载目录进行挂载,并将文件夹权限配置为777
#再次查看集群状态,此时为健康模式
搭建一台Ceph-Client测试机:配置网络及yum源,配置主机名和hosts文件
#rbd creata创建块设备镜像image,map映射image为块设备

#rbd0块设备格式化并挂载,正常使用
#info foo可以查看当前块设备信息,此时容量为4G
#使用resize命令将大小修改至10G
特别注意的是,调整文件系统命令:
#执行调整文件系统大小,即可查看文件大小被扩容至10G
#1、取消块设备挂载 ->2、取消镜像与块设备的映射 -> 3、删除设备镜像
到此这篇ceph存储池容量(ceph存储容量计算)的文章就介绍到这了,更多相关内容请继续浏览下面的相关推荐文章,希望大家都能在编程的领域有一番成就!版权声明:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权、违法违规、事实不符,请将相关资料发送至xkadmin@xkablog.com进行投诉反馈,一经查实,立即处理!
转载请注明出处,原文链接:https://www.xkablog.com/cjjbc/28067.html