当前位置:网站首页 > C++编程 > 正文

ceph 搭建(ceph搭建过程)



esxi共享物理机的显卡 为esxi配置共享存储的流程_VMware

本文规划设计搭建一套统一的 CloveStorage CEPH存储池,并与TECS、RedHat Openstack以及VMware成功对接,将数据存储在统一的CPEH池中,成功解决各个集成项目日益凸显存储空间不足的问题,每个集成DC都能按照商用存储规格部署,提升集成验证的效率和质量。

1.背景介绍

Ceph的存储类型是通过软件方式定义的,软件定义存储是一种数据存储方式,所有存储相关的控制工作都仅在相对于物理存储硬件的外部软件中,Ceph的优势,可以在廉价的存储设备上,不依赖特有的存储服务器,提供高性能,高可靠,高容量,易扩展的存储特性,提供海量存储使用场景。

Ceph存储通过CRUSH算法实现存储的高可用性和伸缩性,实现了传统存储设备无法绕开的高可用和去中心化。并通过对外API接口剥离的形式,对外提供对象存储、文件存储和块存储,底层通过RADOS实现存储的高可用性和伸缩性。CEPH凭借这些优势,在越来越多的数据中心选择CEPH当做存储资源。

2.统一CEPH存储池规划

统一CEPH存储池通过交换机或路由与TECS、RedHat OSP 以及VMware类型的云互通,为这些云提供存储服务,逻辑组网图如下。CEPH存储池由低成本大容量的架式服务器组成。

esxi共享物理机的显卡 为esxi配置共享存储的流程_客户端_02

Ceph云存储中心初期按照10台ZXCLOUD R5300,1台9904交换设备,1台5928规模进行规划,预留资源可供后续在扩容20台ZXCLOUD R5300存储设备。其中5928用于管理平面的数据交换,9904用于数据平面的交换。统一存储的逻辑图如下:

esxi共享物理机的显卡 为esxi配置共享存储的流程_esxi共享物理机的显卡_03

管理平面:用于调试机登录服务器操作系统的管理口进行相关配置、web网管与存储节点的管理交互,本网络采用1G网口

数据平面:用于服务器存储节点间的交互,使用10G光口互连

公共业务平面:存储业务网络,负责客户端(TECS)与存储集群、MON与MON、MON与OSD间的交互,使用10G光口互连

硬件管理平面:用于与硬件服务器的PIM相连,便于对服务器进行操作维护,本网络采用1G网口。

3.统一CEPH存储池搭建

CEPH搭建过程大概可以分为4个步骤:获取软件安装版本;RAID设置;操作系统安装以及集群部署,其大概流程如下图所示。

esxi共享物理机的显卡 为esxi配置共享存储的流程_esxi共享物理机的显卡_04

4.统一CEPH存储池应用实践

Ceph集群可以作为Openstack的存储后端,向Openstack提供卷存储空间,Openstack可以通过卷启动映像,也可以向运行中的VM添加额外的卷。Openstack 利用QEMU走librbd途径访问TECS Storage(Ceph)的块设备,如下图。

esxi共享物理机的显卡 为esxi配置共享存储的流程_服务器_05

CEPH跟TECS对接,大致上分3步:

1:打通TECS到CEPH的路由;具体为打通TECS的STORAGE平面到CEPH的数据平面的路由

2:在TECS上部署CEPH的客户端;

3:TECS连入CEPH。

esxi共享物理机的显卡 为esxi配置共享存储的流程_服务器虚拟机存储池安全_06

实践1:TECS与存储池对接

esxi共享物理机的显卡 为esxi配置共享存储的流程_服务器虚拟机存储池安全_07

4.1打通TECS到CEPH的路由

1)数据中心和9904的链接规划

CEPH使用9904交换机使用万兆交换板卡跟外部数据中心对接,和每个计算中心启用单独的VLAN连接,启用三层路由相互互通,为每一架的G14口链接到ODF光钎汇聚交换机,再从ODF光钎汇聚交换机链接到D4的9904交换机;目前CEPH这边光纤所有外部网卡到9904已经连接,端口为SHUTDOWN状态,VLAN配置信息如见下,对接的时候需要检查一下TECS所在机架上G14口的连接状态,通过这根光纤打通到9904的路由。

2)9904上配置到DC的路由

9904上VLAN配置,接口IP配置均按照上面表格已经完成,只需要在9904上面增加到具体每个DC的路由。

3)CEPH节点配置到TECS的路由

在CEPH的所有节点上配置到每个接入的TECS地址段的路由

4.2 在TECS上部署CEPH客户端

1)配置TECS到CEPH的路由

打通所有TECS节点(包括计算节点和控制节点)到CEPH的路由

以下160.254.0.x/24这个段是CEPH对外对接的网段,需要打通所有TECS节点(包括计算节点和控制节点)到CEPH的这个段的IP路由

2)部署CEPH的客户端

3)TECS连入CEPH

第一个OpenStack 集群对接Ceph集群的可以使用脚本进行操作,目前第一个TECS已经对接。

第二个OpenStack 集群对接同一个Ceph集群的步骤目前只能采用手工方式对接。

4.3在CEPH上创建资源池

4.4CEPH客户端配置

通过WEB界面创建Cinder、Nova、Glance所需的存储池,对应为 volumes2 ,vms2,images2 , ,根据需要选用前面创建的低性能,中性能,高性能的安全规则。

(1)在OpenStack主用控制节点创建Ceph客户端及存储池的鉴权,生成相应的key文件,并将生成的key文件拷贝到所有其他OpenStack节点

(4)在运行nova-compute的节点上,将密钥添加到libvirt,删除临时的密钥文件

(5)在计算节点上执行uuidgen ,uuidgen只需要运行一次即可,所有涉及uuid的地方都共用这个生成的uuid

(6)在计算节点etc/ceph下编辑一个secret.xml文件

(7) 在计算节点执行

4.5修改OpenStack的配置文件

4.6验证对接有效性

esxi共享物理机的显卡 为esxi配置共享存储的流程_esxi共享物理机的显卡_08

实践2:VMware与CEPH存储池对接

esxi共享物理机的显卡 为esxi配置共享存储的流程_服务器_09

1.创建vmk网卡,配置磁阵连接地址

1)选择一台主机,依次点击Manager――Networking――VMkernel adapter-Add network;

esxi共享物理机的显卡 为esxi配置共享存储的流程_esxi共享物理机的显卡_10

2)选择VMkernel network adapter,单击Next按钮继续;

esxi共享物理机的显卡 为esxi配置共享存储的流程_服务器_11

3)选择Select an exting netwok,单击Browse按钮,选择之前创建的连接磁阵的端口组,然后点击Ok按钮;

esxi共享物理机的显卡 为esxi配置共享存储的流程_服务器_12

4)单击Next按钮继续;

esxi共享物理机的显卡 为esxi配置共享存储的流程_VMware_13

5)单击Next按钮继续;

esxi共享物理机的显卡 为esxi配置共享存储的流程_esxi共享物理机的显卡_14

6)输入IP地址和掩码,单击Next继续;

esxi共享物理机的显卡 为esxi配置共享存储的流程_客户端_15

7)单击Finish按钮结束vmk网卡配置;

esxi共享物理机的显卡 为esxi配置共享存储的流程_服务器虚拟机存储池安全_16

2.增加software iscsi adapter

1)选择一台主机,点击Storage,切换到存储管理界面,点击添加iscsi软件适配器:

esxi共享物理机的显卡 为esxi配置共享存储的流程_客户端_17

2)点击OK按钮完成software iscsi adapter添加。

3.Ceph集群配置部分

配置前提:Ceph 集群搭建完成,支持 iSCSI 挂载。

1) 创建一个 100G的块存储卷vmwarelun

esxi共享物理机的显卡 为esxi配置共享存储的流程_VMware_18

2) 创建三个客户端即主机vmware1、vmware2、vmware3

其中的IQN是Vmware上的主机IQN,查看方法:在 vSphere Center 页面,选择主机-配置-存储-存储适配器-iSCSI Software Adapter,查看 IQN

esxi共享物理机的显卡 为esxi配置共享存储的流程_服务器_19

esxi共享物理机的显卡 为esxi配置共享存储的流程_客户端_20

3) 创建映射组vmwareGroup

esxi共享物理机的显卡 为esxi配置共享存储的流程_服务器虚拟机存储池安全_21

4) 将 vmwarelun 和三个客户端主机vmware1、vmware2、vmware3加入到同一映射组 vmwareGroup 中,此时 vmwarelun即为三台 ESXi 主机的共享存储。

esxi共享物理机的显卡 为esxi配置共享存储的流程_服务器_22

esxi共享物理机的显卡 为esxi配置共享存储的流程_服务器虚拟机存储池安全_23

5) 服务器启用iSCSI

esxi共享物理机的显卡 为esxi配置共享存储的流程_esxi共享物理机的显卡_24

esxi共享物理机的显卡 为esxi配置共享存储的流程_VMware_25

esxi共享物理机的显卡 为esxi配置共享存储的流程_客户端_26

esxi共享物理机的显卡 为esxi配置共享存储的流程_esxi共享物理机的显卡_27

6) 返回到映射组的界面,添加网关服务器

esxi共享物理机的显卡 为esxi配置共享存储的流程_esxi共享物理机的显卡_28

esxi共享物理机的显卡 为esxi配置共享存储的流程_服务器_29

4.Vmware上连接Ceph集群

1) 添加Ceph集群的业务地址

在主机的manage页面,依次点击storage――Storage Adapters――Iscsi Software Adapter;然后在下面点击Targets,选择Dynamic Discovery动态发现,点击Add

esxi共享物理机的显卡 为esxi配置共享存储的流程_服务器_30

添加Ceph集群的业务地址,注意不是上面2.6节的网关服务器地址,一定是集群的对外业务地址。

esxi共享物理机的显卡 为esxi配置共享存储的流程_服务器虚拟机存储池安全_31

2) 重新扫描存储控制器

添加完端口的地址之后,点击按钮,重新扫描存储控制器,可以识别到Ceph上创建的卷:

esxi共享物理机的显卡 为esxi配置共享存储的流程_服务器_32

点击OK扫描所有设备和卷;

esxi共享物理机的显卡 为esxi配置共享存储的流程_esxi共享物理机的显卡_33

可以在iscsi Software Adapters对应的device看到扫描到的磁盘设备。至此,对接完成。在VMware中创建虚机,验证存储的有效性。

esxi共享物理机的显卡 为esxi配置共享存储的流程_esxi共享物理机的显卡_34

esxi共享物理机的显卡 为esxi配置共享存储的流程_VMware_35

实践3:RedHat OSP与存储池对接

esxi共享物理机的显卡 为esxi配置共享存储的流程_VMware_36

RedHat OSP与统一存储池对接有两种方式:在控制节点和计算节点上安装的是自研CEPH客户端还是RedHat的客户端。两者应该都能进行部署,本文采用的是在计算节点上安装自研的客户端。对接流程与3章节相同,在此不进行详述。在安装客户端时可能会出现有些依赖包找不到,从而导致安装失败。通过将把Redhat iso镜像挂载到/mnt上,使用rpm -ivh xxx.rpm来安装依赖包。

CEPH支持对象存储,块存储和文件存储等多种存储方式。本文成功验证了自研的CEPH存储池为各个集成项目不同厂家的云环境提供存储服务。CEPH产品提供WEB界面的运营和运维,简单高效。、

到此这篇ceph 搭建(ceph搭建过程)的文章就介绍到这了,更多相关内容请继续浏览下面的相关推荐文章,希望大家都能在编程的领域有一番成就!

版权声明


相关文章:

  • conv1d和conv2d的区别(conv2d和conv3d)2025-08-18 12:54:09
  • con1是什么意思(con2是什么意思)2025-08-18 12:54:09
  • consult形容词和名词(consultation的形容词)2025-08-18 12:54:09
  • c++单向链表逆序(c++实现单链表的反转)2025-08-18 12:54:09
  • pillowcase和pillow的区别(pillowcases是什么意思)2025-08-18 12:54:09
  • ip138.cm查询网手机号码查吉凶(ip138cm查询网手机号码查吉凶)2025-08-18 12:54:09
  • cp1500怎么连接手机(cp1500怎么连接手机原理)2025-08-18 12:54:09
  • conda创建虚拟环境怎么删除(conda创建虚拟环境报错)2025-08-18 12:54:09
  • kubectl作用(kubectl -v)2025-08-18 12:54:09
  • gitclone指定版本(gitsubmodule版本 指定)2025-08-18 12:54:09
  • 全屏图片