Ceph官方版本目前支持的纠删码很有限,实验室这块希望能够整合我们自主开发的纠删码BRS(Binary Reed–Solomon encoding),所以需要编译Ceph环境。Ceph官方目前推荐的安装方式都是通过Ceph-deploy的工具来安装配置,搭建起来十分简单。目前直接通过Ceph源码进行编译安装的中文教程有太多坑了。笔者亲身通过编译Ceph搭建环境之后,对这个流程进行了一个完整的小结,后续的童鞋可以做一个简单的参考。
1.Ceph简介
Ceph 的初创来自Sage Weil 博士的 PhD 论文,论文 “Ceph: A Scalable, High-Performance Distributed File System”详细的阐述了 Ceph 的设计架构。
简而言之,Ceph 作为一个分布式存储系统设计的目标定位为:
可轻松扩展到数PB级别的容量(Ceph目前的版本可以轻松支持EB级别的存储容量)
能够自动适应多种工作负载的高性能(每秒输入/输出操作[IOPS]和带宽)
高可靠性
提供了对象,块,文件系统一整套存储解决方案,大大降低运维的成本
笔者认为Ceph作为一个优秀的分布式存储系统,未来分布式存储系统提供了设计基础。自Linux内核2.6.34版开始,Ceph.ko已经集成到Linux内核之中,作为分布式文件系统的备选项之一。同时Ceph也是OpenStack中优秀的开源存储解决方案,支持通过Ceph作为块存储或对象存储进行读写访问。
2.编译Ceph的源码
Ceph的源码可以去Github之上clone下来,或者去Ceph官网下载。这里重点提一下Ceph的版本问题,Ceph在Hammer版本之后,采取了新的版本命名规则:
x.0.z - 开发版
x.1.z - 候选版
x.2.z - 稳定、修正版
目前对Ceph进行二次开发的版本基本上是基于稳定TLS版本来做,实验室选取了两个版本进行了开发。10.2.6版本与12.2.1版本,本文基于10.2.6的版本进行编写。(12.2.1版本不在使用autotools作为编译工具,同时添加了Mgr等新的组件,配置文件的编写方式也略有不同。)
由于实验室拟态系统的要求与设定,这里笔者选择了混用64位的Ubuntu 14.04与64位的Centos进行编译安装,二者流程大同小异,不同之处我会重点标记。通过cd 进入Ceph的源码目录,依次执行如下命令
1. ./install-deps.sh //安装对应的Ceph依赖包 2 ./autogen.sh //调用autotools脚本,生成configure和makefile文件 3. ./configure //这步是很麻烦的一步,由于第一步并不会完全安装好所有依赖,需要读者见招拆招,按照终端提示安装依赖。 (注:Centos系列不会存在类似问题,嫌麻烦的可以直接用Centos进行编译安装) 4. make //进入漫长的等待,多核可以添加-j{cpu核数} 如make -j4 5. make install //安装Ceph
PS:编译Ceph时需要超大的内存与硬盘空间,所以建议待安装节点的内存和硬盘空间要足够大,否则会出现:
virtual memory exhausted: Cannot allocate memory 或 full disk等问题。
3.配置搭建Ceph的环境,启用Mon节点
编译成功后,也不要高兴得太早了,接下来我们按下面配置架构图来构建Ceph集群。
这部分应该是最让人头疼的部分了。编译安装Ceph和直接通过包管理器安装Ceph的可大有不同。如/etc/ceph/的配置目录就自己新建,默认的/var/log/ceph路径也需要通过mkdir新建,否则Ceph会直接丢弃日志文件。
编辑/etc/ceph/ceph.conf
启动监视器。
在 Ubuntu 上用 Upstart :
sudo ceph-mon --id=slave1 [cluster={cluster-name}]
要使此守护进程开机自启,需要创建两个空文件,像这样:
sudo touch /var/lib/ceph/mon/{cluster-name}-{hostname}/upstart
例如:
sudo touch /var/lib/ceph/mon/ceph-slave1/upstart
在 Debian/CentOS/RHEL 上用 sysvinit :
sudo /etc/init.d/ceph start mon.slave1
例如:
ceph-mon --mkfs -i slave1 --monmap /tmp/monmap --keyring /tmp/ceph.mon.keyring
例如:
sudo mkdir /var/lib/ceph/mon/ceph-slave1
例如:
monmaptool --create --add slave1 192.168.1.4 --fsid 236e7afe-7c61-41a0-b577-89df547fcef5 /tmp/monmap
例如:
mon host = 192.168.1.4
例如:
mon initial members = slave1
例如:
fsid = 236e7afe-7c61-41a0-b577-89df547fcef5
(1) 为集群分配唯一的集群id
uuidgen //生成uuid
(2) 编辑fsid
fsid = {UUID} //填写生成的uuid
(3) 把初始监视器写入 Ceph 配置文件
mon initial members = {hostname}[,{hostname}]
(4) 把初始监视器的 IP 地址写入 Ceph 配置文件、并保存。
mon host = {ip-address}[,{ip-address}]
(5) 为此集群创建密钥环、并生成监视器密钥。
ceph-authtool --create-keyring /tmp/ceph.mon.keyring --gen-key -n mon. --cap mon 'allow *'
(6) 生成管理员密钥环,生成 client.admin 用户并加入密钥环。
ceph-authtool --create-keyring /etc/ceph/ceph.client.admin.keyring --gen-key -n client.admin --set-uid=0 --cap mon 'allow *' --cap osd 'allow *' --cap mds 'allow'
(7) 把 client.admin 密钥加入 ceph.mon.keyring 。
ceph-authtool /tmp/ceph.mon.keyring --import-keyring /etc/ceph/ceph.client.admin.keyring
(8) 用规划好的主机名、对应 IP 地址、和 FSID 生成一个监视器图,并保存为 /tmp/monmap 。
monmaptool --create --add {hostname} {ip-address} --fsid {uuid} /tmp/monmap
(9) 在监视器主机上分别创建数据目录。
sudo mkdir /var/lib/ceph/mon/{cluster-name}-{hostname}
(10) 用监视器图和密钥环组装守护进程所需的初始数据。
ceph-mon [--cluster {cluster-name}] --mkfs -i {hostname} --monmap /tmp/monmap --keyring /tmp/ceph.mon.keyring
(11) 仔细斟酌 Ceph 配置文件,公共的全局配置包括这些:
[global] fsid = {cluster-id} mon initial members = {hostname}[, {hostname}] mon host = {ip-address}[, {ip-address}] auth cluster required = none //这里为了方便搭建测试环境,关闭了ceph的安全认证,建议在实际运行环境之中开启。auth service required = noneauth client required = none
(12) 建一个空文件 done ,表示监视器已创建、可以启动了:
sudo touch /var/lib/ceph/mon/ceph-slave1/done
(13) 验证下 Ceph 已经创建了默认存储池。
ceph osd lspools
可以看到这样的输出:
1 rbd // Ceph会默认搭建一个rbd的存储池
确认下集群在运行。
ceph -s
你应该从输出里看到刚刚启动的监视器在正常运行,并且应该会看到一个健康错误:它表明归置组卡在了 stuck inactive 状态。输出大致如此:
cluster a7f64266-0894-4f1e-a635-d0aeaca0e993health HEALTH_ERR 64 pgs stuck inactive; 64 pgs stuck unclean; no osdsmonmap e1: 1 mons at {slave1=192.168.1.4:6789/0}, election epoch 1, quorum 0 slave1osdmap e1: 0 osds: 0 up, 0 inpgmap v2: 64 pgs, 1 pools, 0 bytes data, 0 objects 0 kB used, 0 kB / 0 kB avail 64 creating
目前集群处于ERR状态,由于osd尚未启动,pgs没有分配。接下来我们要开始启动osd,将pgs分配到osd之上,可以让集群恢复健康。
4.编辑CrushMap,启用osd节点
你的初始监视器可以正常运行后就可以添加 osd 了。要想让集群达到 active + clean 状态,必须安装足够多的 osd 来处理pgs,在完成Mon启动之后,集群就有了默认的 CrushMap,但现在此图还是空的,里面没有任何 osd 映射到 Ceph 节点,所以我们要先启动osd节点,之后编辑CrushMap,并将其导入Mon节点。
(1) 准备OSD。
ssh {node-name} sudo ceph-disk prepare --cluster {cluster-name} --cluster-uuid {uuid} --fs-type {ext4|xfs|btrfs} {data-path} [{journal-path}]
例如:
ssh slave1 sudo ceph-disk prepare --cluster ceph --cluster-uuid 236e7afe-7c61-41a0-b577-89df547fcef5 --fs-type xfs /dev/sbb1
(2) 激活 osd,并启动osd设备:
sudo ceph-disk activate {data-path} [--activate-key {path}] sudo start osd.{id}
例如:
sudo ceph-disk activate /dev/sdb1
接下来依次启动图中的3个osd节点,此次osd节点虽然启动了,但是并没有加入到CrushMap之中进行映射,接下来我们需要导出Mon上的CrushMap,并进行编辑,之后导回到Mon中。
(3) 从Mon节点获取 CrushMap的二进制文件:
ceph osd getcrushmap -o crushmapbinary
(4) 通过CrushMap的二进制文件反编译它,成为文本文件:
cephtool -d crushmapbinary -o crushmap.txt
(5) 接下来编辑crushmap.txt,主要添加osd device与osd的权重进行配置:
在 CrushMap里声明一个设备,在设备列表后面新建一行,输入 device 、之后是唯一的数字 ID 、之后是相应的 ceph-osd 守护进程例程名字。device {num} {osd.name}
接下来我们要给这些osd设备分配权重
CrushMap主要有 4 个主要类型。
设备 由任意对象存储设备组成,即对应一个 ceph-osd 进程的存储器。
桶类型: 定义了 CRUSH 分级结构里要用的桶类型( types ),桶由逐级汇聚的存储位置(如行、机柜、机箱、主机等等)及其权重组成。
桶例程: 定义了桶类型后,还必须声明主机的桶类型、以及规划的其它故障域。
规则: 由选择桶的方法组成。
目前我们只要大概有个概念,接下来我们只需要简单的将我们的设备添加到CrushMap之中:root default { id -1 # do not change unnecessarily # weight 3.240 alg straw hash 0 # rjenkins1 item slave1 weight 1.00 item slave2 weight 1.00 item slave3 weight 1.00 } host slave1 { id -4 alg straw hash 0 item osd.0 weight 1.00} host slave2 { id -2 alg straw hash 0 item osd.1 weight 1.00} host slave3 { id -3 alg straw hash 0 item osd.2 weight 1.00}
例如:
添加好我们之前activate的osd设备device 0 osd.0 device 1 osd.1 device 2 osd.2
(6) 重新编译这个新的CRUSH map
crushtool -c crushmap.txt -o crushmap-compiled
(7) 将新的CRUSH map 应用到ceph 集群中
ceph osd setcrushmap -i crushmap-compiled
(8)再次确认Ceph集群的运行状态。
ceph -s cluster a7f64266-0894-4f1e-a635-d0aeaca0e993 health HEALTH_OK 64 pgs stuck active and clean; 3 osds monmap e1: 1 mons at {node1=192.168.0.1:6789/0}, election epoch 1, quorum 0 node1 osdmap e1: 3 osds: 3 up, 3 in pgmap v2: 64 pgs, 1 pools, 0 bytes data, 0 objects 3465 kB used, 923421 kB / 919956 kB avail 64 active and clean
我们可以确认,Ceph集群已经恢复健康,我们已经成功编译安装了Ceph。
共同学习,写下你的评论
评论加载中...
作者其他优质文章