Ceph快速部署

环境

ceph版本:(luminous或jewel)
OS: centos 7.5(虚拟机)

准备工作

  1. 修改主机名和ip地址为一下内容
ceph101: 192.168.56.101
ceph102: 192.168.56.102
ceph103: 192.168.56.103
  1. 做域名解析
cat /etc/hosts
192.168.56.101          ceph101
192.168.56.102          ceph102
192.168.56.103          ceph103
  1. 关闭selinux并开放默认通信端口
因为Ceph Monitors之间默认使用 **6789** 端口通信, OSD之间默认用 **6800:7300**这个范围内的端口通信,因此我们需要开放端口或者禁用防火墙。
sudo systemctl stop firewalld.service
sudo systemctl disable firewalld.service 
禁用selinux
sudo vim  /etc/selinux/config
SELINUX=disabled
sudo setenforce 0
  1. NTP同步时间
sudo yum install ntp -y
sudo start ntpd.service
sudo enable ntpd.service
  1. 安装ceph-deploy
sudo yum install ceph-deploy -y

开始搭建集群

  1. 指定安装版本并配置使用国内源
Luminous版的源:
export CEPH_DEPLOY_REPO_URL=http://mirrors.163.com/ceph/rpm-luminous/el7
export CEPH_DEPLOY_GPG_URL=http://mirrors.163.com/ceph/keys/release.asc

Jewel版的源:
yum clean all
rm -rf /etc/yum.repos.d/*.repo
wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo
sed -i '/aliyuncs/d' /etc/yum.repos.d/CentOS-Base.repo
sed -i '/aliyuncs/d' /etc/yum.repos.d/epel.repo
sed -i 's/$releasever/7/g' /etc/yum.repos.d/CentOS-Base.repo

vim /etc/yum.repos.d/ceph.repo
添加以下内容:
[ceph]
name=ceph
baseurl=http://mirrors.163.com/ceph/rpm-jewel/el7/x86_64/
gpgcheck=0
[ceph-noarch]
name=cephnoarch
baseurl=http://mirrors.163.com/ceph/rpm-jewel/el7/noarch/
gpgcheck=0
  1. 创建集群和monitor(至少一个)
 mkdir ceph-cluster && cd ceph-cluster
 ceph-deploy new ceph101 ceph102 ceph103
  1. 安装ceph软件包
ceph-deploy install --release luminous ceph101 ceph102 ceph103
  1. 部署初始化mon 和 准备keys
ceph-deploy mon create-initial
  1. 配置admin key 到每个节点
ceph-deploy admin ceph101 ceph102 ceph103
  1. 增加osd并激活
ceph-deploy --overwrite-conf osd prepare ceph101:/dev/sdc ceph102:/dev/sdc ceph103:/dev/sdc
ceph-deploy --overwrite-conf osd activate ceph101:/dev/sdc1 ceph102:/dev/sdc1 ceph103:/dev/sdc1
  1. 检查集群状态
ceph health
HEALTH_OK
ceph -s
    cluster 6e9752bb-0ee5-8338-c0ec-6b388a8d477f
    health HEALTH_OK
    monmap e1: 2 mons at {docker-rancher-client1=10.142.246.3:6789/0,docker-rancher-server=10.142.246.2:6789/0}
           election epoch 8, quorum 0,1 docker-rancher-server,docker-rancher-client1
    osdmap e18: 4 osds: 4 up, 4 in
           flags sortbitwise
     pgmap v182: 64 pgs, 1 pools, 0 bytes data, 0 objects
           281 GB used, 3455 GB / 3936 GB avail
                 64 active+clean
至此,集群部署完毕。

环境清理

如果中途部署失败了,不必删除ceph客户端,只需要在每个节点上执行如下指令即可将环境清理至刚安装完ceph客户端时的状态!

ps aux|grep ceph |awk '{print $2}'|xargs kill -9
ps -ef|grep ceph

#确保此时所有ceph进程都已经关闭!!!如果没有关闭,多执行几次。

umount /var/lib/ceph/osd/*
rm -rf /var/lib/ceph/osd/*
rm -rf /var/lib/ceph/mon/*
rm -rf /var/lib/ceph/mds/*
rm -rf /var/lib/ceph/bootstrap-mds/*
rm -rf /var/lib/ceph/bootstrap-osd/*
rm -rf /var/lib/ceph/bootstrap-rgw/*
rm -rf /var/lib/ceph/tmp/*
rm -rf /etc/ceph/*
rm -rf /var/run/ceph/*

常用命令


查看集群状态
ceph health 集群健康状况
ceph status / ceph -s   集群状态
ceph df 集群空间利用情况
ceph -w     监控集群运行情况

mon&osd启动方式
#monitor start/stop/restart
#ceph-1为各个monitor所在节点的主机名。
systemctl start ceph-mon@ceph-1.service 
systemctl restart ceph-mon@ceph-1.service
systemctl stop ceph-mon@ceph-1.service
#OSD start/stop/restart 
#0为该节点的OSD的id,可以通过`ceph osd tree`查看
systemctl start/stop/restart ceph-osd@0.service

查看MON状态
ceph mon stat   MON概况
ceph mon_status     MON详细情况
ceph mon dump       监视器运行图
ceph quorum_status  法定数量监视器状态

查看OSD状态
ceph osd tree   OSD目录树
ceph osd stat   OSD运行图概况
ceph osd dump   OSD运行图详情
ceph osd perf   OSD性能概况
ceph osd df OSD空间利用情况

查看存储池状态
rados df    集群及存储池空间利用情况
ceph osd lspools    存储池列表



部署MON节点
ceph-authtool --create-keyring
ceph-authtool --import-keyring
monmaptool --create
ceph-mon --mkfs

删除MON节点
ceph mon remove



部署OSD节点——两种方式,实现一种即可
1
ceph-disk prepare
ceph-disk activate
---------------------------
2
ceph osd create
ceph-osd
ceph auth add
ceph osd crush add

删除OSD节点
ceph osd out
ceph osd crush remove
ceph auth del
ceph osd rm

其他
ceph osd crush reweight 调整OSD权重



添加存储池
ceph osd pool create

删除存储池
ceph osd pool delete

其他
ceph osd pool rename    存储池改名
ceph osd pool mksnap    创建快照
ceph osd pool rmsnap    删除快照
ceph osd pool set / get 设置/查看参数

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,937评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,503评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,712评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,668评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,677评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,601评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,975评论 3 396
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,637评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,881评论 1 298
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,621评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,710评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,387评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,971评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,947评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,189评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,805评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,449评论 2 342

推荐阅读更多精彩内容