ceph luminous

ceph.mgr是luminous版本新增的功能。

# 安装ceph.mgr
ceph-deploy mgr create ceph-1 ceph-2 ceph-3
 
# 开启监控模块
cat >> ceph.conf <<'EOF'
[mgr]
mgr modules = dashboard
EOF
 
# 将新配置分发到各个节点
ceph-deploy --overwrite-conf admin ceph-1 ceph-2 ceph-3 ceph-4

对所有节点keyring添加+r权限:

sudo chmod +r /etc/ceph/ceph.client.admin.keyring

开启dashboard服务:

# 查看当前ceph.mgr处于active的节点,dashboard就要用这个节点去访问
ceph -s
ceph mgr module enable dashboard
 
# 设置dashboard的ip和端口,默认不需要设置
# ceph config-key put mgr/dashboard/server_addr <mgr_active_host>
# ceph config-key put mgr/dashboard/server_port 7000
# systemctl restart ceph-mgr@<mgr_active_host>
 
# 检查端口
ss -ln | grep 7000

osd_pool_default_size = 3
mon_clock_drift_allowed = 5
mon_clock_drift_warn_backoff = 10
public_network = 10.28.72.0/24
cluster_network = 10.28.72.0/24
# 15G
bluestore_block_db_size = 16106127360
# 5G
bluestore_block_wal_size = 5368709120
#bluestore_block_size = 5368709120
#osd objectstore = bluestore
# 删除分区,不然可能报错
wipefs -af /dev/sd{c..h}
partprobe
chown ceph:ceph /dev/sd{c..h}
for i in {c..h};do
ceph-deploy -v --overwrite-conf osd create --zap-disk --bluestore ceph-1:/dev/sd$i --block-wal /dev/sdb --block-db /dev/sdb
done
ceph-deploy -v --overwrite-conf osd prepare --bluestore ceph-1:/dev/sdc --block-wal /dev/sdb --block-db /dev/sdb
ceph-deploy -v --overwrite-conf osd activate ceph-1:/dev/sdc1

1)
长期稳定版本
2)
ms_type = async+posix
3)
不再依赖xfs等文件系统,可直接管理裸设备
5)
自动修改CRUSH maps,为OSD分类,进而创建HDD,SSD等不同类型的pool
  • storage/ceph/luminous.txt
  • 最后更改: 2020/08/05 03:45
  • (外部编辑)