Ceph

In order to be certain your Ceph implementation will be succesfull, there are a number of rules you should follow:

  • Use 10G networking as a minimum
  • Research and test the correctly sized hardware you wish to use
  • Don't use the nobarrier mount option
  • Don't configure pools with size=2 or minsize=1
  • Don't use consumer SSDs
  • Don't use RAID controllers in writeback without battery protection
  • Don't use configuration options you don't understand
  • Implement some form of change management
  • Do carry out power loss testing
  • Do have an agreed backup and recovery plan

  • Ceph Block Device = RBD = Ceph块设备
    • 通过提供相应的用户和key,就能在client通过命令或者API来使用RBD设备,如libvirt通过API为KVM虚拟机提供DISK.
  • Ceph Filesystem = CephFS = Ceph文件系统
    • Ceph对外提供的文件系统服务,要求集群至少一个MDS.
  • Object Storage Device = OSD 对象存储设备
    • *还未整理*

  • Ceph OSD = Ceph 对象存储守护进程
    • 一个Ceph节点可以若干个OSD,一般来说一个OSD对应的就是一个DISK.
  • Ceph Monitor = MON = Ceph 监视器
    • 多个Monitor组成的小集群,它们通过Paxos同步数据,用来保存OSD的元数据.
  • Ceph Metadata Server = MDS
    • MDS : MDS全称Ceph Metadata Server,是CephFS服务依赖的元数据服务.
  • PG = 归置组 = Placement Grouops
    • 一个逻辑的概念,一个PG包含多个OSD,引入PG这一层其实是为了更好的分配数据和定位数据。
  • RADOS : RADOS全称Reliable Autonomic Distributed Object.
  • Libradio
    • Librados是Rados提供库,因为RADOS是协议很难直接访问,因此上层的RBD、RGW和CephFS都是通过librados访问的,目前提供PHP、Ruby、Java、Python、C和C++支持。
  • CRUSH
    • CRUSH是Ceph使用的数据分布算法,类似一致性哈希,让数据分配到预期的地方。
  • RGW : RGW全称RADOS gateway,是Ceph对外提供的对象存储服务,接口与S3和Swift兼容。
  • storage/ceph/start.txt
  • 最后更改: 2019/04/16 18:31
  • (外部编辑)