您的位置:首页 > 其它

kubernetes(十九) Ceph存储入门

2020-09-07 12:51 387 查看

Ceph

基本概念

为什么要使用ceph

Ceph是当前非常流行的开源分布式存储系统,具有高扩展性、高性能、高可靠性等优点,同时提供块存储服务(rbd)、对象存储服务(rgw)以及文件系统存储服务(cephfs),Ceph在存储的时候充分利用存储节点的计算能力,在存储每一个数据时都会通过计算得出该数据的位置,尽量的分布均衡。目前也是OpenStack的主流后端存储,随着OpenStack在云计算领域的广泛使用,ceph也变得更加炙手可热。国内目前使用ceph搭建分布式存储系统较为成功的企业有华为,xsky,杉岩数据,中兴,华三,浪潮,中移动等。

Ceph设计思想:集群可靠性、集群可扩展性、数据安全性、接口统一性、充分发挥存储设备自身的计算能力、去除中心化

Ceph架构介绍

架构如下:

Ceph使用RADOS提供对象存储,通过librados封装库提供多种存储方式的文件和对象转换。外层通过RGW(Object,有原生的API,而且也兼容Swift和S3的API,适合单客户端使用)、RBD(Block,支持精简配置、快照、克隆,适合多客户端有目录结构)、CephFS(File,Posix接口,支持快照,社会和更新变动少的数据,没有目录结构不能直接打开)将数据写入存储

ceph特点

  • 高性能
    a. 摒弃了传统的集中式存储元数据寻址的方案,采用CRUSH算法,数据分布均衡,并行度高
    b.考虑了容灾域的隔离,能够实现各类负载的副本放置规则,例如跨机房、机架感知等
    c. 能够支持上千个存储节点的规模,支持TB到PB级的数据
  • 高可扩展性
    a. 去中心化
    b. 扩展灵活
    c. 随着节点增加而线性增长
  • 特性丰富
    a. 支持三种存储接口:块存储、文件存储、对象存储
    b. 支持自定义接口,支持多种语言驱动

ceph 核心概念

RADOS

全称Reliable Autonomic Distributed Object Store,即可靠的、自动化的、分布式对象存储系统。RADOS是Ceph集群的精华,用户实现数据分配、Failover等集群操作。

Librados

Rados提供库,因为RADOS是协议很难直接访问,因此上层的RBD、RGW和CephFS都是通过librados访问的,目前提供PHP、Ruby、Java、Python、C和C++支持。

Crush

Crush算法是Ceph的两大创新之一,通过Crush算法的寻址操作,Ceph得以摒弃了传统的集中式存储元数据寻址方案。而Crush算法在一致性哈希基础上很好的考虑了容灾域的隔离,使得Ceph能够实现各类负载的副本放置规则,例如跨机房、机架感知等。同时,Crush算法有相当强大的扩展性,理论上可以支持数千个存储节点,这为Ceph在大规模云环境中的应用提供了先天的便利。

Pool

Pool是存储对象的逻辑分区,它规定了数据冗余的类型和对应的副本分布策略,支持两种类型:副本(replicated)和 纠删码( Erasure Code);

PG

PG( placement group)是一个放置策略组,它是对象的集合,该集合里的所有对象都具有相同的放置策略,简单点说就是相同PG内的对象都会放到相同的硬盘上,PG是 ceph的逻辑概念,服务端数据均衡和恢复的最小粒度就是PG,一个PG包含多个OSD。引入PG这一层其实是为了更好的分配数据和定位数据;

Object

简单来说块存储读写快,不利于共享,文件存储读写慢,利于共享。能否弄一个读写快,利 于共享的出来呢。于是就有了对象存储。最底层的存储单元,包含元数据和原始数据。

Pool、PG和OSD的关系:

  • 一个Pool里有很多PG;

  • 一个PG里包含一堆对象,一个对象只能属于一个PG;

  • PG有主从之分,一个PG分布在不同的OSD上(针对三副本类型);

Ceph核心组件

OSD

OSD是负责物理存储的进程,一般配置成和磁盘一一对应,一块磁盘启动一个OSD进程。主要功能是存储数据、复制数据、平衡数据、恢复数据,以及与其它OSD间进行心跳检查,负责响应客户端请求返回具体数据的进程等;

Monitor

一个Ceph集群需要多个Monitor组成的小集群,它们通过Paxos同步数据,用来保存OSD的元数据。负责坚实整个Ceph集群运行的Map视图(如OSD Map、Monitor Map、PG Map和CRUSH Map),维护集群的健康状态,维护展示集群状态的各种图表,管理集群客户端认证与授权;

MDS

MDS全称Ceph Metadata Server,是CephFS服务依赖的元数据服务。负责保存文件系统的元数据,管理目录结构。对象存储和块设备存储不需要元数据服务;

Mgr

ceph 官方开发了 ceph-mgr,主要目标实现 ceph 集群的管理,为外界提供统一的入口。例如cephmetrics、zabbix、calamari、promethus

RGW

RGW全称RADOS gateway,是Ceph对外提供的对象存储服务,接口与S3和Swift兼容。

Admin

Ceph常用管理接口通常都是命令行工具,如rados、ceph、rbd等命令,另外Ceph还有可以有一个专用的管理节点,在此节点上面部署专用的管理工具来实现近乎集群的一些管理工作,如集群部署,集群组件管理等。

ceph三种存储类型

块存储(RBD)

  • 优点:

    通过Raid与LVM等手段,对数据提供了保护;
  • 多块廉价的硬盘组合起来,提高容量;
  • 多块磁盘组合出来的逻辑盘,提升读写效率;
  • 缺点:
      采用SAN架构组网时,光纤交换机,造价成本高;
    • 主机之间无法共享数据;
  • 使用场景
      docker容器、虚拟机磁盘存储分配;
    • 日志存储;
    • 文件存储;

    2、文件存储(CephFS)

    • 优点:

      造价低,随便一台机器就可以了;
    • 方便文件共享;
  • 缺点:
      读写速率低;
    • 传输速率慢;
  • 使用场景
      日志存储;
    • FTP、NFS;
    • 其它有目录结构的文件存储

    3、对象存储(Object)(适合更新变动较少的数据)

    • 优点:

      具备块存储的读写高速;
    • 具备文件存储的共享等特性;
  • 使用场景
      图片存储;
    • 视频存储;

    集群IO流程

    (1)client 创建cluster handler;

    (2)client 读取配置文件;

    (3)client 连接上monitor,获取集群map信息;

    (4)client 读写io 根据crshmap 算法请求对应的主osd数据节点;

    (5)主osd数据节点同时写入另外两个副本节点数据;

    (6)等待主节点以及另外两个副本节点写完数据状态;

    (7)主节点及副本节点写入状态都成功后,返回给client,io写入完成。[强一致性]

    Ceph安装

    ceph版本选择

    Ceph版本来源介绍
    Ceph 社区最新版本是 14,而 Ceph 12 是市面用的最广的稳定版本。
    第一个 Ceph 版本是 0.1 ,要回溯到 2008 年 1 月。多年来,版本号方案一直没变,直到 2015 年 4 月 0.94.1 ( Hammer 的第一个修正版)发布后,为了避免 0.99 (以及 0.100 或 1.00 ?),制定了新策略。

    x.0.z - 开发版(给早期测试者和勇士们)

    x.1.z - 候选版(用于测试集群、高手们)

    x.2.z - 稳定、修正版(给用户们)

    x 将从 9 算起,它代表 Infernalis ( I 是第九个字母),这样第九个发布周期的第一个开发版就是 9.0.0 ;后续的开发版依次是 9.0.1 、 9.0.2 等等。

    版本名称 版本号 发布时间
    Argonaut 0.48版本(LTS) 2012年6月3日
    Bobtail 0.56版本(LTS) 2013年5月7日
    Cuttlefish 0.61版本 2013年1月1日
    Dumpling 0.67版本(LTS) 2013年8月14日
    Emperor 0.72版本 2013年11月9
    Firefly 0.80版本(LTS) 2014年5月
    Giant Giant October 2014 - April 2015
    Hammer Hammer April 2015 - November 2016
    Infernalis Infernalis November 2015 - June 2016
    Jewel 10.2.9 2016年4月
    Kraken 11.2.1 2017年10月
    Luminous 12.2.12 2017年10月
    mimic 13.2.7 2018年5月
    nautilus 14.2.5 2019年2月

    Luminous新版本特性

    • Bluestore ceph-osd的新后端存储BlueStore已经稳定,是新创建的OSD的默认设置。
      BlueStore通过直接管理物理HDD或SSD而不使用诸如XFS的中间文件系统,来管理每个OSD存储的数据,这提供了更大的性能和功能。
    • BlueStore支持Ceph存储的所有的完整的数据和元数据校验。
    • BlueStore内嵌支持使用zlib,snappy或LZ4进行压缩。(Ceph还支持zstd进行RGW压缩,但由于性能原因,不为BlueStore推荐使用zstd)
  • 集群的总体可扩展性有所提高。我们已经成功测试了多达10,000个OSD的集群。
  • ceph-mgr
      ceph-mgr是一个新的后台进程,这是任何Ceph部署的必须部分。虽然当ceph-mgr停止时,IO可以继续,但是度量不会刷新,并且某些与度量相关的请求(例如,ceph df)可能会被阻止。我们建议您多部署ceph-mgr的几个实例来实现可靠性。
    • ceph-mgr守护进程daemon包括基于REST的API管理。注:API仍然是实验性质的,目前有一些限制,但未来会成为API管理的基础。
    • ceph-mgr还包括一个Prometheus插件。
    • ceph-mgr现在有一个Zabbix插件。使用zabbix_sender,它可以将集群故障事件发送到Zabbix Server主机。这样可以方便地监视Ceph群集的状态,并在发生故障时发送通知。

    安装前准备

    1. 安装要求
    • 最少三台Centos7系统虚拟机用于部署Ceph集群。硬件配置:2C4G,另外每台机器最少挂载三块硬盘(每块盘5G)

      192.168.56.14 cephnode01
      192.168.56.15 cephnode02
      192.168.56.16 cephnode03

    1. 环境准备(在Ceph三台机器上操作)
    (1)关闭防火墙:
    $ systemctl stop firewalld
    $ systemctl disable firewalld
    (2)关闭selinux:
    $ sed -i 's/enforcing/disabled/' /etc/selinux/config
    $ setenforce 0
    (3)关闭NetworkManager
    $ systemctl disable NetworkManager && systemctl stop NetworkManager
    (4)添加主机名与IP对应关系:
    $ vim /etc/hosts
    192.168.56.14   cephnode01
    192.168.56.15   cephnode02
    192.168.56.16   cephnode03
    (5)设置主机名:
    hostnamectl set-hostname cephnode01
    hostnamectl set-hostname cephnode02
    hostnamectl set-hostname cephnode03
    (6)同步网络时间和修改时区
    systemctl restart chronyd.service && systemctl enable chronyd.service
    cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime
    (7)设置文件描述符
    echo "ulimit -SHn 102400" >> /etc/rc.local
    cat >> /etc/security/limits.conf << EOF
    * soft nofile 65535
    * hard nofile 65535
    EOF
    (8)内核参数优化
    cat >> /etc/sysctl.conf << EOF
    kernel.pid_max = 4194303
    vm.swappiness = 0
    EOF
    sysctl -p
    (9)在cephnode01上配置免密登录到cephnode02、cephnode03
    ssh-copy-id root@cephnode02
    ssh-copy-id root@cephnode03
    (10)read_ahead,通过数据预读并且记载到随机访问内存方式提高磁盘读操作
    echo "8192" > /sys/block/sda/queue/read_ahead_kb
    (11) 安装epel-release
    yum -y install epel-release

    安装Ceph集群

    1、编辑内网yum源,将yum源同步到其它节点并提前做好yum makecache

    $  vim /etc/yum.repos.d/ceph.repo
    [Ceph]
    name=Ceph packages for $basearch
    baseurl=http://mirrors.aliyun.com/ceph/rpm-nautilus/el7/$basearch
    gpgcheck=0
    priority=1
    
    [Ceph-noarch]
    name=Ceph noarch packages
    baseurl=http://mirrors.aliyun.com/ceph/rpm-nautilus/el7/noarch
    gpgcheck=0
    priority=1
    
    [ceph-source]
    name=Ceph source packages
    baseurl=http://mirrors.aliyun.com/ceph/rpm-nautilus/el7/SRPMS
    gpgcheck=0
    priority=1

    2、安装ceph-deploy,在node01执行(确认ceph-deploy版本是否为2.0.1,)

    $ yum install -y ceph-deploy

    3、创建一个my-cluster目录,所有命令在此目录下进行,在node01执行(文件位置和名字可以随意)

    $ mkdir /my-cluster
    $ cd /my-cluster
    $ yum -y install python2-pip

    4、创建一个Ceph集群,在node01执行

    $ ceph-deploy new cephnode01 cephnode02 cephnode03

    5、安装Ceph软件(每个节点执行)

    $ wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo
    $ yum -y install epel-release
    $ yum -y install  ceph
    $ ceph -v

    6、生成monitor检测集群所使用的的秘钥

    $ ceph-deploy mon create-initial

    7、安装Ceph Cli,方便执行一些管理命令

    $ ceph-deploy admin cephnode01 cephnode02 cephnode03

    8、部署mgr,用于管理集群

    $ ceph-deploy mgr create cephnode01 cephnode02 cephnode03

    9、部署rgw (node01)

    $ yum install -y ceph-radosgw
    $ ceph-deploy rgw create cephnode01

    10、部署MDS(cephFS)

    $ ceph-deploy mds create cephnode01 cephnode02 cephnode03
    $ ceph -s     #查看集群状态

    11、 添加osd

    $ ceph-deploy osd create --data /dev/sdb cephnode01
    $ ceph-deploy osd create --data /dev/sdb cephnode02
    $ ceph-deploy osd create --data /dev/sdb cephnode03

    ceph.conf

    1、该配置文件采用init文件语法,#和;为注释,ceph集群在启动的时候会按照顺序加载所有的conf配置文件。 配置文件分为以下几大块配置。

    global:全局配置。
    osd:osd专用配置,可以使用osd.N,来表示某一个OSD专用配置,N为osd的编号,如0、2、1等。
    mon:mon专用配置,也可以使用mon.A来为某一个monitor节点做专用配置,其中A为该节点的名称,ceph-monitor-2、ceph-monitor-1等。使用命令 ceph mon dump可以获取节点的名称。
    client:客户端专用配置。

    2、配置文件可以从多个地方进行顺序加载,如果冲突将使用最新加载的配置,其加载顺序为。

    $CEPH_CONF环境变量
    -c 指定的位置
    /etc/ceph/ceph.conf
    ~/.ceph/ceph.conf
    ./ceph.conf

    3、配置文件还可以使用一些元变量应用到配置文件,如:

    $cluster:当前集群名。
    $type:当前服务类型。
    $id:进程的标识符。
    $host:守护进程所在的主机名。
    $name:值为$type.$id。

    4、ceph.conf详细参数

    [global]#全局设置
    fsid = xxxxxxxxxxxxxxx                           #集群标识ID
    mon host = 10.0.1.1,10.0.1.2,10.0.1.3            #monitor IP 地址
    auth cluster required = cephx                    #集群认证
    auth service required = cephx                           #服务认证
    auth client required = cephx                            #客户端认证
    osd pool default size = 3                             #最小副本数 默认是3
    osd pool default min size = 1                           #PG 处于 degraded 状态不影响其 IO 能力,min_size是一个PG能接受IO的最小副本数
    public network = 10.0.1.0/24                            #公共网络(monitorIP段)
    cluster network = 10.0.2.0/24                           #集群网络
    max open files = 131072                                 #默认0#如果设置了该选项,Ceph会设置系统的max open fds
    mon initial members = node1, node2, node3               #初始monitor (由创建monitor命令而定)
    ##############################################################
    [mon]
    mon data = /var/lib/ceph/mon/ceph-$id
    mon clock drift allowed = 1                             #默认值0.05#monitor间的clock drift
    mon osd min down reporters = 13                         #默认值1#向monitor报告down的最小OSD数
    mon osd down out interval = 600      #默认值300      #标记一个OSD状态为down和out之前ceph等待的秒数
    ##############################################################
    [osd]
    osd data = /var/lib/ceph/osd/ceph-$id
    osd mkfs type = xfs                                     #格式化系统类型
    osd max write size = 512 #默认值90                   #OSD一次可写入的最大值(MB)
    osd client message size cap = 2147483648 #默认值100    #客户端允许在内存中的最大数据(bytes)
    osd deep scrub stride = 131072 #默认值524288         #在Deep Scrub时候允许读取的字节数(bytes)
    osd op threads = 16 #默认值2                         #并发文件系统操作数
    osd disk threads = 4 #默认值1                        #OSD密集型操作例如恢复和Scrubbing时的线程
    osd map cache size = 1024 #默认值500                 #保留OSD Map的缓存(MB)
    osd map cache bl size = 128 #默认值50                #OSD进程在内存中的OSD Map缓存(MB)
    osd mount options xfs = "rw,noexec,nodev,noatime,nodiratime,nobarrier" #默认值rw,noatime,inode64  #Ceph OSD xfs Mount选项
    osd recovery op priority = 2 #默认值10              #恢复操作优先级,取值1-63,值越高占用资源越高
    osd recovery max active = 10 #默认值15              #同一时间内活跃的恢复请求数
    osd max backfills = 4  #默认值10                  #一个OSD允许的最大backfills数
    osd min pg log entries = 30000 #默认值3000           #修建PGLog是保留的最大PGLog数
    osd max pg log entries = 100000 #默认值10000         #修建PGLog是保留的最大PGLog数
    osd mon heartbeat interval = 40 #默认值30            #OSD ping一个monitor的时间间隔(默认30s)
    ms dispatch throttle bytes = 1048576000 #默认值 104857600 #等待派遣的最大消息数
    objecter inflight ops = 819200 #默认值1024           #客户端流控,允许的最大未发送io请求数,超过阀值会堵塞应用io,为0表示不受限
    osd op log threshold = 50 #默认值5                  #一次显示多少操作的log
    osd crush chooseleaf type = 0 #默认值为1              #CRUSH规则用到chooseleaf时的bucket的类型
    ##############################################################
    [client]
    rbd cache = true #默认值 true      #RBD缓存
    rbd cache size = 335544320 #默认值33554432           #RBD缓存大小(bytes)
    rbd cache max dirty = 134217728 #默认值25165824      #缓存为write-back时允许的最大dirty字节数(bytes),如果为0,使用write-through
    rbd cache max dirty age = 30 #默认值1                #在被刷新到存储盘前dirty数据存在缓存的时间(seconds)
    rbd cache writethrough until flush = false #默认值true  #该选项是为了兼容linux-2.6.32之前的virtio驱动,避免因为不发送flush请求,数据不回写
    #设置该参数后,librbd会以writethrough的方式执行io,直到收到第一个flush请求,才切换为writeback方式。
    rbd cache max dirty object = 2 #默认值0              #最大的Object对象数,默认为0,表示通过rbd cache size计算得到,librbd默认以4MB为单位对磁盘Image进行逻辑切分
    #每个chunk对象抽象为一个Object;librbd中以Object为单位来管理缓存,增大该值可以提升性能
    rbd cache target dirty = 235544320 #默认值16777216    #开始执行回写过程的脏数据大小,不能超过 rbd_cache_max_dirty

    RBD

    RBD介绍

    RBD即RADOS Block Device的简称,RBD块存储是最稳定且最常用的存储类型。RBD块设备类似磁盘可以被挂载。 RBD块设备具有快照、多副本、克隆和一致性等特性,数据以条带化的方式存储在Ceph集群的多个OSD中。

    • RBD 就是 Ceph 里的块设备,一个 4T 的块设备的功能和一个 4T 的 SATA 类似,挂载的 RBD 就可以当磁盘用;
    • resizable:这个块可大可小;
    • data striped:这个块在Ceph里面是被切割成若干小块来保存,不然 1PB 的块怎么存的下;
    • thin-provisioned:精简置备,1PB 的集群是能创建无数 1TB 的块的。其实就是块的大小和在 Ceph中实际占用大小是没有关系的,刚创建出来的块是不占空间,今后用多大空间,才会在 Ceph 中占用多大空间。举例:你有一个 32G 的 U盘,存了一个2G的电影,那么 RBD 大小就类似于 32G,而 2G 就相当于在 Ceph 中占用的空间 ;
    • 块存储本质就是将裸磁盘或类似裸磁盘(lvm)设备映射给主机使用,主机可以对其进行格式化并存储和读取数据,块设备读取速度快但是不支持共享。
    • ceph可以通过内核模块和librbd库提供块设备支持。客户端可以通过内核模块挂在rbd使用,客户端使用rbd块设备就像使用普通硬盘一样,可以对其就行格式化然后使用典型的是云平台的块存储服务。

    使用场景:

    • 云平台(OpenStack做为云的存储后端提供镜像存储)
    • K8s容器
    • map成块设备直接使用
    • ISCIS,安装Ceph客户端

    Ceph RBD IO流程

    (1)客户端创建一个pool,需要为这个pool指定pg的数量;
    (2)创建pool/image rbd设备进行挂载;
    (3)用户写入的数据进行切块,每个块的大小默认为4M,并且每个块都有一个名字,名字就是object+序号;
    (4)将每个object通过pg进行副本位置的分配;
    (5)pg根据cursh算法会寻找3个osd,把这个object分别保存在这三个osd上;
    (6)osd上实际是把底层的disk进行了格式化操作,一般部署工具会将它格式化为xfs文件系统;
    (7)object的存储就变成了存储一个文rbd0.object1.file;

    客户端写数据osd过程:

    1. 采用的是librbd的形式,使用librbd创建一个块设备,向这个块设备中写入数据;
    2. 在客户端本地同过调用librados接口,然后经过pool,rbd,object、pg进行层层映射,在PG这一层中,可以知道数据保存在哪3个OSD上,这3个OSD分为主从的关系;
    3. 客户端与primay OSD建立SOCKET 通信,将要写入的数据传给primary OSD,由primary OSD再将数据发送给其他replica OSD数据节点;

    RBD常用命令

    命令 功能
    rbd create 创建块设备映像
    rbd ls 列出 rbd 存储池中的块设备
    rbd info 查看块设备信息
    rbd diff 可以统计 rbd 使用量
    rbd map 映射块设备
    rbd showmapped 查看已映射块设备
    rbd remove 删除块设备
    rbd resize 更改块设备的大小

    RBD配置操作

    1、查看pools

    rados lspools

    2、创建rbd使用的pool

    (osd个数*100)/副本数 = 2的幂次方的数

    # ceph osd pool create rbd  32 32
    # ceph osd pool application enable rbd rbd

    3、创建一个块设备

    # rbd create --size 10240 image01

    4、 查看块设备

    # rbd ls
    # rbd info image01

    5、将块设备映射到系统内核

    # rbd feature disable image01 exclusive-lock, object-map, fast-diff, deep-flatten    # 禁用当前系统内核不支持的feature
    # rbd map image01

    6、格式化块设备镜像

    #  mkfs.xfs /dev/rbd0

    7、mount到本地

    # mount /dev/rbd0 /mnt
    # umount /mnt

    8、取消块设备和内核映射

    # rbd unmap image01

    9、删除RBD块设备

    # rbd rm image01

    快照配置

    1、创建快照

    # rbd create --size 10240 image02
    # rados -p rbd ls
    # rbd snap create image02@image02_snap01

    2、列出创建的快照

    # rbd snap list image02
    或
    # rbd ls -l

    3、查看快照详细信息

    # rbd info image02@image02_snap01

    4、克隆快照(快照必须处于被保护状态才能被克隆)

    # rbd snap protect image02@image02_snap01
    # ceph osd pool create kube 32 32
    # rbd clone rbd/image02@image02_snap01 kube/image02_clone01
    # rados -p kube ls

    5、查看快照的children

    # rbd children image02

    6、去掉快照的parent

    # rbd flatten kube/image02_clone01

    7、恢复快照

    # rbd snap rollback image02@image02_snap01

    8、删除快照

    # rbd snap unprotect image02@image02_snap01
    # rbd snap remove image02@image02_snap01

    CephFs

    CephFs介绍

    Ceph File System (CephFS) 是与 POSIX 标准兼容的文件系统, 能够提供对 Ceph 存储集群上的文件访问. Jewel 版本 (10.2.0) 是第一个包含稳定 CephFS 的 Ceph 版本. CephFS 需要至少一个元数据服务器 (Metadata Server - MDS) daemon (ceph-mds) 运行, MDS daemon 管理着与存储在 CephFS 上的文件相关的元数据, 并且协调着对 Ceph 存储系统的访问。

    对象存储的成本比起普通的文件存储还是较高,需要购买专门的对象存储软件以及大容量硬盘。如果对数据量要求不是海量,只是为了做文件共享的时候,直接用文件存储的形式好了,性价比高。
    CephFS 架构
    底层是核心集群所依赖的, 包括:

    • OSDs (ceph-osd): CephFS 的数据和元数据就存储在 OSDs 上
    • MDS (ceph-mds): Metadata Servers, 管理着 CephFS 的元数据
    • Mons (ceph-mon): Monitors 管理着集群 Map 的主副本
      Ceph 存储集群的协议层是 Ceph 原生的 librados 库, 与核心集群交互.

    CephFS 库层包括 CephFS 库 libcephfs, 工作在 librados 的顶层, 代表着 Ceph 文件系统.最上层是能够访问 Ceph 文件系统的两类客户端.

    配置 CephFS MDS

    要使用 CephFS, 至少就需要一个 metadata server 进程。可以手动创建一个 MDS, 也可以使用 ceph-deploy 或者 ceph-ansible 来部署 MDS。

    登录到ceph-deploy工作目录执行
    # ceph-deploy mds create $hostname

    部署Ceph文件系统

    部署一个 CephFS, 步骤如下:

    1. 在一个 Mon 节点上创建 Ceph 文件系统.

    2. 若使用 CephX 认证,需要创建一个访问 CephFS 的客户端

    3. 挂载 CephFS 到一个专用的节点.

        以 kernel client 形式挂载 CephFS

      • 以 FUSE client 形式挂载 CephFS
        创建一个 Ceph 文件系统

        1、CephFS 需要两个 Pools - cephfs-data 和 cephfs-metadata, 分别存储文件数据和文件元数据

    # ceph osd pool create cephfs-data 16 16
    # ceph osd pool create cephfs-metadata 16 16

    注:一般 metadata pool 可以从相对较少的 PGs 启动, 之后可以根据需要增加 PGs. 因为 metadata pool 存储着 CephFS 文件的元数据, 为了保证安全, 最好有较多的副本数. 为了能有较低的延迟, 可以考虑将 metadata 存储在 SSDs 上.

    2、创建一个 CephFS, 名字为 cephfs:

    # ceph fs new cephfs cephfs-metadata cephfs-data

    3、验证至少有一个 MDS 已经进入 Active 状态

    # ceph fs status cephfs

    4、在 Monitor 上, 创建一个用户,用于访问CephFs

    #  ceph auth get-or-create client.cephfs mon 'allow r' mds 'allow rw' osd 'allow rw pool=cephfs-data, allow rw pool=cephfs-metadata'
    [client.cephfs]
    key = AQCzlk9fNV+VJBAAjVOx54CRjZoFe5kIVmVjDA==

    5、验证key是否生效

    # ceph auth get client.cephfs

    6、检查CephFs和mds状态

    ceph mds stat
    ceph fs ls
    ceph fs status

    kernel client 形式挂载 CephFS

    1、创建挂载目录 cephfs

    # mkdir /cephfs

    2、挂载目录

    # mount -t ceph 192.168.56.14:6789,192.168.56.15:6789,192.168.56.16:6789:/ /cephfs/ -o name=cephfs,secret=AQCzlk9fNV+VJBAAjVOx54CRjZoFe5kIVmVjDA==

    3、开机自动挂载

    $  vim /etc/ceph/cephfs.key
    [client.cephfs]
    key = AQCzlk9fNV+VJBAAjVOx54CRjZoFe5kIVmVjDA==
    
    $ vim /etc/fstab
    192.168.56.14:6789,192.168.56.15:6789,192.168.56.16:6789:/ /cephfs/ -o name=cephfs,secretfile=/etc/ceph/cephfs.key,_netdev,noatime 0 0

    FUSE client 形式挂载 CephFS

    1、安装ceph-common

    yum install -y ceph-common

    2、安装ceph-fuse

    yum install -y ceph-fuse

    3、将集群的ceph.conf拷贝到客户端 【ceph集群外节点需要这个操作,集群内不用】

    scp root@192.168.56.14:/etc/ceph/ceph.conf /etc/ceph/
    chmod 644 /etc/ceph/ceph.conf

    4、使用 ceph-fuse 挂载 CephFS

    $ ceph auth get client.cephfs
    [client.cephfs]
    key = AQCzlk9fNV+VJBAAjVOx54CRjZoFe5kIVmVjDA==
    caps mds = "allow rw"
    caps mon = "allow r"
    caps osd = "allow rw pool=cephfs-data, allow rw pool=cephfs-metadata"
    # 其他节点执行如下的挂载命令
    $ vim /etc/ceph/ceph.client.cephfs.keyring
    [client.cephfs]
    key = AQCzlk9fNV+VJBAAjVOx54CRjZoFe5kIVmVjDA==
    caps mds = "allow rw"
    caps mon = "allow r"
    caps osd = "allow rw pool=cephfs-data, allow rw pool=cephfs-metadata"
    $ ceph-fuse --keyring  /etc/ceph/ceph.client.cephfs.keyring  --name client.cephfs -m 192.168.56.14:6789,192.168.56.15:6789,192.168.56.16:6789  /cephfs/

    5、验证 CephFS 已经成功挂载

    stat -f /cephfs

    6、自动挂载

    echo "none /cephfs fuse.ceph ceph.id=cephfs[,ceph.conf=/etc/ceph/ceph.conf],_netdev,defaults 0 0"| sudo tee -a /etc/fstab
    或
    echo "id=cephfs,conf=/etc/ceph/ceph.conf /mnt/ceph2  fuse.ceph _netdev,defaults 0 0"| sudo tee -a /etc/fstab

    7、卸载

    fusermount -u /cephfs

    MDS主备与主主切换

    (1)配置主主模式

    • 当cephfs的性能出现在MDS上时,就应该配置多个活动的MDS。通常是多个客户机应用程序并行的执行大量元数据操作,并且它们分别有自己单独的工作目录。这种情况下很适合使用多主MDS模式。

    (2)配置MDS多主模式

    • 每个cephfs文件系统都有一个max_mds设置,可以理解为它将控制创建多少个主MDS。注意只有当实际的MDS个数大于或等于max_mds设置的值时,mdx_mds设置才会生效。例如,如果只有一个MDS守护进程在运行,并且max_mds被设置为两个,则不会创建第二个主MDS。
    # ceph fs set cephfs max_mds 2

    (3)配置备用MDS
    即使有多个活动的MDS,如果其中一个MDS出现故障,仍然需要备用守护进程来接管。因此,对于高可用性系统,实际配置max_mds时,最好比系统中MDS的总数少一个。

    但如果你确信你的MDS不会出现故障,可以通过以下设置来通知ceph不需要备用MDS,否则会出现insufficient standby daemons available告警信息:

    # ceph fs set <fs> standby_count_wanted 0

    (4)还原单主MDS
    设置max_mds

    # ceph fs set cephfs max_mds 1

    Ceph Dashboard

    Ceph 的监控可视化界面方案很多----grafana、Kraken。但是从Luminous开始,Ceph 提供了原生的Dashboard功能,通过Dashboard可以获取Ceph集群的各种基本状态信息。
    mimic版 (nautilus版) dashboard 安装。如果是 (nautilus版) 需要安装 ceph-mgr-dashboard

    配置Ceph Dashboard

    1、在每个mgr节点安装
    # yum install ceph-mgr-dashboard -y
    2、开启mgr功能
    # ceph mgr module enable dashboard
    3、生成并安装自签名的证书
    # ceph dashboard create-self-signed-cert
    4、创建一个dashboard登录用户名密码(guest administrator权限)
    # ceph dashboard ac-user-create guest 1q2w3e4r administrator
    5、禁用SSL
    # ceph config set mgr mgr/dashboard/ssl false
    6、查看服务访问方式
    # ceph mgr services

    修改默认配置命令(存在问题,无法修改)

    指定集群dashboard的访问端口
    # ceph config set mgr mgr/dashboard/server_port 7000
    指定集群 dashboard的访问IP
    # ceph config set mgr mgr/dashboard/server_addr 192.168.56.14

    dashboard登陆测试

    • 获取到访问地址
    $ ceph mgr services
    {
    "dashboard": "https://cephnode03:8443/"
    }
    • 将访问地址写入本地hosts
    $ vim /etc/hosts
    192.168.56.16 cephnode03
    • 浏览器登陆打开(需要使用火狐浏览器打开,谷歌不能打开)

    开启Object Gateway管理功能

    1、创建rgw用户
    # radosgw-admin user create --uid=user01 --display-name=user01 --system
    2、提供Dashboard证书
    # ceph dashboard set-rgw-api-access-key $access_key
    # ceph dashboard set-rgw-api-secret-key $secret_key
    3、配置rgw主机名和端口
    # ceph dashboard set-rgw-api-host 192.168.56.14
    # ceph dashboard set-rgw-api-port 7480
    4、刷新web页面

    Promethus+Grafana

    安装grafana

    1、配置yum源文件
    # vim /etc/yum.repos.d/grafana.repo
    [grafana]
    name=grafana
    baseurl=https://packages.grafana.com/oss/rpm
    repo_gpgcheck=1
    enabled=1
    gpgcheck=1
    gpgkey=https://packages.grafana.com/gpg.key
    sslverify=1
    sslcacert=/etc/pki/tls/certs/ca-bundle.crt
    
    2.通过yum命令安装grafana
    # yum -y install grafana
    
    3.启动grafana并设为开机自启
    # systemctl start grafana-server.service
    # systemctl enable grafana-server.service

    安装promethus

    1、下载安装包,下载地址
    wget https://github.com/prometheus/prometheus/releases/download/v2.20.1/prometheus-2.20.1.linux-amd64.tar.gz
    2、解压压缩包
    # tar prometheus-2.20.1.linux-amd64.tar.gz
    3、将解压后的目录改名
    # mv prometheus-2.20.1.linux-amd64 /opt/prometheus
    4、查看promethus版本
    # /opt/prometheus/prometheus --version
    5、配置系统服务启动
    # tee /etc/systemd/system/prometheus.service << EOF
    [Unit]
    Description=Prometheus Monitoring System
    Documentation=Prometheus Monitoring System
    
    [Service]
    ExecStart=/opt/prometheus/prometheus \
    --config.file /opt/prometheus/prometheus.yml \
    --web.listen-address=:9090
    
    [Install]
    WantedBy=multi-user.target
    EOF
    6、加载系统服务
    # systemctl daemon-reload
    7、启动服务和添加开机自启动
    # systemctl start prometheus
    # systemctl enable prometheus

    ceph mgr prometheus插件配置

    # ceph mgr module enable prometheus
    # netstat -nltp | grep mgr 检查端口
    # curl 192.168.56.16:9283/metrics  测试返回值

    配置promethus

    1、在 scrape_configs: 配置项下添加

    # vim /opt/prometheus/prometheus.yml
    - job_name: 'ceph_cluster'
    honor_labels: true
    scrape_interval: 5s
    static_configs:
    - targets: ['192.168.56.16:9283']
    labels:
    instance: ceph

    2、重启promethus服务

    # systemctl restart prometheus

    3、检查prometheus服务器中是否添加成功

    # 浏览器-》 http://x.x.x.x:9090 -》status -》Targets

    配置grafana

    1、浏览器登录 grafana 管理界面
    2、添加data sources,点击configuration--》data sources
    3、添加dashboard,点击HOME--》find dashboard on grafana.com
    4、搜索ceph的dashboard (2842)
    5、点击HOME--》Import dashboard, 选择合适的dashboard,记录编号

    K8s对接Ceph存储

    PV、PVC概述

    管理存储是管理计算的一个明显问题。PersistentVolume子系统为用户和管理员提供了一个API,用于抽象如何根据消费方式提供存储的详细信息。于是引入了两个新的API资源:PersistentVolume和PersistentVolumeClaim

    PersistentVolume(PV)是集群中已由管理员配置的一段网络存储。 集群中的资源就像一个节点是一个集群资源。 PV是诸如卷之类的卷插件,但是具有独立于使用PV的任何单个pod的生命周期。 该API对象包含存储的实现细节,即NFS,iSCSI或云提供商特定的存储系统。

    PersistentVolumeClaim(PVC)是用户存储的请求。 它类似于pod。Pod消耗节点资源,PVC消耗存储资源。 pod可以请求特定级别的资源(CPU和内存)。 权限要求可以请求特定的大小和访问模式。

    虽然PersistentVolumeClaims允许用户使用抽象存储资源,但是常见的是,用户需要具有不同属性(如性能)的PersistentVolumes,用于不同的问题。 管理员需要能够提供多种不同于PersistentVolumes,而不仅仅是大小和访问模式,而不会使用户了解这些卷的实现细节。 对于这些需求,存在StorageClass资源。

    StorageClass为集群提供了一种描述他们提供的存储的“类”的方法。 不同的类可能映射到服务质量级别,或备份策略,或者由群集管理员确定的任意策略。 Kubernetes本身对于什么类别代表是不言而喻的。 这个概念有时在其他存储系统中称为“配置文件”

    POD动态供给

    动态供给主要是能够自动帮你创建pv,需要多大的空间就创建多大的pv。k8s帮助创建pv,创建pvc就直接api调用存储类来寻找pv。

    如果是存储静态供给的话,会需要我们手动去创建pv,如果没有足够的资源,找不到合适的pv,那么pod就会处于pending等待的状态。而动态供给主要的一个实现就是StorageClass存储对象,其实它就是声明你使用哪个存储,然后帮你去连接,再帮你去自动创建pv。

    POD使用CephRBD做为持久数据卷

    RBD支持ReadWriteOnce,ReadOnlyMany两种模式

    (1)配置rbd-provider【k8s 集群上操作】

    需要在k8s集群安装ceph-common

    $ tee /etc/yum.repos.d/ceph.repo  << EOF
    [Ceph]
    name=Ceph packages for $basearch
    baseurl=http://mirrors.aliyun.com/ceph/rpm-nautilus/el7/$basearch
    gpgcheck=0
    priority=1
    
    [Ceph-noarch]
    name=Ceph noarch packages
    baseurl=http://mirrors.aliyun.com/ceph/rpm-nautilus/el7/noarch
    gpgcheck=0
    priority=1
    
    [ceph-source]
    name=Ceph source packages
    baseurl=http://mirrors.aliyun.com/ceph/rpm-nautilus/el7/SRPMS
    gpgcheck=0
    priority=1
    EOF
    
    $ yum -y install ceph-common

    参考地址:https://github.com/kubernetes-retired/external-storage/tree/master/ceph/rbd/deploy/rbac

    $ cat > external-storage-rbd-provisioner.yaml <<EOF
    apiVersion: v1
    kind: ServiceAccount
    metadata:
    name: rbd-provisioner
    namespace: kube-system
    ---
    kind: ClusterRole
    apiVersion: rbac.authorization.k8s.io/v1
    metadata:
    name: rbd-provisioner
    rules:
    - apiGroups: [""]
    resources: ["persistentvolumes"]
    verbs: ["get", "list", "watch", "create", "delete"]
    - apiGroups: [""]
    resources: ["persistentvolumeclaims"]
    verbs: ["get", "list", "watch", "update"]
    - apiGroups: ["storage.k8s.io"]
    resources: ["storageclasses"]
    verbs: ["get", "list", "watch"]
    - apiGroups: [""]
    resources: ["events"]
    verbs: ["create", "update", "patch"]
    - apiGroups: [""]
    resources: ["services"]
    resourceNames: ["kube-dns","coredns"]
    verbs: ["list", "get"]
    - apiGroups: [""]
    resources: ["endpoints"]
    verbs: ["get", "list", "watch", "create", "update", "patch"]
    ---
    kind: ClusterRoleBinding
    apiVersion: rbac.authorization.k8s.io/v1
    metadata:
    name: rbd-provisioner
    subjects:
    - kind: ServiceAccount
    name: rbd-provisioner
    namespace: kube-system
    roleRef:
    kind: ClusterRole
    name: rbd-provisioner
    apiGroup: rbac.authorization.k8s.io
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: Role
    metadata:
    name: rbd-provisioner
    namespace: kube-system
    rules:
    - apiGroups: [""]
    resources: ["secrets"]
    verbs: ["get"]
    - apiGroups: [""]
    resources: ["endpoints"]
    verbs: ["get", "list", "watch", "create", "update", "patch"]
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: RoleBinding
    metadata:
    name: rbd-provisioner
    namespace: kube-system
    roleRef:
    apiGroup: rbac.authorization.k8s.io
    kind: Role
    name: rbd-provisioner
    subjects:
    - kind: ServiceAccount
    name: rbd-provisioner
    namespace: kube-system
    ---
    apiVersion: apps/v1
    kind: Deployment
    metadata:
    name: rbd-provisioner
    namespace: kube-system
    spec:
    replicas: 1
    selector:
    matchLabels:
    app: rbd-provisioner
    strategy:
    type: Recreate
    template:
    metadata:
    labels:
    app: rbd-provisioner
    spec:
    containers:
    - name: rbd-provisioner
    image: "quay.io/external_storage/rbd-provisioner:latest"
    env:
    - name: PROVISIONER_NAME
    value: ceph.com/rbd
    serviceAccount: rbd-provisioner
    EOF
    $ kubectl apply -f external-storage-rbd-provisioner.yaml

    (2)配置storageclass 【在cephnode01操作】

    创建pod时,kubelet需要使用rbd命令去检测和挂载pv对应的ceph image,所以要在所有的worker节点安装ceph客户端ceph-common。将ceph的ceph.client.admin.keyring和ceph.conf文件拷贝到master的/etc/ceph目录下

    $ scp /etc/ceph/ceph.client.admin.keyring /etc/ceph/ceph.conf root@192.168.56.11:/etc/ceph/

    (3) 创建 osd pool 在ceph的mon或者admin节点 【在cephnode01操作】

    ceph osd pool create kube 32 32
    rados lspools
    ceph osd pool ls

    (4)创建k8s访问ceph的用户 在ceph的mon或者admin节点 【在cephnode01操作】

    $ ceph auth get-or-create client.kube mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=kube' -o ceph.client.kube.keyring
    $ cat ceph.client.kube.keyring
    [client.kube]
    key = AQBqUlNftVySFBAAFcXEwMJDmFiTfAEYKILlKw==

    (5)查看key 在ceph的mon或者admin节点 【在cephnode01操作】

    ceph auth get-key client.admin
    ceph auth get-key client.kube
    ceph auth get-key client.admin | base64      (这里获取的值要给k8s创建secret使用,也就是如下操作)
    ceph auth get-key client.kube | base64       (这里获取的值要给k8s创建secret使用)

    (6)创建 admin secret 【k8s Master上操作】

    $ vim secret.yaml
    apiVersion: v1
    kind: Secret
    metadata:
    name: ceph-secret-admin
    namespace: kube-system
    type: "kubernetes.io/rbd"
    data:
    # ceph auth get-key client.admin | base64
    key: QVFDR05FNWZDMit0TVJBQUhMaTNrWEZhMVRScjM4UXFQcW1adXc9PQ==
    ---
    apiVersion: v1
    kind: Secret
    metadata:
    name: ceph-secret
    namespace: kube-system
    type: "kubernetes.io/rbd"
    data:
    # ceph auth add client.kube mon 'allow r' osd 'allow rwx pool=kube'
    # ceph auth get-key client.kube | base64
    key: QVFCcVVsTmZ0VnlTRkJBQUZjWEV3TUpEbUZpVGZBRVlLSUxsS3c9PQ==

    (7)配置StorageClass 【k8s Master上操作】

    $ tee storageclass-cephfs.yaml <<EOF
    kind: StorageClass
    apiVersion: storage.k8s.io/v1
    metadata:
    name: dynamic-ceph-rdb
    provisioner: ceph.com/rbd
    parameters:
    monitors: 192.168.56.14:6789,192.168.56.15:6789,192.168.56.16:6789
    pool: kube
    adminId: admin
    adminSecretNamespace: kube-system
    adminSecretName: ceph-secret-admin
    userId: kube
    userSecretNamespace: kube-system
    userSecretName: ceph-secret
    fsType: ext4
    imageFormat: "2"
    imageFeatures: layering
    EOF
    $ kubectl apply -f storageclass-cephfs.yaml
    $ kubectl get sc

    (8) 创建pvc

    $ cat >ceph-rdb-pvc-test.yaml<<EOF
    kind: PersistentVolumeClaim
    apiVersion: v1
    metadata:
    name: ceph-rdb-claim
    spec:
    accessModes:
    - ReadWriteOnce
    storageClassName: dynamic-ceph-rdb
    resources:
    requests:
    storage: 2Gi
    EOF
    $ kubectl apply -f ceph-rdb-pvc-test.yaml
    $ kubectl get pv,pvc
    NAME                                                        CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS   CLAIM                    STORAGECLASS       REASON   AGE
    persistentvolume/pvc-629104de-be76-418f-95b1-7eea076289f8   2Gi        RWO            Delete           Bound    default/ceph-rdb-claim   dynamic-ceph-rdb            17m
    
    NAME                                   STATUS   VOLUME                                     CAPACITY   ACCESS MODES   STORAGECLASS       AGE
    persistentvolumeclaim/ceph-rdb-claim   Bound    pvc-629104de-be76-418f-95b1-7eea076289f8   2Gi        RWO            dynamic-ceph-rdb   17m

    (9) 测试(挂载nginx测试)

    $ cat > nginx-test-pod.yaml  <<EOF
    apiVersion: v1
    kind: Pod
    metadata:
    name: nginx-pod1
    labels:
    name: nginx-pod1
    spec:
    containers:
    - name: nginx-pod1
    image: nginx:alpine
    ports:
    - name: web
    containerPort: 80
    volumeMounts:
    - name: ceph-rdb
    mountPath: /usr/share/nginx/html
    volumes:
    - name: ceph-rdb
    persistentVolumeClaim:
    claimName: ceph-rdb-claim
    EOF
    
    $ kubectl apply -f nginx-test-pod.yaml
    kubectl get pod
    NAME         READY   STATUS    RESTARTS   AGE
    nginx-pod1   1/1     Running   0          17m

    (10) 文件修改测试

    $ kubectl exec -ti nginx-pod1 -- /bin/sh -c 'echo this is from Ceph RBD!!! > /usr/share/nginx/html/index.html'

    (11) 访问测试

    $ curl  10.244.206.81
    this is from Ceph RBD!!!

    (12)pvc扩容

    pvc 只能扩容不能缩容

    $ vim storageclass-cephfs.yaml
    allowVolumeExpansion: true
    kind: StorageClass
    apiVersion: storage.k8s.io/v1
    metadata:
    name: dynamic-ceph-rdb
    provisioner: ceph.com/rbd
    parameters:
    monitors: 192.168.56.14:6789,192.168.56.15:6789,192.168.56.16:6789
    pool: kube
    adminId: admin
    adminSecretNamespace: kube-system
    adminSecretName: ceph-secret-admin
    userId: kube
    userSecretNamespace: kube-system
    userSecretName: ceph-secret
    fsType: ext4
    imageFormat: "2"
    imageFeatures: layering
    
    $ vim ceph-rdb-pvc-test.yaml
    kind: PersistentVolumeClaim
    apiVersion: v1
    metadata:
    name: ceph-rdb-claim
    spec:
    accessModes:
    - ReadWriteOnce
    storageClassName: dynamic-ceph-rdb
    resources:
    requests:
    storage: 4Gi
    
    $ kubectl apply -f ceph-rdb-pvc-test.yaml
    $ kubectl exec -it nginx-pod1  -- sh
    / # df -Th
    /dev/rbd0            ext4            2.9G      3.0M      2.9G   0% /usr/share/nginx/html

    (12) 清理

    kubectl delete -f nginx-pod.yaml
    kubectl delete -f ceph-rdb-pvc-test.yaml

    POD使用CephFS做为持久数据卷

    CephFS方式支持k8s的pv的3种访问模式ReadWriteOnce,ReadOnlyMany ,ReadWriteMany
    (1)如下操作在ceph的mon或者admin节点 【在cephnode01操作】
    CephFS需要使用两个Pool来分别存储数据和元数据

    ceph osd pool create fs_data 16 16
    ceph osd pool create fs_metadata 8 8
    ceph osd lspools

    (2)创建一个CephFS 【在cephnode01操作】

    $ ceph fs new cephfs fs_metadata fs_data
    $ ceph fs ls      # 查看cephfs
    name: cephfs, metadata pool: cephfs-metadata, data pools: [cephfs-data ]

    (3)使用社区提供的cephfs-provisioner

    $ mkdir ~/lesson/ceph/cephfs -pv && cd ~/lesson/ceph/cephfs
    $ cat >external-storage-cephfs-provisioner.yaml<<EOF
    apiVersion: v1
    kind: Namespace
    metadata:
    name: cephfs
    labels:
    name: cephfs
    ---
    apiVersion: v1
    kind: ServiceAccount
    metadata:
    name: cephfs-provisioner
    namespace: cephfs
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: Role
    metadata:
    name: cephfs-provisioner
    namespace: cephfs
    rules:
    - apiGroups: [""]
    resources: ["secrets"]
    verbs: ["create", "get", "delete"]
    - apiGroups: [""]
    resources: ["endpoints"]
    verbs: ["get", "list", "watch", "create", "update", "patch"]
    ---
    kind: ClusterRole
    apiVersion: rbac.authorization.k8s.io/v1
    metadata:
    name: cephfs-provisioner
    namespace: cephfs
    rules:
    - apiGroups: [""]
    resources: ["persistentvolumes"]
    verbs: ["get", "list", "watch", "create", "delete"]
    - apiGroups: [""]
    resources: ["persistentvolumeclaims"]
    verbs: ["get", "list", "watch", "update"]
    - apiGroups: ["storage.k8s.io"]
    resources: ["storageclasses"]
    verbs: ["get", "list", "watch"]
    - apiGroups: [""]
    resources: ["events"]
    verbs: ["create", "update", "patch"]
    - apiGroups: [""]
    resources: ["services"]
    resourceNames: ["kube-dns","coredns"]
    verbs: ["list", "get"]
    ---
    apiVersion: rbac.authorization.k8s.io/v1
    kind: RoleBinding
    metadata:
    name: cephfs-provisioner
    namespace: cephfs
    roleRef:
    apiGroup: rbac.authorization.k8s.io
    kind: Role
    name: cephfs-provisioner
    subjects:
    - kind: ServiceAccount
    name: cephfs-provisioner
    ---
    kind: ClusterRoleBinding
    apiVersion: rbac.authorization.k8s.io/v1
    metadata:
    name: cephfs-provisioner
    subjects:
    - kind: ServiceAccount
    name: cephfs-provisioner
    namespace: cephfs
    roleRef:
    kind: ClusterRole
    name: cephfs-provisioner
    apiGroup: rbac.authorization.k8s.io
    ---
    apiVersion: apps/v1
    kind: Deployment
    metadata:
    name: cephfs-provisioner
    namespace: cephfs
    spec:
    replicas: 1
    selector:
    matchLabels:
    app: cephfs-provisioner
    strategy:
    type: Recreate
    template:
    metadata:
    labels:
    app: cephfs-provisioner
    spec:
    containers:
    - name: cephfs-provisioner
    image: "quay.io/external_storage/cephfs-provisioner:latest"
    env:
    - name: PROVISIONER_NAME
    value: ceph.com/cephfs
    - name: PROVISIONER_SECRET_NAMESPACE
    value: cephfs
    command:
    - "/usr/local/bin/cephfs-provisioner"
    args:
    - "-id=cephfs-provisioner-1"
    serviceAccount: cephfs-provisioner
    EOF
    
    $ kubectl apply -f external-storage-cephfs-provisioner.yaml
    $ kubectl get pod -n cephfs       # POD Running 之后再操作

    (4)获取ceph key 【在cephnode01操作】

    $ ceph auth get-key client.admin | base64
    QVFDR05FNWZDMit0TVJBQUhMaTNrWEZhMVRScjM4UXFQcW1adXc9PQ==

    (5) 创建secret(一定要和storageclass在同一namespace)

    $ cd ~/lesson/ceph/cephfs
    $ cat > secret.yaml << EOF
    apiVersion: v1
    kind: Secret
    metadata:
    name: ceph-secret-admin
    namespace: cephfs
    type: "kubernetes.io/rbd"
    data:
    # ceph auth get-key client.admin | base64
    key: QVFDR05FNWZDMit0TVJBQUhMaTNrWEZhMVRScjM4UXFQcW1adXc9PQ==
    EOF
    $ kubectl apply -f secret.yaml

    (6) 配置 StorageClass

    $ cd ~/lesson/ceph/cephfs
    $ cat >storageclass-cephfs.yaml<<EOF
    kind: StorageClass
    apiVersion: storage.k8s.io/v1
    metadata:
    name: dynamic-cephfs
    provisioner: ceph.com/cephfs
    parameters:
    monitors: 192.168.56.14:6789,192.168.56.15:6789,192.168.56.16:6789
    adminId: admin
    adminSecretName: ceph-secret-admin
    adminSecretNamespace: "cephfs"
    claimRoot: /volumes/kubernetes
    EOF
    
    $ kubectl apply -f storageclass-cephfs.yaml
    $ kubectl get sc

    (7) 创建pvc测试

    $ cd ~/lesson/ceph/cephfs
    $ cat >cephfs-pvc-test.yaml<<EOF
    kind: PersistentVolumeClaim
    apiVersion: v1
    metadata:
    name: cephfs-claim
    spec:
    accessModes:
    - ReadWriteOnce
    storageClassName: dynamic-cephfs
    resources:
    requests:
    storage: 2Gi
    EOF
    $  kubectl get pv,pvc
    NAME                                                        CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS   CLAIM                  STORAGECLASS     REASON   AGE
    persistentvolume/pvc-ff34d690-3cca-4127-a38d-44b32b27be96   2Gi        RWO            Delete           Bound    default/cephfs-claim   dynamic-cephfs            60s
    
    NAME                                 STATUS   VOLUME                                     CAPACITY   ACCESS MODES   STORAGECLASS     AGE
    persistentvolumeclaim/cephfs-claim   Bound    pvc-ff34d690-3cca-4127-a38d-44b32b27be96   2Gi        RWO            dynamic-cephfs   60s

    (8) 创建 nginx pod 挂载测试

    $ cd ~/lesson/ceph/cephfs
    $ cat >nginx-pod.yaml<<EOF
    apiVersion: v1
    kind: Pod
    metadata:
    name: nginx-pod2
    labels:
    name: nginx-pod2
    spec:
    containers:
    - name: nginx-pod2
    image: nginx
    ports:
    - name: web
    containerPort: 80
    volumeMounts:
    - name: cephfs
    mountPath: /usr/share/nginx/html
    volumes:
    - name: cephfs
    persistentVolumeClaim:
    claimName: cephfs-claim
    EOF
    
    $ kubectl apply -f nginx-pod.yaml
    $ kubectl get pod
    NAME         READY   STATUS    RESTARTS   AGE
    nginx-pod2   1/1     Running   0          10s

    (9) 修改文件内容

    $ kubectl exec -ti nginx-pod2 -- /bin/sh -c 'echo This is from CephFS!!! > /usr/share/nginx/html/index.html'

    (10) 访问pod测试

    $ kubectl get pod -o wide
    NAME         READY   STATUS    RESTARTS   AGE   IP              NODE          NOMINATED NODE   READINESS GATES
    nginx-pod2   1/1     Running   0          81s   10.244.206.88   k8s-master1   <none>           <none>
    $ curl 10.244.206.88
    This is from CephFS!!!

    (11) 清理

    $ kubectl delete -f nginx-pod.yaml
    $ kubectl delete -f cephfs-pvc-test.yaml

    日常运维管理

    集群监控管理

    集群整体运行状态

    $ ceph -s
    cluster:
    id:     56f6429d-eff6-4b52-a8b7-54169c6a5bff
    health: HEALTH_WARN
    application not enabled on 1 pool(s)
    
    services:
    mon: 3 daemons, quorum cephnode01,cephnode02,cephnode03 (age 2h)
    mgr: cephnode03(active, since 44h), standbys: cephnode02, cephnode01
    mds: cephfs:1 {0=cephnode03=up:active} 2 up:standby
    osd: 3 osds: 3 up (since 45h), 3 in (since 5d)
    rgw: 1 daemon active (cephnode01)
    
    task status:
    scrub status:
    mds.cephnode03: idle
    
    data:
    pools:   10 pools, 248 pgs
    objects: 305 objects, 70 MiB
    usage:   3.2 GiB used, 12 GiB / 15 GiB avail
    pgs:     248 active+clean

    说明:

    id:集群ID
    health:集群运行状态,这里有一个警告,说明是有问题,意思是pg数大于pgp数,通常此数值相等。
    mon:Monitors运行状态。
    osd:OSDs运行状态。
    mgr:Managers运行状态。
    mds:Metadatas运行状态。
    pools:存储池与PGs的数量。
    objects:存储对象的数量。
    usage:存储的理论用量。
    pgs:PGs的运行状态

    $ ceph -w
    $ ceph health detail

    PG状态
    查看pg状态查看通常使用下面两个命令即可,dump可以查看更详细信息,如。

    $ ceph pg dump
    $ ceph pg stat

    Pool状态

    $ ceph osd pool stats

    OSD状态

    $ ceph osd stat
    $ ceph osd dump
    $ ceph osd tree
    $ ceph osd df

    Monitor状态和查看仲裁状态

    $ ceph mon stat
    $ ceph mon dump
    $ ceph quorum_status

    集群空间用量

    $ ceph df
    $ ceph df detail

    集群配置管理(临时和全局,服务平滑重启)

    有时候需要更改服务的配置,但不想重启服务,或者是临时修改。这时候就可以使用tell和daemon子命令来完成此需求。
    daemon子命令

    命令格式:
    # ceph daemon {daemon-type}.{id} config show
    
    命令举例:
    # ceph daemon osd.0 config show
    # ceph daemon mon.ceph-monitor-1 config set mon_allow_pool_delete false

    tell子命令格式
    使用 tell 的方式适合对整个集群进行设置,使用 * 号进行匹配,就可以对整个集群的角色进行设置。而出现节点异常无法设置时候,只会在命令行当中进行报错,不太便于查找。

    命令格式:
    # ceph tell {daemon-type}.{daemon id or *} injectargs --{name}={value} [--{name}={value}]
    命令举例:
    # ceph tell osd.0 injectargs --debug-osd 20 --debug-ms 1
    • daemon-type:为要操作的对象类型如osd、mon、mds等。
    • daemon id:该对象的名称,osd通常为0、1等,mon为ceph -s显示的名称,这里可以输入*表示全部。
    • injectargs:表示参数注入,后面必须跟一个参数,也可以跟多个

    集群进程操作

    添加OSD

    1、格式化磁盘
    ceph-volume lvm zap /dev/sd<id>
    2、进入到ceph-deploy执行目录/my-cluster,添加OSD
    # ceph-deploy osd create --data /dev/sd<id> $hostname

    删除OSD

    1、调整osd的crush weight为 0
    ceph osd crush reweight osd.<ID> 0.0
    2、将osd进程stop
    systemctl stop ceph-osd@<ID>
    3、将osd设置out
    ceph osd out <ID>
    4、立即执行删除OSD中数据
    ceph osd purge osd.<ID> --yes-i-really-mean-it
    5、卸载磁盘
    umount /var/lib/ceph/osd/ceph-?

    扩容PG

    ceph osd pool set {pool-name} pg_num 128
    ceph osd pool set {pool-name} pgp_num 128

    注:
    1、扩容大小取跟它接近的2的N次方
    2、在更改pool的PG数量时,需同时更改PGP的数量。PGP是为了管理placement而存在的专门的PG,它和PG的数量应该保持一致。如果你增加pool的pg_num,就需要同时增加pgp_num,保持它们大小一致,这样集群才能正常rebalancing。

    Pool操作

    列出存储池

    ceph osd lspools

    创建存储池

    命令格式:
    # ceph osd pool create {pool-name} {pg-num} [{pgp-num}]
    命令举例:
    # ceph osd pool create rbd  32 32

    设置存储池配额

    命令格式:
    # ceph osd pool set-quota {pool-name} [max_objects {obj-count}] [max_bytes {bytes}]
    命令举例:
    # ceph osd pool set-quota rbd max_objects 10000

    删除存储池

    ceph osd pool delete {pool-name} [{pool-name} --yes-i-really-really-mean-it]

    查看存储池统计信息

    rados df

    存储池做快照

    ceph osd pool rmsnap {pool-name} {snap-name}

    获取存储池选项值

    ceph osd pool get {pool-name} {key}

    调整存储池选项值

    ceph osd pool set {pool-name} {key} {value}
    size:设置存储池中的对象副本数,详情参见设置对象副本数。仅适用于副本存储池。
    min_size:设置 I/O 需要的最小副本数,详情参见设置对象副本数。仅适用于副本存储池。
    pg_num:计算数据分布时的有效 PG 数。只能大于当前 PG 数。
    pgp_num:计算数据分布时使用的有效 PGP 数量。小于等于存储池的 PG 数。
    hashpspool:给指定存储池设置/取消 HASHPSPOOL 标志。
    target_max_bytes:达到 max_bytes 阀值时会触发 Ceph 冲洗或驱逐对象。
    target_max_objects:达到 max_objects 阀值时会触发 Ceph 冲洗或驱逐对象。
    scrub_min_interval:在负载低时,洗刷存储池的最小间隔秒数。如果是 0 ,就按照配置文件里的 osd_scrub_min_interval 。
    scrub_max_interval:不管集群负载如何,都要洗刷存储池的最大间隔秒数。如果是 0 ,就按照配置文件里的 osd_scrub_max_interval 。
    deep_scrub_interval:“深度”洗刷存储池的间隔秒数。如果是 0 ,就按照配置文件里的 osd_deep_scrub_interval 。

    获取对象副本数

    ceph osd dump | grep 'replicated size'

    用户管理

    Ceph 把数据以对象的形式存于各存储池中。Ceph 用户必须具有访问存储池的权限才能够读写数据。另外,Ceph 用户必须具有执行权限才能够使用 Ceph 的管理命令。
    查看用户信息

    查看所有用户信息
    # ceph auth list
    获取所有用户的key与权限相关信息
    # ceph auth get client.admin
    如果只需要某个用户的key信息,可以使用pring-key子命令
    # ceph auth print-key client.admin

    添加用户

    # ceph auth add client.john mon 'allow r' osd 'allow rw pool=liverpool'
    # ceph auth get-or-create client.paul mon 'allow r' osd 'allow rw pool=liverpool'
    # ceph auth get-or-create client.george mon 'allow r' osd 'allow rw pool=liverpool' -o george.keyring
    # ceph auth get-or-create-key client.ringo mon 'allow r' osd 'allow rw pool=liverpool' -o ringo.key

    修改用户权限

    # ceph auth caps client.john mon 'allow r' osd 'allow rw pool=liverpool'
    # ceph auth caps client.paul mon 'allow rw' osd 'allow rwx pool=liverpool'
    # ceph auth caps client.brian-manager mon 'allow *' osd 'allow *'
    # ceph auth caps client.ringo mon ' ' osd ' '

    删除用户

    # ceph auth del {TYPE}.{ID}
    其中, {TYPE} 是 client,osd,mon 或 mds 的其中一种。{ID} 是用户的名字或守护进程的 ID 。

    增加和删除Monitor

    一个集群可以只有一个 monitor,推荐生产环境至少部署 3 个。 Ceph 使用 Paxos 算法的一个变种对各种 map 、以及其它对集群来说至关重要的信息达成共识。建议(但不是强制)部署奇数个 monitor 。Ceph 需要 mon 中的大多数在运行并能够互相通信,比如单个 mon,或 2 个中的 2 个,3 个中的 2 个,4 个中的 3 个等。初始部署时,建议部署 3 个 monitor。后续如果要增加,请一次增加 2 个。
    新增一个monitor

    # ceph-deploy mon create $hostname
    注意:执行ceph-deploy之前要进入之前安装时候配置的目录。/my-cluster

    删除Monitor

    # ceph-deploy mon destroy $hostname
    注意: 确保你删除某个 Mon 后,其余 Mon 仍能达成一致。如果不可能,删除它之前可能需要先增加一个。

    Ceph常见问题

    nearfull osd(s) or pool(s) nearfull

    此时说明部分osd的存储已经超过阈值,mon会监控ceph集群中OSD空间使用情况。如果要消除WARN,可以修改这两个参数,提高阈值,但是通过实践发现并不能解决问题,可以通过观察osd的数据分布情况来分析原因。

    "mon_osd_full_ratio": "0.95",
    "mon_osd_nearfull_ratio": "0.85"

    (1)自动处理

    ceph osd reweight-by-utilization
    ceph osd reweight-by-pg 105 cephfs_data(pool_name)

    (2)手动处理:

    ceph osd reweight osd.2 0.8

    (3)利用插件自动处理

    ceph mgr module ls
    ceph mgr module enable balancer
    ceph balancer on
    ceph balancer mode crush-compat
    ceph config-key set "mgr/balancer/max_misplaced": "0.01"

    PG 故障状态

    PG状态概述
    一个PG在它的生命周期的不同时刻可能会处于以下几种状态中:

    Creating(创建中)
    在创建POOL时,需要指定PG的数量,此时PG的状态便处于creating,意思是Ceph正在创建PG。

    Peering(互联中)
    peering的作用主要是在PG及其副本所在的OSD之间建立互联,并使得OSD之间就这些PG中的object及其元数据达成一致。

    Active(活跃的)
    处于该状态意味着数据已经完好的保存到了主PG及副本PG中,并且Ceph已经完成了peering工作。

    Clean(整洁的)
    当某个PG处于clean状态时,则说明对应的主OSD及副本OSD已经成功互联,并且没有偏离的PG。也意味着Ceph已经将该PG中的对象按照规定的副本数进行了复制操作。

    Degraded(降级的)
    当某个PG的副本数未达到规定个数时,该PG便处于degraded状态,例如:

    在客户端向主OSD写入object的过程,object的副本是由主OSD负责向副本OSD写入的,直到副本OSD在创建object副本完成,并向主OSD发出完成信息前,该PG的状态都会一直处于degraded状态。又或者是某个OSD的状态变成了down,那么该OSD上的所有PG都会被标记为degraded。
    当Ceph因为某些原因无法找到某个PG内的一个或多个object时,该PG也会被标记为degraded状态。此时客户端不能读写找不到的对象,但是仍然能访问位于该PG内的其他object。

    Recovering(恢复中)
    当某个OSD因为某些原因down了,该OSD内PG的object会落后于它所对应的PG副本。而在该OSD重新up之后,该OSD中的内容必须更新到当前状态,处于此过程中的PG状态便是recovering。

    Backfilling(回填)
    当有新的OSD加入集群时,CRUSH会把现有集群内的部分PG分配给它。这些被重新分配到新OSD的PG状态便处于backfilling。

    Remapped(重映射)
    当负责维护某个PG的acting set变更时,PG需要从原来的acting set迁移至新的acting set。这个过程需要一段时间,所以在此期间,相关PG的状态便会标记为remapped。

    Stale(陈旧的)
    默认情况下,OSD守护进程每半秒钟便会向Monitor报告其PG等相关状态,如果某个PG的主OSD所在acting set没能向Monitor发送报告,或者其他的Monitor已经报告该OSD为down时,该PG便会被标记为stale。

    OSD状态

    单个OSD有两组状态需要关注,其中一组使用in/out标记该OSD是否在集群内,另一组使用up/down标记该OSD是否处于运行中状态。两组状态之间并不互斥,换句话说,当一个OSD处于“in”状态时,它仍然可以处于up或down的状态。

    OSD状态为in且up
    这是一个OSD正常的状态,说明该OSD处于集群内,并且运行正常。

    OSD状态为in且down
    此时该OSD尚处于集群中,但是守护进程状态已经不正常,默认在300秒后会被踢出集群,状态进而变为out且down,之后处于该OSD上的PG会迁移至其它OSD。

    OSD状态为out且up
    这种状态一般会出现在新增OSD时,意味着该OSD守护进程正常,但是尚未加入集群。

    OSD状态为out且down
    在该状态下的OSD不在集群内,并且守护进程运行不正常,CRUSH不会再分配PG到该OSD上。

  • 内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
    标签: