Verificación del cluster Ceph

Una vez que ingresamos al client se sugiere pasar a root sudo su - para la ejecución de todos los comandos, ya que la mayoría requieren de los accesos de root.

Consultamos el estado del cluster:

# ceph status

   health HEALTH_OK
   monmap e3: 1 mons at {1=192.168.251.100:6790/0}, election epoch 1, quorum 0 1
   osdmap e185: 2 osds: 2 up, 2 in
    pgmap v789: 96 pgs: 96 active+clean; 9199 bytes data, 2070 MB used, 17907 MB / 19978 MB avail
   mdsmap e59: 1/1/1 up {0=0=up:active}

Vemos que esta OK, que tiene 1 MONitor y 2 OSDs activos. También el MDS está activo.

Podemos obtener información por cada componente:

Ceph Object Storage Device (OSD)

Muestra la estructura del cluster mediante un mapeo de todos sus discos (storage).

# ceph osd tree

# id weight type name up/down reweight
-1 2 root default
-4 2 datacenter dc
-5 2  room laroom
-6 2    row larow
-3 2      rack lerack
-2 2           host ceph
0 1                osd.0 up 1
1 1                osd.1 up 1

Vemos que en el host ceph tenemos dos OSD corriendo (osd.0 y osd.1)

Ceph monitors (MONs)

Consultamos los monitors tienen armado el cluster:

# ceph mon_status
{ "name": "1",
  "rank": 0,
  "state": "leader",
  "election_epoch": 1,
  "quorum": [
        0],
  "outside_quorum": [],
  "monmap": { "epoch": 3,
      "fsid": "1c13637d-6c6f-47e3-92ca-3687f9cf9b52",
      "modified": "2013-03-15 16:47:55.482545",
      "created": "2013-03-11 10:33:18.021677",
      "mons": [
            { "rank": 0,
              "name": "1",
              "addr": "192.168.251.100:6790\/0"}]}}

Metadata Server (MDS)

Consultamos el estado del servidor MDS:

# ceph mds stat
e59: 1/1/1 up {0=0=up:active}