Verificación del cluster Ceph
Una vez que ingresamos al client se sugiere pasar a root sudo su -
para la ejecución de todos los comandos, ya que la mayoría requieren de los accesos de root.
Consultamos el estado del cluster:
# ceph status
health HEALTH_OK
monmap e3: 1 mons at {1=192.168.251.100:6790/0}, election epoch 1, quorum 0 1
osdmap e185: 2 osds: 2 up, 2 in
pgmap v789: 96 pgs: 96 active+clean; 9199 bytes data, 2070 MB used, 17907 MB / 19978 MB avail
mdsmap e59: 1/1/1 up {0=0=up:active}
Vemos que esta OK, que tiene 1 MONitor y 2 OSDs activos. También el MDS está activo.
Podemos obtener información por cada componente:
Ceph Object Storage Device (OSD)
Muestra la estructura del cluster mediante un mapeo de todos sus discos (storage).
# ceph osd tree
# id weight type name up/down reweight
-1 2 root default
-4 2 datacenter dc
-5 2 room laroom
-6 2 row larow
-3 2 rack lerack
-2 2 host ceph
0 1 osd.0 up 1
1 1 osd.1 up 1
Vemos que en el host ceph tenemos dos OSD corriendo (osd.0 y osd.1)
Ceph monitors (MONs)
Consultamos los monitors tienen armado el cluster:
# ceph mon_status
{ "name": "1",
"rank": 0,
"state": "leader",
"election_epoch": 1,
"quorum": [
0],
"outside_quorum": [],
"monmap": { "epoch": 3,
"fsid": "1c13637d-6c6f-47e3-92ca-3687f9cf9b52",
"modified": "2013-03-15 16:47:55.482545",
"created": "2013-03-11 10:33:18.021677",
"mons": [
{ "rank": 0,
"name": "1",
"addr": "192.168.251.100:6790\/0"}]}}
Metadata Server (MDS)
Consultamos el estado del servidor MDS:
# ceph mds stat
e59: 1/1/1 up {0=0=up:active}