@media screen and (min-width: 580px) { .flotantewhatsapp{ display:none; } }

Compartir por WhatsApp

Inicio - Linux - PROXMOX: Sustituir disco en almacenamiento CephFS
proxmox-sustituir-disco-en-almacenamiento-cephfs-1

PROXMOX: Sustituir disco en almacenamiento CephFS

PROXMOX: Sustituir disco en almacenamiento CephFS

Hoy os voy a explicar como cambiar un disco duro estropeado en una hiperconvergencia con almacenamiento CephFS sobre Proxmox.

Mi Lab ha sufrido una baja, encima de las medianamente cara. Un disco WD Red NAS de 3TB ha tenido a bien «morirse» sin decir adiós ;P

La verdad que tengo tres nodos, y las máquinas virtuales no han caído, y nada ha pasado salvo esta bonita pantalla con colores rojos y Zabbix pitando ante el problema:

proxmox-sustituir-disco-en-almacenamiento-cephfs-1

Podéis revisar el problema chequeando desde uno de los hosts de la siguiente forma:

proxmox-sustituir-disco-en-almacenamiento-cephfs-2

Veremos tanto gráficamente, como vía comando, que tenemos un OSD caído:

proxmox-sustituir-disco-en-almacenamiento-cephfs-3

proxmox-sustituir-disco-en-almacenamiento-cephfs-4

Aunque yo sé que no está trabajando, lo podemos validar, intentando levantarlo:

root@pve1:~# systemctl start ceph-osd@1
root@pve1:~# systemctl status ceph-osd@1

proxmox-sustituir-disco-en-almacenamiento-cephfs-5

proxmox-sustituir-disco-en-almacenamiento-cephfs-6

Así que me pongo manos a la obra para sustituirlo, lo primero liberar el nodo:

proxmox-sustituir-disco-en-almacenamiento-cephfs-7

Realizar las validaciones, de que a nivel de sistema operativo tenemos todo lo que necesitamos, recogiendo datos y haciendo chequeos del disco averiado:

fdisk -l

proxmox-sustituir-disco-en-almacenamiento-cephfs-8
smartctl -H /dev/sde

proxmox-sustituir-disco-en-almacenamiento-cephfs-9

Vamos desmontando el disco de la siguiente forma:

root@pve1:~# ceph osd out osd.1
osd.1 is already out.

root@pve1:~# systemctl stop ceph-osd@1

root@pve1:~# ceph osd crush remove osd.1
removed item id 1 name 'osd.1' from crush map

root@pve1:~# ceph auth del osd.1
updated

root@pve1:~# ceph osd rm osd.1
removed osd.1

Desmontamos el OSD:

root@pve1:~# umount /var/lib/ceph/osd/ceph-1

Ponemos el cluster para que no se rellenen los datos

root@pve1:~# ceph osd set noout
noout is set

Cambiamos el disco averiado, apagando el host y colocando el sustituto:

root@pve1:~# shutdown -h now

Modificamos nuevamente el cluster:

root@pve1:~# ceph osd unset noout
noout is unset

Creamos el OSD nuevamente:

proxmox-sustituir-disco-en-almacenamiento-cephfs-10

Pulsamos Crear:

proxmox-sustituir-disco-en-almacenamiento-cephfs-11

Y validamos que su estado el idóneo:

proxmox-sustituir-disco-en-almacenamiento-cephfs-12

proxmox-sustituir-disco-en-almacenamiento-cephfs-13

Y para terminar, aunque se irá reconstruyendo todos los datos, podemos forzar la reparación:

root@pve2:~# ceph pg ls

Habrá que repetir este comando en cada bloque:

root@pve2:~# ceph pg repair 2.0
instructing pg 2.0 on osd.4 to repair

En unas horas, todo estará en verde…

¿Te ha gustado la entrada SÍGUENOS EN TWITTER?

Acerca de Raul Unzue Pulido

Administrador de sistemas virtuales e infraestructuras IT, linuxero y entusiasta de la tecnología.

Compruebe también

linux-vaciar-ficheros

Linux: Vaciar fichero

Linux: Vaciar fichero Cuando administras sistemas Linux, puede pasar que tengas que lidiar con ficheros …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

trece − cinco =

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies
Blog Maquinas Virtuales - El Blog de Negu