Proxmox: No enciende ninguna máquina virtual

PROXMOX: Las VMs no inician

Cae la noche (¿…y amanece en París?  ¡Ya quisiera!) y me alisto para marmotear viendo alguna película; de pronto se enciende la pantalla del móvil.  Una cascada de mensajes ingresan al «guasape» del tío Tezé.   Hmmm…. Parece alguna emergencia – pensé.  Efectivamente era un pedido de socorro, ¡Vaya novedad!.  Esta vez se trataba de un caso de virtualización bajo la plataforma Proxmox. El reporte inicial reza como sigue: «Al reiniciar el servidor Proxmox, NINGUNA MÁQUINA VIRTUAL ENCIENDE,  por favor necesitamos asistencia técnica urgente.» En este punto es menester echarle un vistazo al producto involucrado antes de extendernos en el tema técnico.   El PVE es el Entorno de Virtualización Proxmox; un revolucionario sistema basado en Linux Debian para albergar máquinas virtuales que se administran a través de una sencilla interfaz web.   La lógica del manejo de máquinas virtuales es muy similar al virtualBox y VMware.  La gran ventaja de la consolidación de servidores a través de entornos de virtualización es que se reducen los gastos en electricidad, se aprovecha el uso del hardware ocupando menor espacio, y se facilita la migración de máquinas virtuales de manera independiente al hardware (ya no se tiene que estar lidiando con reinstalaciones de sistema operativo ni búsqueda de drivers desconocidos). Ahora sí, volvamos a lo nuestro.  Accedemos por vía remota con TeamViewer y encontramos que la interfaz web del proxmox carga muy bien, y comprobamos que  el intento de inicio de cualquier VM falla inmediatamente con el siguiente mensaje de error en la ventana de log: (Haremos la prueba con la VM 104)

 Historial de tareas:

ERROR: start failed: command ‘/usr/bin/kvm -id 104 -chardev ‘socket,id=qmp,path=/var/run/qemu-server/104.qmp,server,nowait’ -mon ‘chardev=qmp,mode=control’ -pidfile /var/run/qemu-server/104.pid -daemonize -smbios ‘type=1,uuid=d657fd94-1e18-450a-b236-0211b74819bb’ -name SERV-DOMINIO -smp ‘2,sockets=1,cores=2,maxcpus=2’ -nodefaults -boot ‘menu=on,strict=on,reboot-timeout=1000,splash=/usr/share/qemu-server/bootsplash.jpg’ -vga std -vnc unix:/var/run/qemu-server/104.vnc,x509,password -no-hpet -cpu ‘kvm64,hv_spinlocks= 0x1fff,hv_vapic,hv_time,hv_reset,hv_vpindex,hv_runtime, hv_relaxed,+lahf_lm,+sep, +kvm_pv_unhalt, +kvm_pv_eoi,enforce’ -m 4096 -k es -device ‘pci-bridge,id=pci.2,chassis_nr=2,bus=pci.0,addr=0x1f’ -device ‘pci-bridge,id=pci.1,chassis_nr=1,bus=pci.0,addr=0x1e’ -device ‘piix3-usb-uhci,id=uhci,bus=pci.0,addr=0x1.0x2’ -device ‘usb-tablet,id=tablet,bus=uhci.0,port=1’ -device ‘virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x3’ -iscsi ‘initiator-name=iqn.1993-08.org.debian:01:49b1ea39df2’ -drive ‘file=/dev/pve/vm-104-disk-1,if=none,id=drive-ide0,format=raw,cache=none,aio=native,detect-zeroes=on’ -device ‘ide-hd,bus=ide.0,unit=0,drive=drive-ide0,id=ide0,bootindex=100’ -drive ‘if=none,id=drive-ide2,media=cdrom,aio=threads’ -device ‘ide-cd,bus=ide.1,unit=0,drive=drive-ide2,id=ide2,bootindex=200’ -netdev ‘type=tap,id=net0,ifname=tap104i0,script= /var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown’ -device ‘e1000,mac=B6:7B:25:EF:41:F3,netdev=net0,bus=pci.0,addr=0x12,id=net0, bootindex=300’ -rtc ‘driftfix=slew,base=localtime’ -global ‘kvm-pit.lost_tick_policy=discard» failed: exit code 1

Como se puede observar en el log, no existe mayor detalle sobre el motivo del problema. Escuetamente nos dice «failed: exit code 1«. El servidor físico estuvo apagado por un problema de mantenimiento de hardware que probablemente haya ocasionado un apagado abrupto (falla de fluido eléctrico).

PuTTY, el amigo de siempre.

Accedemos por línea de comandos con PuTTY:

Debian GNU/Linux comes with ABSOLUTELY NO WARRANTY, to the extent
permitted by applicable law.
Last login: Tue Feb 6 18:23:32 2018 from 192.168.1.2

Verificamos la versión del Proxmox Virtual Environment:

root@pve:~# pveversion -v
proxmox-ve: 4.3-66 (running kernel: 4.4.19-1-pve)
pve-manager: 4.3-1 (running version: 4.3-1/e7cdc165)
pve-kernel-4.4.19-1-pve: 4.4.19-66
lvm2: 2.02.116-pve3
corosync-pve: 2.4.0-1
libqb0: 1.0-1
pve-cluster: 4.0-46
qemu-server: 4.0-88
pve-firmware: 1.1-9
libpve-common-perl: 4.0-73
libpve-access-control: 4.0-19
libpve-storage-perl: 4.0-61
pve-libspice-server1: 0.12.8-1
vncterm: 1.2-1
pve-qemu-kvm: 2.6.1-6
pve-container: 1.0-75
pve-firewall: 2.0-29
pve-ha-manager: 1.0-35
ksm-control-daemon: 1.2-1
glusterfs-client: 3.5.2-2+deb8u2
lxc-pve: 2.0.4-1
lxcfs: 2.0.3-pve1
criu: 1.6.0-1
novnc-pve: 0.5-8
zfsutils: 0.6.5.7-pve10~bpo80

Hacemos la prueba de encender manualmente la VM 104:

root@pve:~# qm start 104
kvm: -drive file=/dev/pve/vm-104-disk-1,if=none,id=drive-ide0,format=raw,cache=none,aio=native,detect-zeroes=on: Could not open ‘/dev/pve/vm-104-disk-1’: No such file or directory
start failed: command ‘/usr/bin/kvm -id 104 -chardev ‘socket,id=qmp,path=/var/run/qemu-server/104.qmp,server,nowait’ -mon ‘chardev=qmp,mode=control’ -pidfile /var/run/qemu-server/104.pid -daemonize -smbios ‘type=1,uuid=d657fd94-1e18-450a-b236-0211b74819bb’ -name SERV-DOMINIO -smp ‘2,sockets=1,cores=2,maxcpus=2’ -nodefaults -boot ‘menu=on,strict=on,reboot-timeout=1000,splash=/usr/share/qemu-server/bootsplash.jpg’ -vga std -vnc unix:/var/run/qemu-server/104.vnc,x509,password -no-hpet -cpu ‘kvm64,hv_spinlocks=0x1fff,hv_vapic,hv_time,hv_reset,hv_vpindex,hv_runtime,hv_relaxed,+lahf_lm,+sep,+kvm_pv_unhalt,+kvm_pv_eoi,enforce’ -m 4096 -k es -device ‘pci-bridge,id=pci.2,chassis_nr=2,bus=pci.0,addr=0x1f’ -device ‘pci-bridge,id=pci.1,chassis_nr=1,bus=pci.0,addr=0x1e’ -device ‘piix3-usb-uhci,id=uhci,bus=pci.0,addr=0x1.0x2’ -device ‘usb-tablet,id=tablet,bus=uhci.0,port=1’ -device ‘virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x3’ -iscsi ‘initiator-name=iqn.1993-08.org.debian:01:49b1ea39df2’ -drive ‘file=/dev/pve/vm-104-disk-1,if=none,id=drive-ide0,format=raw,cache=none,aio=native,detect-zeroes=on’ -device ‘ide-hd,bus=ide.0,unit=0,drive=drive-ide0,id=ide0,bootindex=100’ -drive ‘if=none,id=drive-ide2,media=cdrom,aio=threads’ -device ‘ide-cd,bus=ide.1,unit=0,drive=drive-ide2,id=ide2,bootindex=200’ -netdev ‘type=tap,id=net0,ifname=tap104i0,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown’ -device ‘e1000,mac=B6:7B:25:EF:41:F3,netdev=net0,bus=pci.0,addr=0x12,id=net0,bootindex=300’ -rtc ‘driftfix=slew,base=localtime’ -global ‘kvm-pit.lost_tick_policy=discard» failed: exit code 1

En la consola de comandos obtenemos mayor información.  En las primeras líneas del mensaje de error vemos una pista más clara:
Could not open ‘/dev/pve/vm-104-disk-1’: No such file or directory

Esto significa que el volumen lógico correspondiente al disco virtual para la VM 104 NO ESTÁ DISPONIBLE o NO ES ACCESIBLE.

Verificamos que exista espacio libre en disco:

root@pve:~# df -h
Filesystem Size Used Avail Use% Mounted on
udev 10M 0 10M 0% /dev
tmpfs 3.2G 9.0M 3.2G 1% /run
/dev/dm-0 95G 81G 8.8G 91% /
tmpfs 7.9G 49M 7.8G 1% /dev/shm
tmpfs 5.0M 0 5.0M 0% /run/lock
tmpfs 7.9G 0 7.9G 0% /sys/fs/cgroup
/dev/fuse 30M 24K 30M 1% /etc/pve

Listamos los dispositivos de bloques: (unidades, particiones y sus capacidades)

root@pve:~# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:16 0 1.4T 0 disk
├─sda1 8:17 0 1M 0 part
├─sda2 8:18 0 256M 0 part
└─sda3 8:19 0 1.4T 0 part
├─pve-root 251:0 0 96G 0 lvm /
├─pve-swap 251:1 0 7G 0 lvm [SWAP]
├─pve-data_tmeta 251:2 0 80M 0 lvm
│ └─pve-data-tpool 251:4 0 1.3T 0 lvm
│ ├─pve-data 251:5 0 1.3T 0 lvm
│ ├─pve-vm–100–disk–1 251:6 0 80G 0 lvm
│ ├─pve-vm–101–disk–1 251:7 0 100G 0 lvm
│ ├─pve-vm–102–disk–1 251:8 0 100G 0 lvm
│ ├─pve-vm–103–disk–1 251:9 0 200G 0 lvm
│ ├─pve-vm–104–disk–1 251:10 0 200G 0 lvm
│ └─pve-vm–105–disk–1 251:30 0 100G 0 lvm
└─pve-data_tdata 251:3 0 1.3T 0 lvm
└─pve-data-tpool 251:4 0 1.3T 0 lvm
├─pve-data 251:5 0 1.3T 0 lvm
├─pve-vm–100–disk–1 251:6 0 80G 0 lvm
├─pve-vm–101–disk–1 251:7 0 100G 0 lvm
├─pve-vm–102–disk–1 251:8 0 100G 0 lvm
├─pve-vm–103–disk–1 251:9 0 200G 0 lvm
├─pve-vm–104–disk–1 251:10 0 200G 0 lvm
└─pve-vm–105–disk–1 251:30 0 100G 0 lvm

root@pve:~#

Error en los volúmenes lógicos

Intentamos ACTIVAR todos los volúmenes lógicos:

root@pve:~# lvchange -a y pve/data
Check of pool pve/data failed (status:1). Manual repair required!

Se obtiene un ERROR, y además se recomienda la reparación manual del pool de LVM en pve/data. Revisamos si el servicio LVM2 se encuentra activado en el sistema:

root@pve:~# systemctl status –full lvm2-activation.service
? lvm2-activation.service – Activation of LVM2 logical volumes
Loaded: loaded (/lib/systemd/system/lvm2-activation.service; enabled)
Active: failed (Result: exit-code) since Tue 2018-02-06 19:10:09 PET; 43min ago
Docs: man:lvm(8)
man:vgchange(8)
Process: 695 ExecStart=/sbin/lvm vgchange -aay –sysinit (code=exited, status=5)
Main PID: 695 (code=exited, status=5)

Feb 06 19:10:06 pve lvm[695]: Check of pool pve/data failed (status:1). Manual repair required!
Feb 06 19:10:09 pve lvm[695]: 2 logical volume(s) in volume group «pve» now active
Feb 06 19:10:09 pve systemd[1]: lvm2-activation.service: main process exited, code=exited, status=5/NOTINSSTALLED
Feb 06 19:10:09 pve systemd[1]: Failed to start Activation of LVM2 logical volumes.
Feb 06 19:10:09 pve systemd[1]: Unit lvm2-activation.service entered failed state.

Se confirma el error de activación de volúmenes lógicos LVM2.

Revisamos el log del sistema, en busca de mas pistas (quizás haya fallas físicas en disco, errores de inodes, etc)

root@pve:~# tail -f /var/log/syslog
Feb 6 19:32:06 pve pve-ha-crm[1688]: ipcc_send_rec failed: Connection refused
Feb 6 19:32:06 pve pve-ha-crm[1688]: ipcc_send_rec failed: Connection refused
Feb 6 19:32:07 pve pve-ha-lrm[1699]: ipcc_send_rec failed: Transport endpoint is not connected
Feb 6 19:32:07 pve pve-ha-lrm[1699]: ipcc_send_rec failed: Connection refused
Feb 6 19:32:07 pve pve-ha-lrm[1699]: ipcc_send_rec failed: Connection refused
Feb 6 19:32:08 pve pmxcfs[1641]: [main] notice: exit proxmox configuration filesystem (0)
Feb 6 19:32:08 pve systemd[1]: Starting The Proxmox VE cluster filesystem…
Feb 6 19:32:09 pve systemd[1]: Started The Proxmox VE cluster filesystem.
Feb 6 19:32:09 pve systemd[1]: Started Corosync Cluster Engine.
Feb 6 19:32:36 pve pveproxy[1694]: ipcc_send_rec failed: Transport endpoint is not connected
Feb 6 19:40:17 pve smartd[1482]: Device: /dev/sda [SAT], SMART Prefailure Attribute: 1 Raw_Read_Error_Rate changed from 102 to 101
Feb 6 19:40:17 pve smartd[1482]: Device: /dev/sda [SAT], SMART Usage Attribute: 195 Hardware_ECC_Recovered changed from 23 to 27
Feb 6 19:40:39 pve pvedaemon[1683]: ipcc_send_rec failed: Transport endpoint is not connected
Feb 6 19:40:39 pve pvedaemon[1683]: <root@pam> successful auth for user ‘root@pam’
Feb 6 19:44:50 pve systemd-timesyncd[1013]: interval/delta/delay/jitter/drift 2048s/+0.013s/0.151s/0.006s/+3ppm

root@pve:~#

Visualizamos las propiedades de los volúmenes lógicos LVM con el comando «lvs» (también puede usarse «lvdisplay» y/o «pvscan»)

root@pve:~# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
data pve twi—tz– 1.25t
root pve -wi-ao—- 96.00g
swap pve -wi-ao—- 8.00g
vm-100-disk-1 pve Vwi—tz– 80.00g data
vm-101-disk-1 pve Vwi—tz– 100.00g data
vm-102-disk-1 pve Vwi—tz– 100.00g data
vm-103-disk-1 pve Vwi—tz– 200.00g data
vm-104-disk-1 pve Vwi—tz– 200.00g data
vm-105-disk-1 pve Vwi—tz– 100.00g data

Reparando los volúmenes lógicos

Procedemos a reparar el fallo, utilizando el comando «lvconvert –repair … » que reúne los procedimientos «thin_repair + swapping metadata» en un solo paso.  La explicación técnica de la anatomía de los volúmenes lógicos amerita otro post.

root@pve:~# lvconvert –repair pve/data
WARNING: If everything works, remove «pve/data_meta0».
WARNING: Use pvmove command to move «pve/data_tmeta» on the best fitting PV.

root@pve:~#

La salida del comando nos indica que si el procedimiento resulta correcto, debemos eliminar el volumen temporal «pve/data_meta0».

Intentamos la activación de los volúmenes lógicos:

root@pve:~# lvchange -a y pve/data

Vemos que ya no sale el error de activación.

root@pve:~# lvs

LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
data pve twi-aotz– 1.25t 8.82 4.95
data_meta0 pve -wi——- 80.00m  <— Se creó un LV temporal
root pve -wi-ao—- 96.00g
swap pve -wi-ao—- 8.00g
vm-100-disk-1 pve Vwi—tz– 80.00g data
vm-101-disk-1 pve Vwi—tz– 100.00g data
vm-102-disk-1 pve Vwi—tz– 100.00g data
vm-103-disk-1 pve Vwi—tz– 200.00g data
vm-104-disk-1 pve Vwi—tz– 200.00g data
vm-105-disk-1 pve Vwi—tz– 100.00g data

Visualizamos los volúmenes lógicos (para ver que siguen ahí… :x)

root@pve:~# lvdisplay
— Logical volume —
LV Path /dev/pve/swap
LV Name swap
VG Name pve
LV UUID MuByus-d6fX-mqs2-fLGc-cOHb-8hTs-jSRy37
LV Write Access read/write
LV Creation host, time proxmox, 2016-11-26 11:41:56 -0500
LV Status available
# open 2
LV Size 8.00 GiB
Current LE 2048
Segments 1
Allocation inherit
Read ahead sectors auto
– currently set to 256
Block device 251:1

— Logical volume —
LV Path /dev/pve/root
LV Name root
VG Name pve
LV UUID ERTSv1-TWe7-MjTT-2fe9-H9OJ-v9Mp-fEd5G0
LV Write Access read/write
LV Creation host, time proxmox, 2016-11-26 11:41:56 -0500
LV Status available
# open 1
LV Size 96.00 GiB
Current LE 24576
Segments 1
Allocation inherit
Read ahead sectors auto
– currently set to 256
Block device 251:0

— Logical volume —
LV Name data
VG Name pve
LV UUID Sb8V31-BY2s-kOqR-bPm0-WPcU-ldKZ-ApXSUh
LV Write Access read/write
LV Creation host, time proxmox, 2016-11-26 11:41:57 -0500
LV Pool metadata data_tmeta
LV Pool data data_tdata
LV Status available
# open 1
LV Size 1.25 TiB
Allocated pool data 8.82%
Allocated metadata 4.95%
Current LE 326948
Segments 1
Allocation inherit
Read ahead sectors auto
– currently set to 256
Block device 251:4

— Logical volume —
LV Path /dev/pve/vm-102-disk-1
LV Name vm-102-disk-1
VG Name pve
LV UUID KHw1n2-xchZ-klDS-BbQ3-01wU-X0HP-V4CGLU
LV Write Access read/write
LV Creation host, time pve, 2016-12-22 15:50:39 -0500
LV Pool name data
LV Status NOT available
LV Size 100.00 GiB
Current LE 25600
Segments 1
Allocation inherit
Read ahead sectors auto

— Logical volume —
LV Path /dev/pve/vm-101-disk-1
LV Name vm-101-disk-1
VG Name pve
LV UUID nQJtBI-dyEi-WbpQ-3rd0-jT0d-JV4r-9cJ03y
LV Write Access read/write
LV Creation host, time pve, 2016-12-30 12:51:37 -0500
LV Pool name data
LV Status NOT available
LV Size 100.00 GiB
Current LE 25600
Segments 1
Allocation inherit
Read ahead sectors auto

— Logical volume —
LV Path /dev/pve/vm-103-disk-1
LV Name vm-103-disk-1
VG Name pve
LV UUID Dma3Pd-By4Q-jKhe-oOi4-oPM6-ZgQB-E2lfRe
LV Write Access read/write
LV Creation host, time pve, 2017-03-02 14:46:51 -0500
LV Pool name data
LV Status NOT available
LV Size 200.00 GiB
Current LE 51200
Segments 1
Allocation inherit
Read ahead sectors auto

— Logical volume —
LV Path /dev/pve/vm-104-disk-1
LV Name vm-104-disk-1
VG Name pve
LV UUID PRrI0k-A2c7-SIWy-EaOu-Qqdp-gFkJ-hE7lIo
LV Write Access read/write
LV Creation host, time pve, 2017-06-15 12:25:34 -0500
LV Pool name data
LV Status NOT available
LV Size 200.00 GiB
Current LE 51200
Segments 1
Allocation inherit
Read ahead sectors auto

— Logical volume —
LV Path /dev/pve/vm-105-disk-1
LV Name vm-105-disk-1
VG Name pve
LV UUID Aq9EnZ-xW6D-GAn6-OWRW-q0wO-jcXa-GWMrVK
LV Write Access read/write
LV Creation host, time pve, 2017-12-16 13:37:56 -0500
LV Pool name data
LV Status NOT available
LV Size 100.00 GiB
Current LE 25600
Segments 1
Allocation inherit
Read ahead sectors auto

— Logical volume —
LV Path /dev/pve/vm-100-disk-1
LV Name vm-100-disk-1
VG Name pve
LV UUID XtnMqT-5iRr-KLX2-L0QQ-dAYO-8kpr-Wu21aB
LV Write Access read/write
LV Creation host, time pve, 2017-12-16 14:26:02 -0500
LV Pool name data
LV Status NOT available
LV Size 80.00 GiB
Current LE 20480
Segments 1
Allocation inherit
Read ahead sectors auto

— Logical volume —
LV Path /dev/pve/data_meta0
LV Name data_meta0
VG Name pve
LV UUID oT791M-qikF-wmr7-oVPD-rEow-9tQz-ayrWBb
LV Write Access read/write
LV Creation host, time proxmox, 2016-11-26 11:41:57 -0500
LV Status NOT available
LV Size 80.00 MiB
Current LE 20
Segments 1
Allocation inherit
Read ahead sectors auto

Reiniciamos el sistema para realizar una comprobación previa de funcionamiento:

root@pve:~# reboot

Operaciones finales

Luego del reinicio del proxmox, verificamos el estado de activación de los volúmenes lógicos:

root@pve:~# lvscan
ACTIVE ‘/dev/pve/swap’ [8.00 GiB] inherit
ACTIVE ‘/dev/pve/root’ [96.00 GiB] inherit
ACTIVE ‘/dev/pve/data’ [1.25 TiB] inherit
ACTIVE ‘/dev/pve/vm-102-disk-1’ [100.00 GiB] inherit
ACTIVE ‘/dev/pve/vm-101-disk-1’ [100.00 GiB] inherit
ACTIVE ‘/dev/pve/vm-103-disk-1’ [200.00 GiB] inherit
ACTIVE ‘/dev/pve/vm-104-disk-1’ [200.00 GiB] inherit
ACTIVE ‘/dev/pve/vm-105-disk-1’ [100.00 GiB] inherit
ACTIVE ‘/dev/pve/vm-100-disk-1’ [80.00 GiB] inherit
ACTIVE ‘/dev/pve/data_meta0’ [80.00 MiB] inherit

Probamos el inicio de las VMs desde la interfaz web de Proxmox y verificamos que funciona perfectamente, sin emitir mensajes de error.

Procedemos a eliminar el volumen lógico temporal que fue creado por el proceso de reparación:

root@pve:~# lvremove /dev/pve/data_meta0
Do you really want to remove and DISCARD active logical volume data_meta0? [y/n] : y
Logical volume «data_meta0» successfully removed

Hacemos una nueva revisión y ya no aparece el volumen temporal:

root@pve:~# lvscan
ACTIVE ‘/dev/pve/swap’ [8.00 GiB] inherit
ACTIVE ‘/dev/pve/root’ [96.00 GiB] inherit
ACTIVE ‘/dev/pve/data’ [1.25 TiB] inherit
ACTIVE ‘/dev/pve/vm-102-disk-1’ [100.00 GiB] inherit
ACTIVE ‘/dev/pve/vm-101-disk-1’ [100.00 GiB] inherit
ACTIVE ‘/dev/pve/vm-103-disk-1’ [200.00 GiB] inherit
ACTIVE ‘/dev/pve/vm-104-disk-1’ [200.00 GiB] inherit
ACTIVE ‘/dev/pve/vm-105-disk-1’ [100.00 GiB] inherit
ACTIVE ‘/dev/pve/vm-100-disk-1’ [80.00 GiB] inherit

Finalmente es una práctica recomendable ejecutar un último reboot para comprobar que el sistema se inicia correctamente:

root@pve:~# reboot

Todo ha vuelto a funcionar a la normalidad, el cliente recuperó su tranquilidad, y se le jaló la oreja sonoramente por no disponer de backups actualizados.  Luego de extender la respectiva factura, apago la luz y a dormir!. 

PD:  Tezé te recomienda leer: Cómo cambiar la dirección IP en un servidor Proxmox.

Redactado por Tezé, 07/febrero/2018

1 comentario en “Proxmox: No enciende ninguna máquina virtual”

  1. Cordial saludo

    He llegado a tu post en busca de solución para un error similar, para este caso solo sucede en una VM (Pandora FMS – Centos 7), siendo que soy un novato en la administración de entornos virtuales y linux. Me ha resultado una guía completa y fácil de entender, Agradezco la modestia que tomas en documentar tus casos, los empíricos somo habidos consumidores de contenido de calidad.

    Responder

Deja un comentario