zpool status
zfs list
zfs list -t snapshot
диски находятся в формате ZFS томов (ZVOL)
zfs list -t volume
zfs snapshot rpool/data/vm-101-disk-0@snapshot_name
zfs send rpool/data/vm-101-disk-0@snapshot_name | ssh user@remote-server zfs receive rpool/data/vm-101-disk-0
отображать прогресс
zfs send rpool/data/vm-101-disk-0@snapshot_name | pv | ssh user@remote-server zfs receive rpool/data/vm-101-disk-0
apt install pv
Если знаешь размер снапшота (например, 20G) — укажи флаг -s, чтобы pv смог точно рассчитать ETA.
Узнать размер снапшота: zfs list -t snapshot | grep vm-101-disk-0@snapshot_name
zfs send rpool/data/vm-101-disk-0@snapshot_name | pv -s 20G | ssh user@remote-server zfs receive rpool/data/vm-101-disk-0
zfs destroy rpool/data/vm-101-disk-0@snapshot_name
Остановить zfs send: Ctrl + C — это безопасно прервёт zfs send | ssh ... zfs receive.
Если используется ssh, оно закроется, и на стороне получателя (Proxmox #2) не останется "полуслепых" zvol'ов — только временный поток.
ZFS не создаёт "частичный" том — он либо принимает снапшот полностью, либо не принимает вообще.
После прерывания: в ZFS-списке на Proxmox #2 не будет rpool/data/vm-101-disk-0, если передача не завершилась.
zfs rename OLD NEW
zfs renam5e rpool/data/vm-302-disk-1 rpool/data/vm-200-disk-1
zpool iostat rpool
zpool iostat rpool 5
обновлять каждые 5 секунд
zpool clear "имя пула"
zpool clear rpool
zpool scrub rpool
если ошибки повторяются при каждом scrub — один или несколько дисков начинают "сыпаться"