ec2 - redimensionar particion linux consola
Adjuntar y montar el volumen EBS existente al problema del sistema de archivos de instancia EC2 (6)
Tuve un problema desconocido con mi antigua instancia de EC2, por lo que ya no puedo usarla. Por lo tanto, creé un nuevo volumen de EBS a partir de una instantánea del volumen anterior e intenté adjuntarlo y montarlo en la nueva instancia. Aquí esta lo que hice:
- Creó un nuevo volumen a partir de la instantánea del anterior.
-
Creé una nueva instancia EC2 y le
/dev/xvdf
el volumen como/dev/xvdf
(o/dev/sdf
) -
SSHed en la instancia e intentó montar el volumen anterior con:
$ sudo mkdir -m 000 /vol $ sudo mount /dev/xvdf /vol
Y la salida fue:
mount: block device /dev/xvdf is write-protected, mounting read-only
mount: you must specify the filesystem type
Ahora, sé que debo especificar el sistema de archivos como
ext4
pero como el volumen contiene muchos datos importantes, no puedo formatearlo a través de
$ sudo mkfs -t ext4 /dev/xvdf
.
Aún así, no conozco otra forma de preservar los datos y especificar el sistema de archivos al mismo tiempo.
He buscado mucho al respecto y actualmente estoy perdido.
Por cierto, el montaje como ''solo lectura'' también me preocupa, pero aún no lo he investigado ya que no puedo montar el volumen en absoluto.
¡Gracias por adelantado!
Editar:
Cuando hago
sudo mount /dev/xvdf /vol -t ext4
(sin formato) obtengo:
mount: wrong fs type, bad option, bad superblock on /dev/xvdf,
missing codepage or helper program, or other error
In some cases useful info is found in syslog - try
dmesg | tail or so
Y
dmesg | tail
dmesg | tail
me da:
[ 1433.217915] EXT4-fs (xvdf): VFS: Can''t find ext4 filesystem
[ 1433.222107] FAT-fs (xvdf): bogus number of reserved sectors
[ 1433.226127] FAT-fs (xvdf): Can''t find a valid FAT filesystem
[ 1433.260752] EXT4-fs (xvdf): VFS: Can''t find ext4 filesystem
[ 1433.265563] EXT4-fs (xvdf): VFS: Can''t find ext4 filesystem
[ 1433.270477] EXT4-fs (xvdf): VFS: Can''t find ext4 filesystem
[ 1433.274549] FAT-fs (xvdf): bogus number of reserved sectors
[ 1433.277632] FAT-fs (xvdf): Can''t find a valid FAT filesystem
[ 1433.306549] ISOFS: Unable to identify CD-ROM format.
[ 2373.694570] EXT4-fs (xvdf): VFS: Can''t find ext4 filesystem
The One Liner
🥇 Monte la partición (si el disco está particionado) :
sudo mount /dev/xvdf1 /vol -t ext4
Monte el disco (si no está particionado) :
sudo mount /dev/xvdf /vol -t ext4
dónde:
-
/dev/xvdf
se cambia al dispositivo de volumen EBS que se está montando -
/vol
se cambia a la carpeta en la que desea montar. -
ext4
es el tipo de sistema de archivos del volumen que se está montando
Errores comunes de cómo:
✳️ Lista de dispositivos adjuntos
Verifique su comando de montaje para ver el nombre correcto del dispositivo de volumen EBS y el tipo de sistema de archivos . Lo siguiente los enumerará a todos:
sudo lsblk --output NAME,TYPE,SIZE,FSTYPE,MOUNTPOINT,UUID,LABEL
Si su volumen EBS se muestra con una
partition
adjunta, monte la
partition
;
No el disco.
✳️ Si tu volumen no está en la lista
Si no se muestra, no ha
Attach
su volumen EBS en la consola web de AWS
✳️ Montaje automático al reiniciar
Estos dispositivos se desmontan nuevamente si la instancia EC2 se reinicia alguna vez.
Una manera de hacer que se vuelvan a montar al inicio es agregar el volumen al
/etc/fstab
del servidor.
🔥 Precaución: 🔥
Si corrompe el
/etc/fstab
, hará que su sistema no se pueda arrancar.
Lea el breve artículo de AWS para asegurarse de verificar que lo hizo correctamente.
https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-using-volumes.html#ebs-mount-after-reboot
Primero
:
Con el comando
lsblk
anterior, encuentre el
UUID
y
FSTYPE
su volumen.
Segundo
:
Guarde una copia de su archivo
fstab
original.
sudo cp /etc/fstab /etc/fstab.original
Tercero
:
Agregue una línea para el volumen en
sudo nano /etc/fstab
.
Los campos de
fstab
están ''separados por tabulaciones'' y cada línea tiene los siguientes campos:
<UUID> <MOUNTPOINT> <FSTYPE> defaults,discard,nofail 0 0
Aquí hay un ejemplo para ayudarlo, mi propio
fstab
dice lo siguiente:
LABEL=cloudimg-rootfs / ext4 defaults,discard,nofail 0 0
UUID=e4a4b1df-cf4a-469b-af45-89beceea5df7 /var/www-data ext4 defaults,discard,nofail 0 0
Eso es todo, ya terminaste. Compruebe si hay errores en su trabajo ejecutando:
sudo mount --all --verbose
Verás algo como esto si las cosas son 👍:
/ : ignored
/var/www-data : already mounted
Encontré este problema, y lo tengo ahora,
[ec2-user@ip-172-31-63-130 ~]$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
xvda 202:0 0 8G 0 disk
└─xvda1 202:1 0 8G 0 part /
xvdf 202:80 0 8G 0 disk
└─xvdf1 202:81 0 8G 0 part
Debes montar la
partition
/ dev / xvdf1 (cuyo tipo es una partición)
no monte el
disk
/ dev / xvdf (qué tipo es un disco)
No necesita crear un sistema de archivos del volumen recién creado a partir de la instantánea. Simplemente conecte el volumen y monte el volumen en la carpeta donde desee. He adjuntado el nuevo volumen a la misma ubicación del volumen eliminado anteriormente y estaba funcionando bien.
[ec2-user@ip-x-x-x-x vol1]$ sudo lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
xvda 202:0 0 8G 0 disk
└─xvda1 202:1 0 8G 0 part /
xvdb 202:16 0 10G 0 disk /home/ec2-user/vol1
Noté que, por alguna razón, el volumen estaba ubicado en
/dev/xvdf1
, no
/dev/xvdf
.
Utilizando
sudo mount /dev/xvdf1 /vol -t ext4
trabajado como un encanto
También encontré este problema después de agregar un nuevo volumen de 16 GB y adjuntarlo a una instancia existente. Antes que nada debes saber qué discos tienes presentes Ejecutar
sudo fdisk -l
Tendrá una salida que se parece a la que se muestra a continuación que detalla información sobre sus discos (volúmenes "
Disk /dev/xvda: 12.9 GB, 12884901888 bytes
255 heads, 63 sectors/track, 1566 cylinders, total 25165824 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Device Boot Start End Blocks Id System
/dev/xvda1 * 16065 25157789 12570862+ 83 Linux
Disk /dev/xvdf: 17.2 GB, 17179869184 bytes
255 heads, 63 sectors/track, 2088 cylinders, total 33554432 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Disk /dev/xvdf doesn''t contain a valid partition table
Como puede ver, el Disco / dev / xvdf recién agregado está presente. Para que esté disponible, debe crear un sistema de archivos en él y montarlo en un punto de montaje. Puede lograr eso con los siguientes comandos
sudo mkfs -t ext4 /dev/xvdf
Hacer un nuevo sistema de archivos borra todo en el volumen, así que haga esto en un volumen nuevo sin datos importantes
Luego móntelo quizás en un directorio bajo la carpeta / mnt
sudo mount /dev/xvdf /mnt/dir/
Confirme que ha montado el volumen en la instancia ejecutando
df -h
Esto es lo que deberías tener
Filesystem Size Used Avail Use% Mounted on
udev 486M 12K 486M 1% /dev
tmpfs 100M 400K 99M 1% /run
/dev/xvda1 12G 5.5G 5.7G 50% /
none 4.0K 0 4.0K 0% /sys/fs/cgroup
none 5.0M 0 5.0M 0% /run/lock
none 497M 0 497M 0% /run/shm
none 100M 0 100M 0% /run/user
/dev/xvdf 16G 44M 15G 1% /mnt/ebs
Y eso es todo, tiene el volumen para su uso adjunto a su instancia existente. credit
Tuve un problema diferente, aquí cuando revisé los registros de dmesg, el problema era con el mismo UUID del volumen raíz existente y UUID del volumen raíz de otro ec2. Entonces, para solucionar esto, lo monté en otro tipo de Linux de ec2. Funcionó.