virginia redimensionar particion ec2 east consola change aws linux ubuntu amazon-web-services amazon-ec2 amazon-ebs

ec2 - redimensionar particion linux consola



Adjuntar y montar el volumen EBS existente al problema del sistema de archivos de instancia EC2 (6)

Tuve un problema desconocido con mi antigua instancia de EC2, por lo que ya no puedo usarla. Por lo tanto, creé un nuevo volumen de EBS a partir de una instantánea del volumen anterior e intenté adjuntarlo y montarlo en la nueva instancia. Aquí esta lo que hice:

  1. Creó un nuevo volumen a partir de la instantánea del anterior.
  2. Creé una nueva instancia EC2 y le /dev/xvdf el volumen como /dev/xvdf (o /dev/sdf )
  3. SSHed en la instancia e intentó montar el volumen anterior con:

    $ sudo mkdir -m 000 /vol $ sudo mount /dev/xvdf /vol

Y la salida fue:

mount: block device /dev/xvdf is write-protected, mounting read-only mount: you must specify the filesystem type

Ahora, sé que debo especificar el sistema de archivos como ext4 pero como el volumen contiene muchos datos importantes, no puedo formatearlo a través de $ sudo mkfs -t ext4 /dev/xvdf . Aún así, no conozco otra forma de preservar los datos y especificar el sistema de archivos al mismo tiempo. He buscado mucho al respecto y actualmente estoy perdido.

Por cierto, el montaje como ''solo lectura'' también me preocupa, pero aún no lo he investigado ya que no puedo montar el volumen en absoluto.

¡Gracias por adelantado!

Editar:

Cuando hago sudo mount /dev/xvdf /vol -t ext4 (sin formato) obtengo:

mount: wrong fs type, bad option, bad superblock on /dev/xvdf, missing codepage or helper program, or other error In some cases useful info is found in syslog - try dmesg | tail or so

Y dmesg | tail dmesg | tail me da:

[ 1433.217915] EXT4-fs (xvdf): VFS: Can''t find ext4 filesystem [ 1433.222107] FAT-fs (xvdf): bogus number of reserved sectors [ 1433.226127] FAT-fs (xvdf): Can''t find a valid FAT filesystem [ 1433.260752] EXT4-fs (xvdf): VFS: Can''t find ext4 filesystem [ 1433.265563] EXT4-fs (xvdf): VFS: Can''t find ext4 filesystem [ 1433.270477] EXT4-fs (xvdf): VFS: Can''t find ext4 filesystem [ 1433.274549] FAT-fs (xvdf): bogus number of reserved sectors [ 1433.277632] FAT-fs (xvdf): Can''t find a valid FAT filesystem [ 1433.306549] ISOFS: Unable to identify CD-ROM format. [ 2373.694570] EXT4-fs (xvdf): VFS: Can''t find ext4 filesystem


The One Liner

🥇 Monte la partición (si el disco está particionado) :

sudo mount /dev/xvdf1 /vol -t ext4

Monte el disco (si no está particionado) :

sudo mount /dev/xvdf /vol -t ext4

dónde:

  • /dev/xvdf se cambia al dispositivo de volumen EBS que se está montando
  • /vol se cambia a la carpeta en la que desea montar.
  • ext4 es el tipo de sistema de archivos del volumen que se está montando

Errores comunes de cómo:

✳️ Lista de dispositivos adjuntos

Verifique su comando de montaje para ver el nombre correcto del dispositivo de volumen EBS y el tipo de sistema de archivos . Lo siguiente los enumerará a todos:

sudo lsblk --output NAME,TYPE,SIZE,FSTYPE,MOUNTPOINT,UUID,LABEL

Si su volumen EBS se muestra con una partition adjunta, monte la partition ; No el disco.

✳️ Si tu volumen no está en la lista

Si no se muestra, no ha Attach su volumen EBS en la consola web de AWS

✳️ Montaje automático al reiniciar

Estos dispositivos se desmontan nuevamente si la instancia EC2 se reinicia alguna vez.

Una manera de hacer que se vuelvan a montar al inicio es agregar el volumen al /etc/fstab del servidor.

🔥 Precaución: 🔥
Si corrompe el /etc/fstab , hará que su sistema no se pueda arrancar. Lea el breve artículo de AWS para asegurarse de verificar que lo hizo correctamente.

https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-using-volumes.html#ebs-mount-after-reboot

Primero :
Con el comando lsblk anterior, encuentre el UUID y FSTYPE su volumen.

Segundo :
Guarde una copia de su archivo fstab original.

sudo cp /etc/fstab /etc/fstab.original

Tercero :
Agregue una línea para el volumen en sudo nano /etc/fstab .

Los campos de fstab están ''separados por tabulaciones'' y cada línea tiene los siguientes campos:

<UUID> <MOUNTPOINT> <FSTYPE> defaults,discard,nofail 0 0

Aquí hay un ejemplo para ayudarlo, mi propio fstab dice lo siguiente:

LABEL=cloudimg-rootfs / ext4 defaults,discard,nofail 0 0 UUID=e4a4b1df-cf4a-469b-af45-89beceea5df7 /var/www-data ext4 defaults,discard,nofail 0 0

Eso es todo, ya terminaste. Compruebe si hay errores en su trabajo ejecutando:

sudo mount --all --verbose

Verás algo como esto si las cosas son 👍:

/ : ignored /var/www-data : already mounted


Encontré este problema, y ​​lo tengo ahora,

[ec2-user@ip-172-31-63-130 ~]$ lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT xvda 202:0 0 8G 0 disk └─xvda1 202:1 0 8G 0 part / xvdf 202:80 0 8G 0 disk └─xvdf1 202:81 0 8G 0 part

Debes montar la partition

/ dev / xvdf1 (cuyo tipo es una partición)

no monte el disk

/ dev / xvdf (qué tipo es un disco)


No necesita crear un sistema de archivos del volumen recién creado a partir de la instantánea. Simplemente conecte el volumen y monte el volumen en la carpeta donde desee. He adjuntado el nuevo volumen a la misma ubicación del volumen eliminado anteriormente y estaba funcionando bien.

[ec2-user@ip-x-x-x-x vol1]$ sudo lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT xvda 202:0 0 8G 0 disk └─xvda1 202:1 0 8G 0 part / xvdb 202:16 0 10G 0 disk /home/ec2-user/vol1


Noté que, por alguna razón, el volumen estaba ubicado en /dev/xvdf1 , no /dev/xvdf .

Utilizando

sudo mount /dev/xvdf1 /vol -t ext4

trabajado como un encanto


También encontré este problema después de agregar un nuevo volumen de 16 GB y adjuntarlo a una instancia existente. Antes que nada debes saber qué discos tienes presentes Ejecutar

sudo fdisk -l

Tendrá una salida que se parece a la que se muestra a continuación que detalla información sobre sus discos (volúmenes "

Disk /dev/xvda: 12.9 GB, 12884901888 bytes 255 heads, 63 sectors/track, 1566 cylinders, total 25165824 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Device Boot Start End Blocks Id System /dev/xvda1 * 16065 25157789 12570862+ 83 Linux Disk /dev/xvdf: 17.2 GB, 17179869184 bytes 255 heads, 63 sectors/track, 2088 cylinders, total 33554432 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/xvdf doesn''t contain a valid partition table

Como puede ver, el Disco / dev / xvdf recién agregado está presente. Para que esté disponible, debe crear un sistema de archivos en él y montarlo en un punto de montaje. Puede lograr eso con los siguientes comandos

sudo mkfs -t ext4 /dev/xvdf

Hacer un nuevo sistema de archivos borra todo en el volumen, así que haga esto en un volumen nuevo sin datos importantes

Luego móntelo quizás en un directorio bajo la carpeta / mnt

sudo mount /dev/xvdf /mnt/dir/

Confirme que ha montado el volumen en la instancia ejecutando

df -h

Esto es lo que deberías tener

Filesystem Size Used Avail Use% Mounted on udev 486M 12K 486M 1% /dev tmpfs 100M 400K 99M 1% /run /dev/xvda1 12G 5.5G 5.7G 50% / none 4.0K 0 4.0K 0% /sys/fs/cgroup none 5.0M 0 5.0M 0% /run/lock none 497M 0 497M 0% /run/shm none 100M 0 100M 0% /run/user /dev/xvdf 16G 44M 15G 1% /mnt/ebs

Y eso es todo, tiene el volumen para su uso adjunto a su instancia existente. credit


Tuve un problema diferente, aquí cuando revisé los registros de dmesg, el problema era con el mismo UUID del volumen raíz existente y UUID del volumen raíz de otro ec2. Entonces, para solucionar esto, lo monté en otro tipo de Linux de ec2. Funcionó.