OVH Community, votre nouvel espace communautaire.

Souci avec la reconstruction du raid


copernic
04/12/2015, 15h09
Bonjour à tous
Suite au changement du disque dur par Soyoustart, je voulais reconstruire le raid (raid1)
Initialement le serveur était configuré comme suit (Les 3 partitions en raid 1)
/dev/md2 /boot
/dev/md5 /tmp
/dev/md3 /

Après le remplacement du disque
fdisk -l me donne le résultat suivant:
Code:
fdisk -l

Disk /dev/sdb: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: C5EB4356-58E6-41F5-B920-30FB47D4FB70

Device          Start        End    Sectors    Size Type
/dev/sdb1          40       2048       2009 1004.5K BIOS boot
/dev/sdb2        4096    1050623    1046528    511M Linux RAID
/dev/sdb3     1050624 3852791807 3851741184    1.8T Linux RAID
/dev/sdb4  3852791808 3886049279   33257472   15.9G Linux swap
/dev/sdb5  3886049280 3907018751   20969472     10G Linux RAID

Disk /dev/sda: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: C5EB4356-58E6-41F5-B920-30FB47D4FB70

Device          Start        End    Sectors    Size Type
/dev/sda1          40       2048       2009 1004.5K BIOS boot
/dev/sda2        4096    1050623    1046528    511M Linux RAID
/dev/sda3     1050624 3852791807 3851741184    1.8T Linux RAID
/dev/sda4  3852791808 3886049279   33257472   15.9G Linux swap
/dev/sda5  3886049280 3907018751   20969472     10G Linux RAID

Disk /dev/md5: 10 GiB, 10736304128 bytes, 20969344 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/md3: 1.8 TiB, 1972091420672 bytes, 3851741056 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Je remarque que dev/md2 n'est pas listé (voir les dernières lignes).

La commande: mdadm --misc --detail /dev/md2 me retourne le resultat suivant
Code:
root@rescue:~# mdadm --misc --detail /dev/md2
/dev/md2:
        Version : 0.90
     Raid Level : raid0
  Total Devices : 1
Preferred Minor : 0
    Persistence : Superblock is persistent

          State : inactive

           UUID : 8bf34fba:8afa271d:a4d2adc2:26fd5302 (local to host rescue.ovh.net)
         Events : 0.176

    Number   Major   Minor   RaidDevice

       -       8        2        -        /dev/sda2
de même:
Code:
root@rescue:~# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty] 
md3 : active raid1 sda3[0]
      1925870528 blocks [2/1] [U_]
      
md2 : inactive sda2[0](S)
      523200 blocks
       
md5 : active raid1 sda5[0]
      10484672 blocks [2/1] [U_]
      
unused devices: 
Étant en mode rescue, pouvez vous svp m'aider sur la commande à utiliser pour rendre active (dans le raid) de nouveau /dev/md2

Je vous remercie par avance.