2016-01-10 27 views
-1

標題說明了一切。 我在Ubuntu上有3個分區mdadm raid 5。 現在我添加了第4個分區。 所有分區覆蓋整個物理磁盤,每個磁盤的大小爲4 TB。 正在使用的文件系統是ext4。在mdadm raid 5成長後,我是否必須等待重塑以調用resize2fs?

mdadm的生長RAID 5維基後說,作出fsck檢查,然後調整

我必須等待mdadm的重塑完成的resize2fs工作? 如果不是這似乎並不奏效。 當然raid是unmounted的。 我做了fsck -f檢查。 在raid 上運行resize2fs,但mdadm -D/dev/md0仍顯示4個陣列大小爲8 TB且開發大小爲4 TB的磁盤。 fdisk -l也只顯示8 TB的大小。

我做錯了什麼? 如何重新調整文件系統以包含我的第4張磁盤?

的fdisk - 輸出:

Disk /dev/sdb: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors 
Units: sectors of 1 * 512 = 512 bytes 
Sector size (logical/physical): 512 bytes/4096 bytes 
I/O size (minimum/optimal): 4096 bytes/4096 bytes 
Disklabel type: gpt 
Disk identifier: E434C200-63C3-4CB8-8097-DD369155D797 

Device  Start  End Sectors Size Type 
/dev/sdb1 2048 7814035455 7814033408 3.7T Linux RAID 


Disk /dev/sdd: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors 
Units: sectors of 1 * 512 = 512 bytes 
Sector size (logical/physical): 512 bytes/4096 bytes 
I/O size (minimum/optimal): 4096 bytes/4096 bytes 
Disklabel type: gpt 
Disk identifier: CAD9D9DA-1C3B-4FC2-95BD-A5F0B55DE313 

Device  Start  End Sectors Size Type 
/dev/sdd1 2048 7814035455 7814033408 3.7T Linux RAID 


Disk /dev/sdc: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors 
Units: sectors of 1 * 512 = 512 bytes 
Sector size (logical/physical): 512 bytes/4096 bytes 
I/O size (minimum/optimal): 4096 bytes/4096 bytes 
Disklabel type: gpt 
Disk identifier: 090E94F6-A461-4B27-BCDF-5B49EC6AFC84 

Device  Start  End Sectors Size Type 
/dev/sdc1 2048 7814035455 7814033408 3.7T Linux RAID 


Disk /dev/sde: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors 
Units: sectors of 1 * 512 = 512 bytes 
Sector size (logical/physical): 512 bytes/4096 bytes 
I/O size (minimum/optimal): 4096 bytes/4096 bytes 
Disklabel type: gpt 
Disk identifier: A0285071-2C16-42B4-8567-32CE98147A93 

Device  Start  End Sectors Size Type 
/dev/sde1 2048 7814035455 7814033408 3.7T Linux RAID 


Disk /dev/md0: 7.3 TiB, 8001301774336 bytes, 15627542528 sectors 
Units: sectors of 1 * 512 = 512 bytes 
Sector size (logical/physical): 512 bytes/4096 bytes 
I/O size (minimum/optimal): 524288 bytes/1572864 bytes 

的mdadm -D的/ dev/md0的輸出

/dev/md0: 
     Version : 1.2 
    Creation Time : Thu Jan 7 08:23:57 2016 
    Raid Level : raid5 
    Array Size : 7813771264 (7451.79 GiB 8001.30 GB) 
    Used Dev Size : 3906885632 (3725.90 GiB 4000.65 GB) 
    Raid Devices : 4 
    Total Devices : 4 
    Persistence : Superblock is persistent 

    Intent Bitmap : Internal 

    Update Time : Mon Jan 11 08:10:47 2016 
      State : clean, reshaping 
Active Devices : 4 
Working Devices : 4 
Failed Devices : 0 
    Spare Devices : 0 

     Layout : left-symmetric 
    Chunk Size : 512K 

Reshape Status : 47% complete 
    Delta Devices : 1, (3->4) 

      Name : NAS:0 (local to host NAS) 
      UUID : 69ba4b0e:a2427b2a:121cc4e0:5461a8fb 
     Events : 10230 

    Number Major Minor RaidDevice State 
     0  8  33  0  active sync /dev/sdc1 
     1  8  49  1  active sync /dev/sdd1 
     3  8  65  2  active sync /dev/sde1 
     4  8  17  3  active sync /dev/sdb1 

回答

0

如此以來,我的團隊做整形,我想我會回答我的問題,以留下一些知識。 在通過mdadm增加一個Sofware raid之後,您必須等到它完成整形之後,然後在raid上運行fsck -f,然後使用resize2fs/dev/md並最終調整fs大小。

相關問題