【自宅サーバ】Raid5構成にディスク追加(mdadm)
まずは仮想ディスクをUbuntuに追加し、OS再起動
ディスク認識を確認
sudo fdisk -l
sdb1,sdc1,sdd1,sde1でmd0が構成され/dev/sdfが追加ディスクで認識している状態
まずはfdiskで[Linux raid 自動検出]に設定
sudo fdisk /dev/sdf
コマンド (m でヘルプ): n
コマンドアクション
e 拡張
p 基本領域 (1-4)
p
領域番号 (1-4): 1
最初 シリンダ (1-243201, 初期値 1):
初期値 1 を使います
Last シリンダ, +シリンダ数 or +size{K,M,G} (1-243201, 初期値 243201):
初期値 243201 を使います
コマンド (m でヘルプ): t
選択した領域 1
16進数コード (L コマンドでコードリスト表示): fd
領域のシステムタイプを 1 から fd (Linux raid 自動検出) に変更しました
sudo fdisk -l /dev/sdf
Raidの状態確認
sudo mdadm --misc --detail /dev/md0
Raid Devices : 4
Total Devices : 4
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
2 8 49 2 active sync /dev/sdd1
3 8 65 3 active sync /dev/sde1
Raidにsdfを追加
sudo mdadm --manage /dev/md0 --add /dev/sdf1
Raidの状態確認(sdfはスペアディスクとして構成)
sudo mdadm --misc --detail /dev/md0
Raid Devices : 4
Total Devices : 5
Spare Devices : 1
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
2 8 49 2 active sync /dev/sdd1
3 8 65 3 active sync /dev/sde1
4 8 81 - spare /dev/sdf1
/dev/md0をアンマウント
sudo umount /share
現状がディスク4本構成されているので5本構成になるように指定
sudo mdadm --grow /dev/md0 --raid-disks=5
Raidが5本構成になったことを確認
sudo mdadm --misc --detail /dev/md0
Active Devices : 5
Working Devices : 5
Raidにディスク追加するとリビルドが走るので状況確認
sudo cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdf1[4] sdc1[1] sdb1[0] sdd1[2] sde1[3]
5830020096 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/5] [UUUUU]
[>....................] reshape = 0.5% (10756620/1943340032) finish=3728.4min speed=8638K/sec
unused devices:
う~ん遅いと思ったらリビルドレイトを先に変えるべきだった...。
リビルド実行後には変更出来ないみたいで結局2TBx4→2TBx5にすると3日程リビルドにかかった...。
本来は、先に変更すべきだそうだ...。
echo 800000 > /proc/sys/dev/raid/speed_limit_max
echo 200000 > /proc/sys/dev/raid/speed_limit_min
リビルドが終わったらfsckしてリサイズしマウントすればOK。
sudo e2fsck -f /dev/md0
sudo resize2fs /dev/md0
sudo mount /share
ディスク認識を確認
sudo fdisk -l
sdb1,sdc1,sdd1,sde1でmd0が構成され/dev/sdfが追加ディスクで認識している状態
まずはfdiskで[Linux raid 自動検出]に設定
sudo fdisk /dev/sdf
コマンド (m でヘルプ): n
コマンドアクション
e 拡張
p 基本領域 (1-4)
p
領域番号 (1-4): 1
最初 シリンダ (1-243201, 初期値 1):
初期値 1 を使います
Last シリンダ, +シリンダ数 or +size{K,M,G} (1-243201, 初期値 243201):
初期値 243201 を使います
コマンド (m でヘルプ): t
選択した領域 1
16進数コード (L コマンドでコードリスト表示): fd
領域のシステムタイプを 1 から fd (Linux raid 自動検出) に変更しました
sudo fdisk -l /dev/sdf
Raidの状態確認
sudo mdadm --misc --detail /dev/md0
Raid Devices : 4
Total Devices : 4
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
2 8 49 2 active sync /dev/sdd1
3 8 65 3 active sync /dev/sde1
Raidにsdfを追加
sudo mdadm --manage /dev/md0 --add /dev/sdf1
Raidの状態確認(sdfはスペアディスクとして構成)
sudo mdadm --misc --detail /dev/md0
Raid Devices : 4
Total Devices : 5
Spare Devices : 1
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
2 8 49 2 active sync /dev/sdd1
3 8 65 3 active sync /dev/sde1
4 8 81 - spare /dev/sdf1
/dev/md0をアンマウント
sudo umount /share
現状がディスク4本構成されているので5本構成になるように指定
sudo mdadm --grow /dev/md0 --raid-disks=5
Raidが5本構成になったことを確認
sudo mdadm --misc --detail /dev/md0
Active Devices : 5
Working Devices : 5
Raidにディスク追加するとリビルドが走るので状況確認
sudo cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdf1[4] sdc1[1] sdb1[0] sdd1[2] sde1[3]
5830020096 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/5] [UUUUU]
[>....................] reshape = 0.5% (10756620/1943340032) finish=3728.4min speed=8638K/sec
unused devices:
う~ん遅いと思ったらリビルドレイトを先に変えるべきだった...。
リビルド実行後には変更出来ないみたいで結局2TBx4→2TBx5にすると3日程リビルドにかかった...。
本来は、先に変更すべきだそうだ...。
echo 800000 > /proc/sys/dev/raid/speed_limit_max
echo 200000 > /proc/sys/dev/raid/speed_limit_min
リビルドが終わったらfsckしてリサイズしマウントすればOK。
sudo e2fsck -f /dev/md0
sudo resize2fs /dev/md0
sudo mount /share
【自宅サーバ】ESXi 5.5でデータストアを追加しようとしたらエラーでこけた。
ESXi 5.5でデータストアを追加しようとしたらエラーでこけた。
指定されたパラメータは不正でした。Vim.Host.DiskPartitionInfo.spec
というダイアログ。更に、エラーメッセージは
ESXi「(IPアドレス)」で オブジェクト「storageSystem」の「HostStorageSystem.ComputeDiskPartitionInfo」 の呼び出しが失敗しました。
SSHでログインしディスクの情報を見ると追加したディスクがNTFSだった。
fdisk -l
ディスクの情報を調べ
esxcfg-scsidevs -l
パーティション確認
partedUtil get /vmfs/devices/disks/
パーティション"1"が切られているので削除
partedUtil delete /vmfs/devices/disks/ 1
あっさりと、vShpere Clinetから追加できるようになった
指定されたパラメータは不正でした。Vim.Host.DiskPartitionInfo.spec
というダイアログ。更に、エラーメッセージは
ESXi「(IPアドレス)」で オブジェクト「storageSystem」の「HostStorageSystem.ComputeDiskPartitionInfo」 の呼び出しが失敗しました。
SSHでログインしディスクの情報を見ると追加したディスクがNTFSだった。
fdisk -l
ディスクの情報を調べ
esxcfg-scsidevs -l
パーティション確認
partedUtil get /vmfs/devices/disks/
パーティション"1"が切られているので削除
partedUtil delete /vmfs/devices/disks/
あっさりと、vShpere Clinetから追加できるようになった


