centos 5.3 RAID1 用dmraid恢复不了数据(求救)
用带的RAID,intel Matrix stroage的,安装CENOS 5.3系统,默认安装系统。。做RAID1后,能正常镜像数据。现在坏了一个硬盘,拿了一个新的硬盘,相同容量品牌,全盘格式化。
要恢复数据。安装好两个硬盘后,重新启动出现以下提示,进入不了系统。(确定没坏的硬盘单盘可以直接进入系统)
Scanning logical volumes
Reading all physical volumes. This may take a while...
Found volume group "VolGroup00" using metadata type lvm2
Activating logical volumes
device-mapper: table: device 202:2 too small for target
device-mapper: table: 253:0: linear: dm-linear: Device lookup failed
device-mapper: ioctl: error adding target to table
device-mapper: reload ioctl failed: Invalid argument
device-mapper: table: device 202:2 too small for target
device-mapper: table: 253:1: linear: dm-linear: Device lookup failed
device-mapper: ioctl: error adding target to table
device-mapper: reload ioctl failed: Invalid argument
2 logical volume(s) in volume group "VolGroup00" now active
Creating root device.
Mounting root filesystem.
mount: could not find filesystem '/dev/root'
Setting up other filesystems.
Setting up new root fs
setuproot: moving /dev failed: No such file or directory
no fstab.sys, mounting internal defaults
setuproot: error mounting /proc: No such file or directory
setuproot: error mounting /sys: No such file or directory
Switching to new root and running init.
unmounting old /dev
unmounting old /proc
unmounting old /sys
switchroot: mount failed: No such file or directory
Kernel panic - not syncing: Attempted to kill init!
奇怪的是光盘启用RESCUE,dmraid -s出现如下的状态。[root@nasri ~]# dmraid -r
/dev/sdb: isw, "isw_djhffiddde", GROUP, ok, 312581806 sectors, data@ 0
/dev/sda: isw, "isw_djhffiddde", GROUP, ok, 72303838 sectors, data@ 0
[root@nasri ~]# dmraid -s
*** Group superset isw_djhffiddde
–> Active Subset
name : isw_djhffiddde_Volume0
size : 41942528
stride : 256
type : mirror
status : ok
subsets: 0
devs : 2
spares : 0
但进入/dev/mapper/中只有control文件。fdisk -l 正常显示其中一个硬盘为空,另一个硬盘为分区了的。
如果我重新建立mapper(dmraid -ay)则在/dev/mapper里会创建新文件Volume0。
[root@nasri ~]# dmraid -s
*** Group superset isw_djhffiddde
–> Active Subset
name : isw_djhffiddde_Volume0
size : 41942528
stride : 256
type :mirror
status : broken
subsets: 0
devs : 1
spares : 0
name :pcd_djhffiddde_Volume0
size : 41942528
stride : 256
type :mirror
status : ok
subsets: 0
devs : 1
spares : 0
用dmraid -R isw_djhffiddde_Volume0 /dev/sda (sda为空硬盘)重建数据。
dmraid -R isw_djhffiddde_Volume0 /dev/sda
ERROR:isw:wrong number of devices in RAID set "isw_djhffiddde_Volume0"[1/2] on /dev/sdb
dmsetup status查看发现数据在增加。
完毕后,重新启动电脑,RIAD界面中量个硬盘RAID1关系损坏,也进步了系统。
这时怎么回事?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(7)
楼主, 你的问题解决了么, 我也遇到了同样的问题. 可否分享下. 谢谢.
本帖最后由 pingfan2 于 2011-09-05 12:55 编辑
回复 1# pcboy602
看上去应该是软RAID
如果我没记错的话,Intel Matrix Stroage Manger不支持Linux,在bios中做了RAID系统看到也是2块盘,windows下的RAID重建是通过驱动来实现的,Linux则没有办法
所以,SATA控制器设置AHCI或者RAID都可以,但不要做RAID
Intel 的官网手册(2006版)没有提到是否 支持 Linux 系统,只点名了支持 Windows 的一些版本。
-------------------------------------------------------
Intel® Matrix Storage Manager
User’s Manual
Revision 2.6
January 2006
这本文档的第25页 提到
11 Intel® Matrix Storage Manager
11.1 Description
The Intel Matrix Storage Manager software package provides high-performance Serial ATA and Serial ATA RAID capabilities in Windows* XP, Windows 2000, Windows Server 2003,
Windows XP x64 Edition, and Windows Server 2003 x64 Edition.
现在有需求说要在linux上作 RAID 1
* 进入BIOS设置,激活RAID控制器。配置SATA硬盘的选项 为 "RAID"
* 保存并退出BIOS设置。启动时进入RAID设置工具(CTRL + I),创建 RAID 1
完后在板子上安装Fedora15,正常安装也能正常启动。如果把两个硬盘分别单个拔下(只留一个硬盘),能正常启动。
但现在遇到的问题是,不知道如何做 rebuild 功能测试 。根据 三楼 的 “pingfan2 ( 唐僧) ”,是不是真的不支持 linux 操作系统的 rebuild ? 可是这些天也上网查了,有不少ubuntu系统用 dmraid 也在配置 isw 的 raid 功能(raid 1 的看到的很少)。
我之前也做过RAID1的恢复,具体内容看如下文章
http://taotao1240.blog.51cto.com/731446/660776
LSI RAID卡删除RAID信息后,重建时可以选择 “不初始化”,这个是关键
我这边的raid1 rebuild 还没有解决,有木有人可以分享下从创建RAID1(包括分区)到rebuild操作的全过程呀.目前搜索到的都是些只报了问题,没有实质的可以参考解决问题的具体方法.