<p><br>
> > > > Have already tried this with the same error. I suspected the two commands<br>
> > > > are like alias.<br>
> > ><br>
> > > What is the current state of the raid:<br>
> > ><br>
> > > cat /proc/mdstat<br>
> > ><br>
> ><br>
> > Looks like its inactive.<br>
> ><br>
> > Personalities : [raid1] [raid6] [raid5] [raid4]<br>
> ><br>
> > md2 : inactive sdb2[1] sdc2[3] 5692755968 blocks super 1.2<br>
> ><br>
> > md0 : active raid1 sda1[2] sdb1[1] 83886008 blocks super 1.0 [2/2] [UU] bitmap: 0/1 pages [0KB], 65536KB chunk<br>
> ><br>
> > unused devices: <none> <br>
> > > --<br>
> > > Len Sorensen<br>
> Actually this got me in the proper path. I googled for inactive raid device and I it does look like you need to stop it first.<br>
><br>
> Then, I started it and got this message<br>
> mdadm --assemble /dev/md2 /dev/sda2 /dev/sdb2 /dev/sdc2<br>
><br>
> mdadm: device 3 in /dev/md2 has wrong state in superblock, but /dev/sda2 seems ok<br>
> mdadm: /dev/md2 assembled from 2 drives and 1 spare - not enough to start the array while not clean - consider --force.<br>
><br>
> Have never liked to use force.<br>
><br>
So I did force the assembly and all seem fine now. Thanks a lot Len. I am good now.</p>
<p>mdadm --assemble --force /dev/md2 /dev/sda2 /dev/sdb2 /dev/sdc2 mdadm: clearing FAULTY flag for device 0 in /dev/md2 for /dev/sda2 mdadm: Marking array /dev/md2 as 'clean' md/raid: md2: raid level 5 active with 2 out of 3 devices, algorithm 2 mdadm: /dev/md2 has started with 2 drives (out of 3) and 1 spare</p>

<p>cat /proc/mdstat</p>
<p>Personalities : [raid1] [raid6] [raid5] [raid4] md2 : active raid5 sdb2[1] sda2[4] sdc2[3] 5692754944 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU] [>....................] recovery = 1.7% (50805888/2846377472) finish=431.8min speed=107884K/sec</p>

<p>md0 : active raid1 sda1[2] sdb1[1] 83886008 blocks super 1.0 [2/2] [UU] bitmap: 0/1 pages [0KB], 65536KB chunk</p>
<p>unused devices: <none> <br></p>
<p> /dev/md2: Version : 1.2 Creation Time : Thu Dec 13 11:04:35 2012 Raid Level : raid5 Array Size : 5692754944 (5429.03 GiB 5829.38 GB) Used Dev Size : 2846377472 (2714.52 GiB 2914.69 GB) Raid Devices : 3 Total Devices : 3 Persistence : Superblock is persistent</p>

<p>Update Time : Tue Feb 4 16:18:14 2014 State : clean, degraded, recovering Active Devices : 2 Working Devices : 3 Failed Devices : 0 Spare Devices : 1</p>
<p>Layout : left-symmetric Chunk Size : 512K</p>
<p>Rebuild Status : 11% complete</p>
<p>Name : <a href="http://gfs1.jamar.com:2">gfs1.jamar.com:2</a> (local to host <a href="http://gfs1.jamar.com">gfs1.jamar.com</a>) UUID : 0202547e:d9a3bd67:fdeaf168: a780aa38 Events : 6296</p>
<p>Number Major Minor RaidDevice State 4 8 2 0 spare rebuilding /dev/sda2 1 8 18 1 active sync /dev/sdb2 3 8 34 2 active sync /dev/sdc2</p>
<p>William  <br>
> William <br>
> > > --<br>
> > William <br>
> > > The Toronto Linux Users Group.      Meetings: <a href="http://gtalug.org/">http://gtalug.org/</a><br>
> > > TLUG requests: Linux topics, No HTML, wrap text below 80 columns<br>
> > > How to UNSUBSCRIBE: <a href="http://gtalug.org/wiki/Mailing_lists">http://gtalug.org/wiki/Mailing_lists</a></p>