<br><font size=2 face="sans-serif">If you have a 2650 already, the only
option for hardware raid would be to use the following card:</font>
<br>
<br><font size=2 face="sans-serif">Adaptec 4800SAS - PCI-X (Not PCI-Express)
SAS RAID adapter with 1 x4 External SAS connector</font>
<br><font size=2 face="sans-serif">and 2 x4 internal SAS connectors. &nbsp;This
controller support RAID 0, 1, 10, 5, 6, 50 and 60 plus some</font>
<br><font size=2 face="sans-serif">other RAID options. &nbsp;It has 128
MB (small) of cache on the card.</font>
<br>
<br><font size=2 face="sans-serif">This is the ONLY PCI-X SAS RAID controller
that supports anything higher than RAID-0/1 in hardware</font>
<br><font size=2 face="sans-serif">that I have been able to find.</font>
<br><font size=2 face="sans-serif">&nbsp;</font>
<br><font size=2 face="sans-serif">If software RAID is acceptable, you
could use the following:</font>
<br>
<br><font size=2 face="sans-serif">LSI SAS3800X SAS HBA - 2 x4 External
SAS connectors, No internal connectors.</font>
<br><font size=2 face="sans-serif">I've used these on PE SC1425's to connect
up multiple MD1000's and I've used MD software raid's </font>
<br><font size=2 face="sans-serif">under CentOS 4.</font>
<br>
<br><font size=2 face="sans-serif">There may be a few other options from
both LSI Logic and Adaptec that have varying combinations</font>
<br><font size=2 face="sans-serif">of Internal/External SAS ports with
support for RAID-0/1/10 if that is what you are looking for. &nbsp;Here
is a </font>
<br><font size=2 face="sans-serif">chart from LSI Logic comparing various
HBA's</font>
<br>
<br><font size=2 face="sans-serif">http://www.lsi.com/documentation/scg/SCG_LSI-Adaptec_Comparison_Gd_120507.pdf</font>
<br>
<br><font size=2 face="sans-serif">If your 2850 has PCI-Express slots,
then you could try using a PERC 5e/6e controller, otherwise</font>
<br><font size=2 face="sans-serif">your options would be the same as for
the 2650. &nbsp;</font>
<br>
<br><font size=2 face="sans-serif">Here's a few things I have found out
over time.</font>
<br><font size=2 face="sans-serif">If you can use a PERC 5e/6e, I'd recommend
the PERC 6e with the largest cache you can get </font>
<br><font size=2 face="sans-serif">(512 MB I believe) as this will help
with write performance. &nbsp;</font>
<br>
<br><font size=2 face="sans-serif">Turn off any Read Ahead Caching in the
PERC firmware for any volumes you create as the read ahead </font>
<br><font size=2 face="sans-serif">caching will compete with the write
cache on the controller. &nbsp;For RAID 5, you want as much write cache
</font>
<br><font size=2 face="sans-serif">on the controller as you can get. &nbsp;</font>
<br>
<br><font size=2 face="sans-serif">It seems to help performance if you
keep the RAID-5 stripes to 8 drives or less. &nbsp;Reduces contention on
</font>
<br><font size=2 face="sans-serif">the spindles between the parity IO and
the data IO. &nbsp;</font>
<br>
<br><font size=2 face="sans-serif">PERC 5 controllers (don't know about
PERC 6) can only support up to 8 RAID 5 stripe sets. &nbsp;I recently built</font>
<br><font size=2 face="sans-serif">a 90 drive RAID 50 array and I had to
use 8 x 11 Drive RAID 5 stripes instead of the 11 x 8 drive stripes I </font>
<br><font size=2 face="sans-serif">wanted to use.</font>
<br>
<br><font size=2 face="sans-serif">Good Luck! &nbsp;And feel free to contact
me if you have any questions!</font>
<br>
<br><font size=2 face="sans-serif">- Mike</font>
<br>
<br><font size=2 face="sans-serif">Michael P. Moore<br>
Senior Network Engineer<br>
Applied Biosystems - High Throughput Discovery Division<br>
P: 508-383-7486<br>
ONNET: 685-7486<br>
</font>
<br>
<br>
<br>
<table width=100%>
<tr valign=top>
<td width=40%><font size=1 face="sans-serif"><b>Alan Bunch &lt;alabun@udfc.com&gt;</b>
</font>
<br><font size=1 face="sans-serif">Sent by: linux-poweredge-bounces@dell.com</font>
<p><font size=1 face="sans-serif">06/06/2008 10:29 AM</font>
<td width=59%>
<table width=100%>
<tr>
<td>
<div align=right><font size=1 face="sans-serif">To</font></div>
<td valign=top><font size=1 face="sans-serif">linux-poweredge@dell.com</font>
<tr>
<td>
<div align=right><font size=1 face="sans-serif">cc</font></div>
<td valign=top>
<tr>
<td>
<div align=right><font size=1 face="sans-serif">Subject</font></div>
<td valign=top><font size=1 face="sans-serif">MD100 and 2650's</font></table>
<br>
<table>
<tr valign=top>
<td>
<td></table>
<br></table>
<br>
<br>
<br><tt><font size=2>The goal is a large stack of disk for a disk to disk
to take scheme. &nbsp;We <br>
want to rsync the main datacenter disk to stack of disk at a remote site
<br>
and then backup to tape from there.<br>
<br>
What would you use to connect a MD100 &nbsp;to a PE 2650 ?<br>
<br>
It does not need to be Dell supported but is does need strong Centos 5
<br>
support.<br>
<br>
As an alternative I have a 2850 that might be available for this<br>
<br>
alabun<br>
<br>
_______________________________________________<br>
Linux-PowerEdge mailing list<br>
Linux-PowerEdge@dell.com<br>
http://lists.us.dell.com/mailman/listinfo/linux-poweredge<br>
Please read the FAQ at http://lists.us.dell.com/faq<br>
</font></tt>
<br>