<html><head><meta http-equiv="Content-Type" content="text/html charset=us-ascii"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;" class="">Gave that a shot. No dice. Still getting the 8 second lag. It reminds me of raid cards that do staggered spinups that sequentially spin up 1 drive at a time. Only, this is happening after the kernel loads and of course, the LSI 9200s are flashed in IT mode with v.19 firmware and bios disabled.<div class=""><br class=""></div><div class=""><br class=""></div><div class=""><div style="margin: 0px; font-size: 13px; font-family: Menlo; color: rgb(245, 245, 245); background-color: rgb(0, 0, 0);" class="">Jul 29 14:57:12 store2 genunix: [ID 583861 kern.info] sd10 at mpt_sas2: unit-address w50000c0f0401c20f,0: w50000c0f0401c20f,0</div><div style="margin: 0px; font-size: 13px; font-family: Menlo; color: rgb(245, 245, 245); background-color: rgb(0, 0, 0);" class="">Jul 29 14:57:12 store2 genunix: [ID 936769 kern.info] sd10 is /pci@0,0/pci8086,e04@2/pci1000,3080@0/iport@f0/disk@w50000c0f0401c20f,0</div><div style="margin: 0px; font-size: 13px; font-family: Menlo; color: rgb(245, 245, 245); background-color: rgb(0, 0, 0);" class="">Jul 29 14:57:12 store2 genunix: [ID 408114 kern.info] /pci@0,0/pci8086,e04@2/pci1000,3080@0/iport@f0/disk@w50000c0f0401c20f,0 (sd10) online</div><div style="margin: 0px; font-size: 13px; font-family: Menlo; color: rgb(245, 245, 245); background-color: rgb(0, 0, 0);" class="">Jul 29 14:57:20 store2 genunix: [ID 583861 kern.info] sd11 at mpt_sas2: unit-address w50000c0f040075db,0: w50000c0f040075db,0</div><div style="margin: 0px; font-size: 13px; font-family: Menlo; color: rgb(245, 245, 245); background-color: rgb(0, 0, 0);" class="">Jul 29 14:57:20 store2 genunix: [ID 936769 kern.info] sd11 is /pci@0,0/pci8086,e04@2/pci1000,3080@0/iport@f0/disk@w50000c0f040075db,0</div><div style="margin: 0px; font-size: 13px; font-family: Menlo; color: rgb(245, 245, 245); background-color: rgb(0, 0, 0);" class="">Jul 29 14:57:21 store2 genunix: [ID 408114 kern.info] /pci@0,0/pci8086,e04@2/pci1000,3080@0/iport@f0/disk@w50000c0f040075db,0 (sd11) online</div><div style="margin: 0px; font-size: 13px; font-family: Menlo; color: rgb(245, 245, 245); background-color: rgb(0, 0, 0);" class="">Jul 29 14:57:29 store2 genunix: [ID 583861 kern.info] sd12 at mpt_sas2: unit-address w50000c0f042c684b,0: w50000c0f042c684b,0</div><div style="margin: 0px; font-size: 13px; font-family: Menlo; color: rgb(245, 245, 245); background-color: rgb(0, 0, 0);" class="">Jul 29 14:57:29 store2 genunix: [ID 936769 kern.info] sd12 is /pci@0,0/pci8086,e04@2/pci1000,3080@0/iport@f0/disk@w50000c0f042c684b,0</div><div style="margin: 0px; font-size: 13px; font-family: Menlo; color: rgb(245, 245, 245); background-color: rgb(0, 0, 0);" class="">Jul 29 14:57:29 store2 genunix: [ID 408114 kern.info] /pci@0,0/pci8086,e04@2/pci1000,3080@0/iport@f0/disk@w50000c0f042c684b,0 (sd12) online</div><div style="margin: 0px; font-size: 13px; font-family: Menlo; color: rgb(245, 245, 245); background-color: rgb(0, 0, 0);" class="">Jul 29 14:57:38 store2 genunix: [ID 583861 kern.info] sd13 at mpt_sas2: unit-address w50000c0f0457149f,0: w50000c0f0457149f,0</div><div style="margin: 0px; font-size: 13px; font-family: Menlo; color: rgb(245, 245, 245); background-color: rgb(0, 0, 0);" class="">Jul 29 14:57:38 store2 genunix: [ID 936769 kern.info] sd13 is /pci@0,0/pci8086,e04@2/pci1000,3080@0/iport@f0/disk@w50000c0f0457149f,0</div><div style="margin: 0px; font-size: 13px; font-family: Menlo; color: rgb(245, 245, 245); background-color: rgb(0, 0, 0);" class="">Jul 29 14:57:38 store2 genunix: [ID 408114 kern.info] /pci@0,0/pci8086,e04@2/pci1000,3080@0/iport@f0/disk@w50000c0f0457149f,0 (sd13) online</div><div style="margin: 0px; font-size: 13px; font-family: Menlo; color: rgb(245, 245, 245); background-color: rgb(0, 0, 0);" class="">Jul 29 14:57:47 store2 genunix: [ID 583861 kern.info] sd14 at mpt_sas2: unit-address w50000c0f042b1c6f,0: w50000c0f042b1c6f,0</div><div style="margin: 0px; font-size: 13px; font-family: Menlo; color: rgb(245, 245, 245); background-color: rgb(0, 0, 0);" class="">Jul 29 14:57:47 store2 genunix: [ID 936769 kern.info] sd14 is /pci@0,0/pci8086,e04@2/pci1000,3080@0/iport@f0/disk@w50000c0f042b1c6f,0</div><div style="margin: 0px; font-size: 13px; font-family: Menlo; color: rgb(245, 245, 245); background-color: rgb(0, 0, 0);" class="">Jul 29 14:57:47 store2 genunix: [ID 408114 kern.info] /pci@0,0/pci8086,e04@2/pci1000,3080@0/iport@f0/disk@w50000c0f042b1c6f,0 (sd14) online</div></div><div class=""><br class=""></div><div class=""><br class=""><div class="">
<div style="color: rgb(0, 0, 0); letter-spacing: normal; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: auto; word-spacing: 0px; -webkit-text-stroke-width: 0px; word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;" class="">________________________<br class="">Michael Talbott<br class="">Systems Administrator<br class="">La Jolla Institute</div>

</div>
<br class=""><div><blockquote type="cite" class=""><div class="">On Jul 29, 2015, at 1:50 PM, Schweiss, Chip <<a href="mailto:chip@innovates.com" class="">chip@innovates.com</a>> wrote:</div><br class="Apple-interchange-newline"><div class=""><div dir="ltr" class=""><div class=""><div class="">I have an OmniOS box with all the same hardware except the server and hard disks.  I would wager this something to do with the WD disks and something different happening in the init.<br class=""></div><div class=""><br class=""></div>This is a stab in the dark, but try adding "power-condition:false" in /kernel/drv/sd.conf for the WD disks. <br class=""><br class=""></div>-Chip<br class=""><div class=""><div class=""><br class=""><br class=""><div class=""><div class="gmail_extra"><br class=""><div class="gmail_quote">On Wed, Jul 29, 2015 at 12:48 PM, Michael Talbott <span dir="ltr" class=""><<a href="mailto:mtalbott@lji.org" target="_blank" class="">mtalbott@lji.org</a>></span> wrote:<br class=""><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div style="word-wrap:break-word" class=""><div class="">Here's the specs of that server.</div><div class=""><br class=""></div><div class=""><div class="">Fujitsu RX300S8</div><div class=""> - <a href="http://www.fujitsu.com/fts/products/computing/servers/primergy/rack/rx300/" target="_blank" class="">http://www.fujitsu.com/fts/products/computing/servers/primergy/rack/rx300/</a></div><div class="">128G ECC DDR3 1600 RAM</div><div class="">2 x Intel(R) Xeon(R) CPU E5-2630 v2 @ 2.60GHz</div><div class="">2 x LSI 9200-8e</div><div class="">2 x 10Gb Intel NICs</div><div class="">2 x SuperMicro 847E26-RJBOD1 45 bay JBOD enclosures</div><div class=""></div></div><div class=""> - <a href="http://www.supermicro.com/products/chassis/4U/847/SC847E26-RJBOD1.cfm" target="_blank" class="">http://www.supermicro.com/products/chassis/4U/847/SC847E26-RJBOD1.cfm</a></div><div class=""><br class=""></div><div class="">The enclosures are not currently set up for multipathing. The front and rear backplane each have a single independent SAS connection to one of the LSI 9200s.</div><div class=""><br class=""></div><div class="">The two enclosures are fully loaded with 45 x 4TB WD4001FYYG-01SL3 drives each (90 total).</div><div class=""><a href="http://www.newegg.com/Product/Product.aspx?Item=N82E16822236353" target="_blank" class="">http://www.newegg.com/Product/Product.aspx?Item=N82E16822236353</a></div><div class=""><br class=""></div><div class="">Booting the server up in Ubuntu or CentOS does not have that 8 second delay. Each drive is found in a fraction of a second (activity LEDs on the enclosure flash on and off really quick as the drives are scanned). On OmniOS, the drives seem to be scanned in the same order, but, instead of it spending a fraction of a second on each drive, it spends 8 seconds on 1 drive (led of only one drive rapidly flashing during that process) before moving on to the next x 90 drives.</div><div class=""><br class=""></div><div class="">Is there anything I can do to get more verbosity in the boot messages that might just reveal the root issue?</div><div class=""><br class=""></div><div class="">Any suggestions appreciated.</div><div class=""><br class=""></div>Thanks<div class=""><span class=""><br class=""><div class="">
<div style="letter-spacing: normal; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; word-spacing: 0px; word-wrap: break-word;" class="">________________________<br class="">Michael Talbott<br class="">Systems Administrator<br class="">La Jolla Institute</div>

</div>
<br class=""></span><div class=""><blockquote type="cite" class=""><div class=""><div class="h5"><div class="">On Jul 29, 2015, at 7:51 AM, Schweiss, Chip <<a href="mailto:chip@innovates.com" target="_blank" class="">chip@innovates.com</a>> wrote:</div><br class=""></div></div><div class=""><div dir="ltr" class=""><br class=""><div class="gmail_extra"><br class=""><div class="gmail_quote"><div class=""><div class="h5">On Fri, Jul 24, 2015 at 5:03 PM, Michael Talbott <span dir="ltr" class=""><<a href="mailto:mtalbott@lji.org" target="_blank" class="">mtalbott@lji.org</a>></span> wrote:<br class=""><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi,<br class="">
<br class="">
I've downgraded the cards (LSI 9211-8e) to v.19 and disabled their boot bios. But I'm still getting the 8 second per drive delay after the kernel loads. Any other ideas?<br class="">
<span class=""><br class=""></span></blockquote><div class=""><br class=""></div><div class="">8 seconds is way too long.   What JBODs and disks are you using?   Could it be they are powered off and the delay in waiting for the power on command to complete?   This could be accelerated by using lsiutils to send them all power on commands first.<br class=""><br class="">While I still consider it slow, however, my OmniOS systems with  LSI HBAs discover about 2 disks per second.   With systems with LOTS of disk all multipathed it still stacks up to a long time to discover them all.<br class=""><br class=""></div><div class="">-Chip<br class=""></div><div class=""> </div></div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class=""><div class="h5"><span class="">
<br class="">
________________________<br class="">
Michael Talbott<br class="">
Systems Administrator<br class="">
La Jolla Institute<br class="">
<br class="">
</span></div></div><div class=""><div class=""><div class=""><div class="h5">> On Jul 20, 2015, at 11:27 PM, Floris van Essen ..:: House of Ancients Amstafs ::.. <<a href="mailto:info@houseofancients.nl" target="_blank" class="">info@houseofancients.nl</a>> wrote:<br class="">
><br class="">
> Michael,<br class="">
><br class="">
> I know v20 does cause lots of issue's.<br class="">
> V19 , to the best of my knowledge doesn't contain any, so I would downgrade to v19<br class="">
><br class="">
><br class="">
> Kr,<br class="">
><br class="">
><br class="">
> Floris<br class="">
> -----Oorspronkelijk bericht-----<br class="">
> Van: OmniOS-discuss [mailto:<a href="mailto:omnios-discuss-bounces@lists.omniti.com" target="_blank" class="">omnios-discuss-bounces@lists.omniti.com</a>] Namens Michael Talbott<br class="">
> Verzonden: dinsdag 21 juli 2015 4:57<br class="">
> Aan: Marion Hakanson <<a href="mailto:hakansom@ohsu.edu" target="_blank" class="">hakansom@ohsu.edu</a>><br class="">
> CC: omnios-discuss <<a href="mailto:omnios-discuss@lists.omniti.com" target="_blank" class="">omnios-discuss@lists.omniti.com</a>><br class="">
> Onderwerp: Re: [OmniOS-discuss] Slow Drive Detection and boot-archive<br class="">
><br class="">
> Thanks for the reply. The bios for the card is disabled already. The 8 second per drive scan happens after the kernel has already loaded and it is scanning for devices. I wonder if it's due to running newer firmware. I did update the cards to fw v.20.something before I moved to omnios. Is there a particular firmware version on the cards I should run to match OmniOS's drivers?<br class="">
><br class="">
><br class="">
> ________________________<br class="">
> Michael Talbott<br class="">
> Systems Administrator<br class="">
> La Jolla Institute<br class="">
><br class="">
>> On Jul 20, 2015, at 6:06 PM, Marion Hakanson <<a href="mailto:hakansom@ohsu.edu" target="_blank" class="">hakansom@ohsu.edu</a>> wrote:<br class="">
>><br class="">
>> Michael,<br class="">
>><br class="">
>> I've not seen this;  I do have one system with 120 drives and it<br class="">
>> definitely does not have this problem.  A couple with 80+ drives are<br class="">
>> also free of this issue, though they are still running OpenIndiana.<br class="">
>><br class="">
>> One thing I pretty much always do here, is to disable the boot option<br class="">
>> in the LSI HBA's config utility (accessible from the during boot after<br class="">
>> the BIOS has started up).  I do this because I don't want the BIOS<br class="">
>> thinking it can boot from any of the external JBOD disks;  And also<br class="">
>> because I've had some system BIOS crashes when they tried to enumerate<br class="">
>> too many drives.  But, this all happens at the BIOS level, before the<br class="">
>> OS has even started up, so in theory it should not affect what you are<br class="">
>> seeing.<br class="">
>><br class="">
>> Regards,<br class="">
>><br class="">
>> Marion<br class="">
>><br class="">
>><br class="">
>> ================================================================<br class="">
>> Subject: Re: [OmniOS-discuss] Slow Drive Detection and boot-archive<br class="">
>> From: Michael Talbott <<a href="mailto:mtalbott@lji.org" target="_blank" class="">mtalbott@lji.org</a>><br class="">
>> Date: Fri, 17 Jul 2015 16:15:47 -0700<br class="">
>> To: omnios-discuss <<a href="mailto:omnios-discuss@lists.omniti.com" target="_blank" class="">omnios-discuss@lists.omniti.com</a>><br class="">
>><br class="">
>> Just realized my typo. I'm using this on my 90 and 180 drive systems:<br class="">
>><br class="">
>> # svccfg -s boot-archive setprop start/timeout_seconds=720 # svccfg -s<br class="">
>> boot-archive setprop start/timeout_seconds=1440<br class="">
>><br class="">
>> Seems like 8 seconds to detect each drive is pretty excessive.<br class="">
>><br class="">
>> Any ideas on how to speed that up?<br class="">
>><br class="">
>><br class="">
>> ________________________<br class="">
>> Michael Talbott<br class="">
>> Systems Administrator<br class="">
>> La Jolla Institute<br class="">
>><br class="">
>>> On Jul 17, 2015, at 4:07 PM, Michael Talbott <<a href="mailto:mtalbott@lji.org" target="_blank" class="">mtalbott@lji.org</a>> wrote:<br class="">
>>><br class="">
>>> I have multiple NAS servers I've moved to OmniOS and each of them have 90-180 4T disks. Everything has worked out pretty well for the most part. But I've come into an issue where when I reboot any of them, I'm getting boot-archive service timeouts happening. I found a workaround of increasing the timeout value which brings me to the following. As you can see below in a dmesg output, it's taking the kernel about 8 seconds to detect each of the drives. They're connected via a couple SAS2008 based LSI cards.<br class="">
>>><br class="">
>>> Is this normal?<br class="">
>>> Is there a way to speed that up?<br class="">
>>><br class="">
>>> I've fixed my frustrating boot-archive timeout problem by adjusting the timeout value from the default of 60 seconds (I guess that'll work ok on systems with less than 8 drives?) to 8 seconds * 90 drives + a little extra time = 280 seconds (for the 90 drive systems). Which means it takes between 12-24 minutes to boot those machines up.<br class="">
>>><br class="">
>>> # svccfg -s boot-archive setprop start/timeout_seconds=280<br class="">
>>><br class="">
>>> I figure I can't be the only one. A little googling also revealed:<br class="">
>>> <a href="https://www.illumos.org/issues/4614" rel="noreferrer" target="_blank" class="">https://www.illumos.org/issues/4614</a><br class="">
>>> <<a href="https://www.illumos.org/issues/4614" rel="noreferrer" target="_blank" class="">https://www.illumos.org/issues/4614</a>><br class="">
>>><br class=""></div></div>
>>> Jul 17 15:40:15 store2 genunix: [ID 583861 <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>] sd29 at<span class=""><br class="">
>>> mpt_sas3: unit-address w50000c0f0401bd43,0: w50000c0f0401bd43,0 Jul<br class=""></span>
>>> 17 15:40:15 store2 genunix: [ID 936769 <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>] sd29 is<br class="">
>>> /pci@0,0/pci8086,e06@2,2/pci1000,3080@0/iport@f/disk@w50000c0f0401bd4<br class="">
>>> 3,0 Jul 17 15:40:16 store2 genunix: [ID 408114 <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>]<span class=""><br class="">
>>> /pci@0,0/pci8086,e06@2,2/pci1000,3080@0/iport@f/disk@w50000c0f0401bd4<br class="">
>>> 3,0 (sd29) online Jul 17 15:40:24 store2 genunix: [ID 583861<br class=""></span>
>>> <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>] sd30 at mpt_sas3: unit-address w50000c0f045679c3,0:<span class=""><br class="">
>>> w50000c0f045679c3,0 Jul 17 15:40:24 store2 genunix: [ID 936769<br class=""></span>
>>> <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>] sd30 is<br class="">
>>> /pci@0,0/pci8086,e06@2,2/pci1000,3080@0/iport@f/disk@w50000c0f045679c<br class="">
>>> 3,0 Jul 17 15:40:24 store2 genunix: [ID 408114 <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>]<span class=""><br class="">
>>> /pci@0,0/pci8086,e06@2,2/pci1000,3080@0/iport@f/disk@w50000c0f045679c<br class="">
>>> 3,0 (sd30) online Jul 17 15:40:33 store2 genunix: [ID 583861<br class=""></span>
>>> <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>] sd31 at mpt_sas3: unit-address w50000c0f045712b3,0:<span class=""><br class="">
>>> w50000c0f045712b3,0 Jul 17 15:40:33 store2 genunix: [ID 936769<br class=""></span>
>>> <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>] sd31 is<br class="">
>>> /pci@0,0/pci8086,e06@2,2/pci1000,3080@0/iport@f/disk@w50000c0f045712b<br class="">
>>> 3,0 Jul 17 15:40:33 store2 genunix: [ID 408114 <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>]<span class=""><br class="">
>>> /pci@0,0/pci8086,e06@2,2/pci1000,3080@0/iport@f/disk@w50000c0f045712b<br class="">
>>> 3,0 (sd31) online Jul 17 15:40:42 store2 genunix: [ID 583861<br class=""></span>
>>> <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>] sd32 at mpt_sas3: unit-address w50000c0f04571497,0:<span class=""><br class="">
>>> w50000c0f04571497,0 Jul 17 15:40:42 store2 genunix: [ID 936769<br class=""></span>
>>> <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>] sd32 is<br class="">
>>> /pci@0,0/pci8086,e06@2,2/pci1000,3080@0/iport@f/disk@w50000c0f0457149<br class="">
>>> 7,0 Jul 17 15:40:42 store2 genunix: [ID 408114 <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>]<span class=""><br class="">
>>> /pci@0,0/pci8086,e06@2,2/pci1000,3080@0/iport@f/disk@w50000c0f0457149<br class="">
>>> 7,0 (sd32) online Jul 17 15:40:50 store2 genunix: [ID 583861<br class=""></span>
>>> <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>] sd33 at mpt_sas3: unit-address w50000c0f042ac8eb,0:<span class=""><br class="">
>>> w50000c0f042ac8eb,0 Jul 17 15:40:50 store2 genunix: [ID 936769<br class=""></span>
>>> <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>] sd33 is<br class="">
>>> /pci@0,0/pci8086,e06@2,2/pci1000,3080@0/iport@f/disk@w50000c0f042ac8e<br class="">
>>> b,0 Jul 17 15:40:50 store2 genunix: [ID 408114 <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>]<span class=""><br class="">
>>> /pci@0,0/pci8086,e06@2,2/pci1000,3080@0/iport@f/disk@w50000c0f042ac8e<br class="">
>>> b,0 (sd33) online Jul 17 15:40:59 store2 genunix: [ID 583861<br class=""></span>
>>> <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>] sd34 at mpt_sas3: unit-address w50000c0f04571473,0:<span class=""><br class="">
>>> w50000c0f04571473,0 Jul 17 15:40:59 store2 genunix: [ID 936769<br class=""></span>
>>> <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>] sd34 is<br class="">
>>> /pci@0,0/pci8086,e06@2,2/pci1000,3080@0/iport@f/disk@w50000c0f0457147<br class="">
>>> 3,0 Jul 17 15:40:59 store2 genunix: [ID 408114 <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>]<span class=""><br class="">
>>> /pci@0,0/pci8086,e06@2,2/pci1000,3080@0/iport@f/disk@w50000c0f0457147<br class="">
>>> 3,0 (sd34) online Jul 17 15:41:08 store2 genunix: [ID 583861<br class=""></span>
>>> <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>] sd35 at mpt_sas3: unit-address w50000c0f042c636f,0:<span class=""><br class="">
>>> w50000c0f042c636f,0 Jul 17 15:41:08 store2 genunix: [ID 936769<br class=""></span>
>>> <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>] sd35 is<br class="">
>>> /pci@0,0/pci8086,e06@2,2/pci1000,3080@0/iport@f/disk@w50000c0f042c636<br class="">
>>> f,0 Jul 17 15:41:08 store2 genunix: [ID 408114 <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>]<span class=""><br class="">
>>> /pci@0,0/pci8086,e06@2,2/pci1000,3080@0/iport@f/disk@w50000c0f042c636<br class="">
>>> f,0 (sd35) online Jul 17 15:41:17 store2 genunix: [ID 583861<br class=""></span>
>>> <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>] sd36 at mpt_sas3: unit-address w50000c0f0401bf2f,0:<span class=""><br class="">
>>> w50000c0f0401bf2f,0 Jul 17 15:41:17 store2 genunix: [ID 936769<br class=""></span>
>>> <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>] sd36 is<br class="">
>>> /pci@0,0/pci8086,e06@2,2/pci1000,3080@0/iport@f/disk@w50000c0f0401bf2<br class="">
>>> f,0 Jul 17 15:41:17 store2 genunix: [ID 408114 <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>]<span class=""><br class="">
>>> /pci@0,0/pci8086,e06@2,2/pci1000,3080@0/iport@f/disk@w50000c0f0401bf2<br class="">
>>> f,0 (sd36) online Jul 17 15:41:25 store2 genunix: [ID 583861<br class=""></span>
>>> <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>] sd38 at mpt_sas3: unit-address w50000c0f0401bc1f,0:<span class=""><br class="">
>>> w50000c0f0401bc1f,0 Jul 17 15:41:25 store2 genunix: [ID 936769<br class=""></span>
>>> <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>] sd38 is<br class="">
>>> /pci@0,0/pci8086,e06@2,2/pci1000,3080@0/iport@f/disk@w50000c0f0401bc1<br class="">
>>> f,0 Jul 17 15:41:26 store2 genunix: [ID 408114 <a href="http://kern.info/" rel="noreferrer" target="_blank" class="">kern.info</a>]<span class=""><br class="">
>>> /pci@0,0/pci8086,e06@2,2/pci1000,3080@0/iport@f/disk@w50000c0f0401bc1<br class="">
>>> f,0 (sd38) online<br class="">
>>><br class="">
>>><br class="">
>>> ________________________<br class="">
>>> Michael Talbott<br class="">
>>> Systems Administrator<br class="">
>>> La Jolla Institute<br class="">
>>><br class="">
>><br class="">
>> _______________________________________________<br class="">
>> OmniOS-discuss mailing list<br class="">
>> <a href="mailto:OmniOS-discuss@lists.omniti.com" target="_blank" class="">OmniOS-discuss@lists.omniti.com</a><br class="">
>> <a href="http://lists.omniti.com/mailman/listinfo/omnios-discuss" rel="noreferrer" target="_blank" class="">http://lists.omniti.com/mailman/listinfo/omnios-discuss</a><br class="">
>><br class="">
>><br class="">
><br class="">
> _______________________________________________<br class="">
> OmniOS-discuss mailing list<br class="">
> <a href="mailto:OmniOS-discuss@lists.omniti.com" target="_blank" class="">OmniOS-discuss@lists.omniti.com</a><br class="">
> <a href="http://lists.omniti.com/mailman/listinfo/omnios-discuss" rel="noreferrer" target="_blank" class="">http://lists.omniti.com/mailman/listinfo/omnios-discuss</a><br class="">
> ...:: House of Ancients ::...<br class="">
> American Staffordshire Terriers<br class="">
><br class="">
> <a href="tel:%2B31-628-161-350" value="+31628161350" target="_blank" class="">+31-628-161-350</a><br class="">
> <a href="tel:%2B31-614-198-389" value="+31614198389" target="_blank" class="">+31-614-198-389</a><br class="">
> Het Perk 48<br class="">
> 4903 RB<br class="">
> Oosterhout<br class="">
> Netherlands<br class=""></span>
> <a href="http://www.houseofancients.nl/" rel="noreferrer" target="_blank" class="">www.houseofancients.nl</a><span class=""><br class="">
<br class="">
_______________________________________________<br class="">
OmniOS-discuss mailing list<br class="">
<a href="mailto:OmniOS-discuss@lists.omniti.com" target="_blank" class="">OmniOS-discuss@lists.omniti.com</a><br class="">
<a href="http://lists.omniti.com/mailman/listinfo/omnios-discuss" rel="noreferrer" target="_blank" class="">http://lists.omniti.com/mailman/listinfo/omnios-discuss</a><br class="">
</span></div></div></blockquote></div><br class=""></div></div>
</div></blockquote></div><br class=""></div></div></blockquote></div><br class=""></div></div></div></div></div>
</div></blockquote></div><br class=""></div></body></html>