<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr">On Fri, Dec 14, 2018 at 10:20 AM Richard Elling <<a href="mailto:richard.elling@richardelling.com">richard.elling@richardelling.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br>I can't speak to the Supermicro, but I can talk in detail about <a href="https://www.vikingenterprisesolutions.com/products-2/nds-2244/" rel="noreferrer" target="_blank">https://www.vikingenterprisesolutions.com/products-2/nds-2244/</a><br>
<br>
> <br>
> While I do not run HA because of too many issues, I still build everything with two server nodes.  This makes updates and reboots possible by moving a pool to the sister host and greatly minimizing downtime.   This is essential when the NFS target is hosting 300+ vSphere VMs.<br>
<br>
The NDS-2244 is a 24-slot u.2 NVMe chassis with programmable PCIe switches.<br>
To the host, the devices look like locally attached NVMe and there is no software<br>
changes required. Multiple hosts can connect, up to the PCIe port limits. If you use<br>
dual-port NVMe drives, then you can share the drives between any two hosts concurrently.<br>
Programming the switches is accomplished out-of-band by an HTTTP-based interface<br>
that also monitors the enclosure.<br>
<br>
In other words, if you want a NVMe equivalent to a dual-hosted SAS JBOD, the NDS-2244<br>
is very capable, but more configurable.<br>
 -- richard<br>
<br></blockquote><div><br></div><div>This is execellent.   I like the idea of only one host seeing the SSDs at once, but a programatic way to flip them to the other host.   This solves the fencing problem in ZFS nicely.  </div><div><br></div><div>Thanks for product reference.   The Viking JBOF looks like what I need.</div><div><br></div><div>-Chip </div></div></div>