<div dir="ltr">You might want to read this thread (especially the comments).<div><br></div><div><a href="http://lists.ceph.com/pipermail/ceph-users-ceph.com/2017-January/015599.html">http://lists.ceph.com/pipermail/ceph-users-ceph.com/2017-January/015599.html</a><br></div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr">On Sat, Jun 16, 2018 at 10:46 AM Michael Talbott <<a href="mailto:mtalbott@lji.org">mtalbott@lji.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">We've been using OmniOS happily for years now for our storage server needs. But we're rapidly increasing our data footprint and growing so much (multiple PBs per year) that ideally I'd like to move to a cluster based object store based system ontop of OmniOS. I successfully use BeeGFS inside lxzones in OmniOS which seems to work nicely for our HPC scratch volume, but, it doesn't sound like it scales to hundreds of millions of files very well.<br>
<br>
I am hoping that someone has some ideas for me. Ideally I'd like something that's cluster capable and has erasure coding like Ceph and have cluster aware snapshots (not local zfs snaps) and an s3 compatibility/access layer.<br>
<br>
Any thoughts on the topic are greatly appreciated.<br>
<br>
Thanks,<br>
<br>
Michael<br>
Sent from my iPhone<br>
_______________________________________________<br>
OmniOS-discuss mailing list<br>
<a href="mailto:OmniOS-discuss@lists.omniti.com" target="_blank">OmniOS-discuss@lists.omniti.com</a><br>
<a href="http://lists.omniti.com/mailman/listinfo/omnios-discuss" rel="noreferrer" target="_blank">http://lists.omniti.com/mailman/listinfo/omnios-discuss</a><br>
</blockquote></div><br clear="all"><div><br></div>-- <br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature">Ian Kaufman<br>Research Systems Administrator<br>UC San Diego, Jacobs School of Engineering ikaufman AT ucsd DOT edu <br></div>