<div dir="ltr"><div class="gmail_extra"><br><div class="gmail_quote">2014-08-28 13:26 GMT+02:00 Jim Klimov <span dir="ltr"><<a href="mailto:jimklimov@cos.ru" target="_blank">jimklimov@cos.ru</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
28 августа 2014 г. 12:24:17 CEST, Theo Schlossnagle <<a href="mailto:jesus@omniti.com">jesus@omniti.com</a>> пишет:<br>
<div class="">>It depends on what services you are intending to make highly available.<br>
>We<br>
>do this got load balancing, http acceleration and nat using vippy. It<br>
>is<br>
>not really suited toward making services like NFS fail over.<br>
>On Aug 28, 2014 4:47 AM, "Vincenzo Pii" <<a href="mailto:piiv@zhaw.ch">piiv@zhaw.ch</a>> wrote:<br>
><br>
</div><div><div class="h5">>> Hello,<br>
>><br>
>> What software/technologies can be used on OmniOS to get an<br>
>active/passive<br>
>> setup between two (OmniOS) nodes?<br>
>><br>
>> Basically, one node should be up and running all the time and, in<br>
>case of<br>
>> failures, the second one should take over transparently.<br>
>><br>
>> Is the IHAC project (<a href="https://www.illumos.org/projects/ihac" target="_blank">https://www.illumos.org/projects/ihac</a>) still<br>
>alive<br>
>> or forked and maintained somewhere else? When trying to access the<br>
>> Repository I get a 404...<br>
>><br>
>> Many thanks,<br>
>> Vincenzo.<br>
>><br>
>> --<br>
>> Vincenzo Pii<br>
>> Researcher, InIT Cloud Computing Lab<br>
>> Zurich University of Applied Sciences (ZHAW)<br>
>> <a href="http://www.cloudcomp.ch/" target="_blank">http://www.cloudcomp.ch/</a><br>
>><br>
</div></div><div class="">>> _______________________________________________<br>
>> OmniOS-discuss mailing list<br>
>> <a href="mailto:OmniOS-discuss@lists.omniti.com">OmniOS-discuss@lists.omniti.com</a><br>
>> <a href="http://lists.omniti.com/mailman/listinfo/omnios-discuss" target="_blank">http://lists.omniti.com/mailman/listinfo/omnios-discuss</a><br>
>><br>
>><br>
><br>
><br>
</div>>------------------------------------------------------------------------<br>
<div class="">><br>
>_______________________________________________<br>
>OmniOS-discuss mailing list<br>
><a href="mailto:OmniOS-discuss@lists.omniti.com">OmniOS-discuss@lists.omniti.com</a><br>
><a href="http://lists.omniti.com/mailman/listinfo/omnios-discuss" target="_blank">http://lists.omniti.com/mailman/listinfo/omnios-discuss</a><br>
<br>
</div>Probably, something of the kind might be done by serving the applications/databases/etc. from local zones, hosted along with HA data on storage equally available to two head-nodes.<br>
<br>
Then the failover is about grabbing the pool, and starting the zones. Securely mastering the zfs pool, as well as STONITH and fencing is the tricky part.<br>
<br>
Firing up the services (pool and zones and maybe VMs) is simple and can be SMFized to do in proper order as dependencies are met, I blogged on that with code snippets in OI/illumos wikis somewhere ;)<br>
<br>
HTH, Jim<br>
--<br>
Typos courtesy of K-9 Mail on my Samsung Android<br>
</blockquote></div><br><br>How would you detect a failure in this case?</div><div class="gmail_extra">I mean, which clustering software would you use for this scenario?</div><div class="gmail_extra"><br></div><div class="gmail_extra">
Many thanks!<br clear="all"><div><br></div>-- <br><div dir="ltr"><div>Vincenzo Pii<br></div>Researcher, InIT Cloud Computing Lab<br>Zurich University of Applied Sciences (ZHAW)<br><a href="http://www.cloudcomp.ch/" style="color:rgb(17,85,204)" target="_blank">http://www.cloudcomp.ch/</a><br>
</div>
</div></div>