<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body dir="auto">
<div>Thank you Dan.</div>
<div id="AppleMailSignature"><br>
</div>
<div id="AppleMailSignature">Do you happen to have the process or know the location of a process document for only building ZFS?</div>
<div id="AppleMailSignature"><br>
</div>
<div id="AppleMailSignature">Ive re-built only nfs from illumos-gate in the past to resolve a bug but im wondering how I would build and install only zfs. (if its even possible).</div>
<div id="AppleMailSignature"><br>
</div>
<div id="AppleMailSignature">There are 2 bugs that we're suffering with at two different customer sites that didnt get into r151020 and Im not sure that we can make it till r151022 is released.</div>
<div id="AppleMailSignature"><br>
</div>
<div id="AppleMailSignature">Thanks for any advice<br>
<br>
<span style="font-size: 13pt;">John Barfield</span></div>
<div><br>
On Apr 9, 2017, at 6:55 PM, Dan McDonald <<a href="mailto:danmcd@omniti.com">danmcd@omniti.com</a>> wrote:<br>
<br>
</div>
<blockquote type="cite">
<div><span></span><br>
<blockquote type="cite"><span>On Apr 7, 2017, at 8:26 PM, John Barfield <<a href="mailto:john.barfield@bissinc.com">john.barfield@bissinc.com</a>> wrote:</span><br>
</blockquote>
<blockquote type="cite"><span></span><br>
</blockquote>
<blockquote type="cite"><span>Greetings,</span><br>
</blockquote>
<blockquote type="cite"><span></span><br>
</blockquote>
<blockquote type="cite"><span>I just want to report that after a clean istall of r151020 I found a bug whereby importing an older zpool from r151012 and running zpool upgrade causes an SSD cache device size to be reported incorrectly. (only 1 out of 4 devices
 in this instance)</span><br>
</blockquote>
<blockquote type="cite"><span></span><br>
</blockquote>
<blockquote type="cite"><span>The cache device size is 93gb and arcstat reported it to be 680gb.</span><br>
</blockquote>
<blockquote type="cite"><span></span><br>
</blockquote>
<blockquote type="cite"><span>I confirmed by monitoring zpool iostat -v and saw the same size being reported.</span><br>
</blockquote>
<blockquote type="cite"><span></span><br>
</blockquote>
<blockquote type="cite"><span>We've had a lot of weird io lockups (which is how I found the issue, we didnt notice it until a month after) that brings all of our NFS mounts to a screeching halt and this was the only thing I could find to be out of the ordinary
 on the system.</span><br>
</blockquote>
<blockquote type="cite"><span></span><br>
</blockquote>
<blockquote type="cite"><span>CPU average @1% , 20% of ram free, no crazy processes waiting on IO. It was completely invisible. At least from my testing using several dtrace scripts from the net.</span><br>
</blockquote>
<blockquote type="cite"><span></span><br>
</blockquote>
<blockquote type="cite"><span>I can only assume that the incorrect size reporting caused the zpool to fill the cache drive up beyond its physical capacity during periods of heavy load.</span><br>
</blockquote>
<blockquote type="cite"><span></span><br>
</blockquote>
<blockquote type="cite"><span>I removed all cache devices and then added them back to the zpool. Then all disks reported correctly again. Format/diskinfo always reported correctly so it was specific to zfs.</span><br>
</blockquote>
<blockquote type="cite"><span></span><br>
</blockquote>
<blockquote type="cite"><span>We're monitoring the NAS closely to see if the issues occur again.
</span><br>
</blockquote>
<span></span><br>
<span>The only thing I could find that might address the symptoms you see is this:</span><br>
<span></span><br>
<span>   <a href="https://illumos.org/issues/7504">https://illumos.org/issues/7504</a></span><br>
<span></span><br>
<span>Which didn't make it upstream in time to hit r151020.</span><br>
<span></span><br>
<span>You should forward this on to the illumos ZFS developers' list:  <a href="mailto:zfs@lists.illumos.org">zfs@lists.illumos.org</a>.</span><br>
<span></span><br>
<span>Dan</span><br>
<span></span><br>
</div>
</blockquote>
</body>
</html>