Thanks for the help guys.  Integrated CIFS.  Reads are fast.  The pool is about 60% full only.<div><br></div><div>Thanks for the tips!  I'll try iostat to sniff this out<span></span><br><br>On Tuesday, May 19, 2015, Jim Klimov <<a href="mailto:jimklimov@cos.ru">jimklimov@cos.ru</a>> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">18 мая 2015 г. 23:18:15 CEST, Dain Bentley <<a href="javascript:;" onclick="_e(event, 'cvml', 'dain.bentley@gmail.com')">dain.bentley@gmail.com</a>> пишет:<br>
>Hello all,  I have a RaidZ setup with 5 disks and rad performance is<br>
>good.<br>
>I have no ZIL pool and 8 GB or ECC Ram.  Writes are like 2 MB a second<br>
>with<br>
>a 1GB network.  I'm pulling faster writes on a similar drive in a<br>
>windows<br>
>VM over CIFS on VMware.  My OmniOS box is bare metal.  Any tips on<br>
>speeding<br>
>this up?<br>
><br>
><br>
>------------------------------------------------------------------------<br>
><br>
>_______________________________________________<br>
>OmniOS-discuss mailing list<br>
><a href="javascript:;" onclick="_e(event, 'cvml', 'OmniOS-discuss@lists.omniti.com')">OmniOS-discuss@lists.omniti.com</a><br>
><a href="http://lists.omniti.com/mailman/listinfo/omnios-discuss" target="_blank">http://lists.omniti.com/mailman/listinfo/omnios-discuss</a><br>
<br>
Do you have dedup enabled? (This is pretty slow, and needs lots of metadata reads to make each write, and little RAM and no L2ARC is very bad with this)<br>
<br>
Also, very full pools (vague definition based on history of the writes - generally 80% as a rule of thumb, though pathologies can be after 50% for some and 95%+ for others) - these can have very fragmented and small 'holes' in free space, which impacts write speeds (more random, and it takes more time to find the available location for a block).<br>
<br>
You can also look at 'iostat -Xnz 1' output to see the i/o values per active device. Younare interested in reads/sec+writes/sec (hdds can serve about 200ops/sec total, unless they happen to be small requests to sequentially placed sector numbers - in theory you might be lucky to see even 20000iops in such favorable case, in practice about 500 is not uncommon since related block locations in zfs are often coalesced). In iostat you'd also worry about %b(usy), %w(rite-wait) to see if some disks have a very different performance than others (e.g. one has internal problems and sector relocations to spare areas, or flaky cabling and many protocol re-requests involved in succesful ops). svct (service times) and queue lengths can also be useful.<br>
<br>
You can get similar info with 'zpool iostat -v 1' as well, though interactions between pool io's and component vdev io's may be tricky to compare between raidz and mirror for example. You might be more interested in averaged differences (maybe across larger time ranges) between these two iostats - e.g. if you have some other io's that those from the pool (say, a raw swap partition).<br>
<br>
Finally, consider dtrace-toolkit's and Richard Elling's scripts to sniff what logical (file/vdev) operations you have - and see how these numbers compare to those in pool i/o's at least on the order of magnitude. The difference can be metadata ops, or something else.<br>
<br>
Hooe this helps get you started,<br>
Jim Klimov<br>
--<br>
Typos courtesy of K-9 Mail on my Samsung Android<br>
</blockquote></div>