<div dir="ltr">Hello<div><br></div><div>If you use Gluster as FUSE mount it&#39;s always slower than you expect it to be.</div><div>If you want to get better performance out of your oVirt/Gluster storage, try the following: </div><div><br></div><div>- create a Linux VM in your oVirt environment, assign 4/8/12 virtual disks (Virtual disks are located on your Gluster storage volume).</div><div>- Boot/configure the VM, then use LVM to create VG/LV with 4 stripes (lvcreate -i 4) and use all 4/8/12 virtual disks as PVS.</div><div>- then install NFS server and export LV you created in previous step, use the NFS export as export domain in oVirt/RHEV.</div><div><br></div><div>You should get wire speed when you use multiple stripes on Gluster storage, FUSE mount on oVirt host will fan out requests to all 4 servers.</div><div>Gluster is very good at distributed/parallel workloads, but when you use direct Gluster FUSE mount for Export domain you only have one data stream, which is fragmented even more my multiple writes/reads that Gluster needs to do to save your data on all member servers.</div><div><br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Nov 27, 2017 at 8:41 PM, Donny Davis <span dir="ltr">&lt;<a href="mailto:donny@fortnebula.com" target="_blank">donny@fortnebula.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div dir="auto">What about mounting over nfs instead of the fuse client. Or maybe libgfapi. Is that available for export domains</div><br><div class="gmail_quote"><div><div class="h5"><div>On Fri, Nov 24, 2017 at 3:48 AM Jiří Sléžka &lt;<a href="mailto:jiri.slezka@slu.cz" target="_blank">jiri.slezka@slu.cz</a>&gt; wrote:<br></div></div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="h5">On 11/24/2017 06:41 AM, Sahina Bose wrote:<br>
&gt;<br>
&gt;<br>
&gt; On Thu, Nov 23, 2017 at 4:56 PM, Jiří Sléžka &lt;<a href="mailto:jiri.slezka@slu.cz" target="_blank">jiri.slezka@slu.cz</a><br>
&gt; &lt;mailto:<a href="mailto:jiri.slezka@slu.cz" target="_blank">jiri.slezka@slu.cz</a>&gt;&gt; wrote:<br>
&gt;<br>
&gt;     Hi,<br>
&gt;<br>
&gt;     On 11/22/2017 07:30 PM, Nir Soffer wrote:<br>
&gt;     &gt; On Mon, Nov 20, 2017 at 5:22 PM Jiří Sléžka &lt;<a href="mailto:jiri.slezka@slu.cz" target="_blank">jiri.slezka@slu.cz</a> &lt;mailto:<a href="mailto:jiri.slezka@slu.cz" target="_blank">jiri.slezka@slu.cz</a>&gt;<br>
&gt;     &gt; &lt;mailto:<a href="mailto:jiri.slezka@slu.cz" target="_blank">jiri.slezka@slu.cz</a> &lt;mailto:<a href="mailto:jiri.slezka@slu.cz" target="_blank">jiri.slezka@slu.cz</a>&gt;&gt;&gt; wrote:<br>
&gt;     &gt;<br>
&gt;     &gt;     Hi,<br>
&gt;     &gt;<br>
&gt;     &gt;     I am trying realize why is exporting of vm to export storage on<br>
&gt;     &gt;     glusterfs such slow.<br>
&gt;     &gt;<br>
&gt;     &gt;     I am using oVirt and RHV, both instalations on version 4.1.7.<br>
&gt;     &gt;<br>
&gt;     &gt;     Hosts have dedicated nics for rhevm network - 1gbps, data<br>
&gt;     storage itself<br>
&gt;     &gt;     is on FC.<br>
&gt;     &gt;<br>
&gt;     &gt;     GlusterFS cluster lives separate on 4 dedicated hosts. It has<br>
&gt;     slow disks<br>
&gt;     &gt;     but I can achieve about 200-400mbit throughput in other<br>
&gt;     applications (we<br>
&gt;     &gt;     are using it for &quot;cold&quot; data, backups mostly).<br>
&gt;     &gt;<br>
&gt;     &gt;     I am using this glusterfs cluster as backend for export<br>
&gt;     storage. When I<br>
&gt;     &gt;     am exporting vm I can see only about 60-80mbit throughput.<br>
&gt;     &gt;<br>
&gt;     &gt;     What could be the bottleneck here?<br>
&gt;     &gt;<br>
&gt;     &gt;     Could it be qemu-img utility?<br>
&gt;     &gt;<br>
&gt;     &gt;     vdsm      97739  0.3  0.0 354212 29148 ?        S&lt;l  15:43   0:06<br>
&gt;     &gt;     /usr/bin/qemu-img convert -p -t none -T none -f raw<br>
&gt;     &gt;   <br>
&gt;      /rhev/data-center/2ff6d0ee-<wbr>a10b-473d-b77c-be9149945f5f/<wbr>ff3cd56a-1005-4426-8137-<wbr>8f422c0b47c1/images/ba42cbcc-<wbr>c068-4df8-af3d-00f2077b1e27/<wbr>c57acd5f-d6cf-48cc-ad0c-<wbr>4a7d979c0c1e<br>
&gt;     &gt;     -O raw<br>
&gt;     &gt;   <br>
&gt;      /rhev/data-center/mnt/<wbr>glusterSD/10.20.30.41:_rhv__<wbr>export/81094499-a392-4ea2-<wbr>b081-7c6288fbb636/images/<wbr>ba42cbcc-c068-4df8-af3d-<wbr>00f2077b1e27/c57acd5f-d6cf-<wbr>48cc-ad0c-4a7d979c0c1e<br>
&gt;     &gt;<br>
&gt;     &gt;     Any idea how to make it work faster or what throughput should I<br>
&gt;     &gt;     expected?<br>
&gt;     &gt;<br>
&gt;     &gt;<br>
&gt;     &gt; gluster storage operations are using fuse mount - so every write:<br>
&gt;     &gt; - travel to the kernel<br>
&gt;     &gt; - travel back to the gluster fuse helper process<br>
&gt;     &gt; - travel to all 3 replicas - replication is done on client side<br>
&gt;     &gt; - return to kernel when all writes succeeded<br>
&gt;     &gt; - return to caller<br>
&gt;     &gt;<br>
&gt;     &gt; So gluster will never set any speed record.<br>
&gt;     &gt;<br>
&gt;     &gt; Additionally, you are copying from raw lv on FC - qemu-img cannot do<br>
&gt;     &gt; anything<br>
&gt;     &gt; smart and avoid copying unused clusters. Instead if copies<br>
&gt;     gigabytes of<br>
&gt;     &gt; zeros<br>
&gt;     &gt; from FC.<br>
&gt;<br>
&gt;     ok, it does make sense<br>
&gt;<br>
&gt;     &gt; However 7.5-10 MiB/s sounds too slow.<br>
&gt;     &gt;<br>
&gt;     &gt; I would try to test with dd - how much time it takes to copy<br>
&gt;     &gt; the same image from FC to your gluster storage?<br>
&gt;     &gt;<br>
&gt;     &gt; dd<br>
&gt;     &gt; if=/rhev/data-center/2ff6d0ee-<wbr>a10b-473d-b77c-be9149945f5f/<wbr>ff3cd56a-1005-4426-8137-<wbr>8f422c0b47c1/images/ba42cbcc-<wbr>c068-4df8-af3d-00f2077b1e27/<wbr>c57acd5f-d6cf-48cc-ad0c-<wbr>4a7d979c0c1e<br>
&gt;     &gt; of=/rhev/data-center/mnt/<wbr>glusterSD/10.20.30.41:_rhv__<wbr>export/81094499-a392-4ea2-<wbr>b081-7c6288fbb636/__test__<br>
&gt;     &gt; bs=8M oflag=direct status=progress<br>
&gt;<br>
&gt;     unfrotunately dd performs the same<br>
&gt;<br>
&gt;     1778384896 bytes (1.8 GB) copied, 198.565265 s, 9.0 MB/s<br>
&gt;<br>
&gt;<br>
&gt;     &gt; If dd can do this faster, please ask on qemu-discuss mailing list:<br>
&gt;     &gt; <a href="https://lists.nongnu.org/mailman/listinfo/qemu-discuss" rel="noreferrer" target="_blank">https://lists.nongnu.org/<wbr>mailman/listinfo/qemu-discuss</a><br>
&gt;     &lt;<a href="https://lists.nongnu.org/mailman/listinfo/qemu-discuss" rel="noreferrer" target="_blank">https://lists.nongnu.org/<wbr>mailman/listinfo/qemu-discuss</a>&gt;<br>
&gt;     &gt;<br>
&gt;     &gt; If both give similar results, I think asking in gluster mailing list<br>
&gt;     &gt; about this can help. Maybe your gluster setup can be optimized.<br>
&gt;<br>
&gt;     ok, this is definitly on the gluster side. Thanks for your guidance.<br>
&gt;<br>
&gt;     I will investigate the gluster side and also will try Export on NFS<br>
&gt;     share.<br>
&gt;<br>
&gt;<br>
&gt; [Adding gluster users ml]<br>
&gt;<br>
&gt; Please provide &quot;gluster volume info&quot; output for the rhv_export gluster<br>
&gt; volume and also volume profile details (refer to earlier mail from Shani<br>
&gt; on how to run this) while performing the dd operation above.<br>
<br>
you can find all this output on <a href="https://pastebin.com/sBK01VS8" rel="noreferrer" target="_blank">https://pastebin.com/sBK01VS8</a><br>
<br>
as mentioned in other posts. Gluster cluster uses really slow (green)<br>
disks but without direct io it can achieve throughput around 400mbit/s.<br>
<br>
This storage is used mostly for backup purposes. It is not used as a vm<br>
storage.<br>
<br>
In my case it would be nice not to use direct io in export case but I<br>
understand why it might not be wise.<br>
<br>
Cheers,<br>
<br>
Jiri<br>
<br>
&gt;<br>
&gt;  <br>
&gt;<br>
&gt;<br>
&gt;     Cheers,<br>
&gt;<br>
&gt;     Jiri<br>
&gt;<br>
&gt;<br>
&gt;     &gt;<br>
&gt;     &gt; Nir<br>
&gt;     &gt;  <br>
&gt;     &gt;<br>
&gt;     &gt;<br>
&gt;     &gt;     Cheers,<br>
&gt;     &gt;<br>
&gt;     &gt;     Jiri<br>
&gt;     &gt;<br>
&gt;     &gt;<br>
&gt;     &gt;     _____________________________<wbr>__________________<br>
&gt;     &gt;     Users mailing list<br>
&gt;     &gt;     <a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a> &lt;mailto:<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a>&gt;<br>
&gt;     &lt;mailto:<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a> &lt;mailto:<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a>&gt;&gt;<br>
&gt;     &gt;     <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/<wbr>mailman/listinfo/users</a><br>
&gt;     &lt;<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/<wbr>mailman/listinfo/users</a>&gt;<br>
&gt;     &gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;     _____________________________<wbr>__________________<br>
&gt;     Users mailing list<br>
&gt;     <a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a> &lt;mailto:<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a>&gt;<br>
&gt;     <a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/<wbr>mailman/listinfo/users</a><br>
&gt;     &lt;<a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/<wbr>mailman/listinfo/users</a>&gt;<br>
&gt;<br>
&gt;<br>
<br>
<br>
______________________________<wbr>_________________<br>
Users mailing list<br>
<a href="mailto:Users@ovirt.org" target="_blank">Users@ovirt.org</a><br>
</div></div><a href="http://lists.ovirt.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.ovirt.org/<wbr>mailman/listinfo/users</a><br>
</blockquote></div></div>
<br>______________________________<wbr>_________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://lists.gluster.org/<wbr>mailman/listinfo/gluster-users</a><br></blockquote></div><br></div>