<p dir="ltr">Hey All,</p>
<p dir="ltr">I have managed to migrate but with some slight changes.<br>
I'm using teaming with balance runner (l3 + l4 for balance hashing) on 6 ports (2 dual port + 2 nics using only 1 port&nbsp; ) per machine.<br>
Running some tests (8 network connections in parallel)&nbsp; between the replica nodes shows&nbsp; an aggregated&nbsp; bandwidth of 400+ MB/s (megabytes).</p>
<p dir="ltr">Now I need to 'force' gluster to open more connections in order to spread the load to as many ports as possible.<br>
I have tried with client &amp; server event-threads set to 6 , but the performance is bellow my expectations .</p>
<p dir="ltr">Any hints will be appreciated.</p>
<p dir="ltr">Best Regards,<br>
Strahil Nikolov </p>
<div class="quote">On May 10, 2019 13:36, Strahil &lt;hunter86_bg@yahoo.com&gt; wrote:<br type='attribution'><blockquote class="quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><p dir="ltr">Hello Community,</p>
<p dir="ltr">I&#39;m making some changes and I would like to hear  your opinion on the topic.</p>
<p dir="ltr">First, let me share my setup.<br />
I have 3 systems with in a replica 3 arbiter 1 hyperconverged setup (oVirt) which use 1 gbit networks for any connectivity.</p>
<p dir="ltr">I have added 4 dual-port 1 gbit NICs ( 8 ports per machine in total) and connected them directly between ovirt1 and ovirt2 /data nodes/ with LACP aggregation (layer3&#43;layer4 hashing).</p>
<p dir="ltr">As ovirt1 &amp; ovirt2 are directly connected /trying to reduce costs by avoiding the switch/ I have  setup /etc/hosts for the arbiter  /ovirt3/ to point tothe old IPs .</p>
<p dir="ltr">So they look like:<br />
ovirt1 &amp; ovirt2 /data nodes/  /etc/hosts:</p>
<p dir="ltr"><a href="http://127.0.0.1">127.0.0.1</a>   localhost localhost.localdomain localhost4 localhost4.localdomain4<br />
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6<br />
<a href="http://192.168.1.90">192.168.1.90</a> ovirt1.localdomain ovirt1<br />
<a href="http://192.168.1.64">192.168.1.64</a> ovirt2.localdomain ovirt2<br />
<a href="http://192.168.1.41">192.168.1.41</a> ovirt3.localdomain ovirt3<br />
<a href="http://10.10.10.1">10.10.10.1</a>   gluster1.localdomain gluster1<br />
<a href="http://10.10.10.2">10.10.10.2</a>   gluster2.localdomain gluster2</p>
<p dir="ltr">ovirt3 /etc/hosts:</p>
<p dir="ltr"><a href="http://127.0.0.1">127.0.0.1</a>   localhost localhost.localdomain localhost4 localhost4.localdomain4<br />
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6<br />
#As gluster1 &amp; gluster2 are directly connected , we cannot reach them.<br />
<a href="http://192.168.1.90">192.168.1.90</a> ovirt1.localdomain ovirt1 gluster1<br />
<a href="http://192.168.1.64">192.168.1.64</a> ovirt2.localdomain ovirt2 gluster2<br />
<a href="http://192.168.1.41">192.168.1.41</a> ovirt3.localdomain ovirt3</p>
<p dir="ltr">Do you see any obstacles to &#39;peer probe&#39; and then &#39;replace brick&#39; the 2 data nodes.<br />
Downtime is not an issue, but I preffer not to wipe the setup.</p>
<p dir="ltr">Thanks for reading this long post and don&#39;t hesitate to recommend any tunings.<br />
I am still considering what values to put for the  client/server thread count.</p>
<p dir="ltr">Best Regards,<br />
Strahil Nikolov</p>
</blockquote></div>