<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1">
<style type="text/css" style="display:none;"> P {margin-top:0;margin-bottom:0;} </style>
</head>
<body dir="ltr">
<div style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);">
Unsubscribe</div>
<div style="font-family: Calibri, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);">
<br>
</div>
<div id="Signature">
<p>Sent from <a href="http://aka.ms/weboutlook">Outlook</a><br>
</p>
<div>
<div id="appendonsend"></div>
<div style="font-family:Calibri,Helvetica,sans-serif; font-size:12pt; color:rgb(0,0,0)">
<br>
</div>
<hr tabindex="-1" style="display:inline-block; width:98%">
<div id="divRplyFwdMsg" dir="ltr"><font face="Calibri, sans-serif" color="#000000" style="font-size:11pt"><b>From:</b> gluster-users-bounces@gluster.org &lt;gluster-users-bounces@gluster.org&gt; on behalf of gluster-users-request@gluster.org &lt;gluster-users-request@gluster.org&gt;<br>
<b>Sent:</b> October 18, 2019 5:00 AM<br>
<b>To:</b> gluster-users@gluster.org &lt;gluster-users@gluster.org&gt;<br>
<b>Subject:</b> Gluster-users Digest, Vol 138, Issue 14</font>
<div>&nbsp;</div>
</div>
<div class="BodyFragment"><font size="2"><span style="font-size:11pt">
<div class="PlainText">Send Gluster-users mailing list submissions to<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; gluster-users@gluster.org<br>
<br>
To subscribe or unsubscribe via the World Wide Web, visit<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
or, via email, send a message with subject or body 'help' to<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; gluster-users-request@gluster.org<br>
<br>
You can reach the person managing the list at<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; gluster-users-owner@gluster.org<br>
<br>
When replying, please edit your Subject line so it is more specific<br>
than &quot;Re: Contents of Gluster-users digest...&quot;<br>
<br>
<br>
Today's Topics:<br>
<br>
&nbsp;&nbsp; 1. Mirror <a href="https://download.gluster.org/">https://download.gluster.org/</a> is not working<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (Alberto Bengoa)<br>
&nbsp;&nbsp; 2. Re: Issues with Geo-replication (GlusterFS 6.3 on Ubuntu<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 18.04) (Aravinda Vishwanathapura Krishna Murthy)<br>
&nbsp;&nbsp; 3. Re: Single Point of failure in geo Replication<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (Aravinda Vishwanathapura Krishna Murthy)<br>
&nbsp;&nbsp; 4. Re: On a glusterfsd service (Amar Tumballi)<br>
&nbsp;&nbsp; 5. Re: Mirror <a href="https://download.gluster.org/">https://download.gluster.org/</a> is not&nbsp;&nbsp;&nbsp; working<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (Kaleb Keithley)<br>
&nbsp;&nbsp; 6. Re: Issues with Geo-replication (GlusterFS 6.3 on Ubuntu<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 18.04) (Alexander Iliev)<br>
<br>
<br>
----------------------------------------------------------------------<br>
<br>
Message: 1<br>
Date: Thu, 17 Oct 2019 15:55:25 &#43;0100<br>
From: Alberto Bengoa &lt;bengoa@gmail.com&gt;<br>
To: gluster-users &lt;gluster-users@gluster.org&gt;<br>
Subject: [Gluster-users] Mirror <a href="https://download.gluster.org/">https://download.gluster.org/</a> is not<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; working<br>
Message-ID:<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;CA&#43;vk31b5qomQVXQ10ofD5jL&#43;kkhMqaamALUg7XKEcK-X7Ju1yw@mail.gmail.com&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;<br>
<br>
Guys,<br>
<br>
Anybody from Gluster Team has one word about the mirror status? It is<br>
failing since (maybe?) yesterday.<br>
<br>
root@nas-bkp /tmp $ yum install glusterfs-client<br>
GlusterFS is a clustered file-system capable of scaling to several petabyte<br>
2.1 kB/s | 2.9 kB&nbsp;&nbsp;&nbsp;&nbsp; 00:01<br>
Dependencies resolved.<br>
============================================================================================================<br>
&nbsp;Package&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Arch&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Version<br>
&nbsp;Repository&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Size<br>
============================================================================================================<br>
Installing:<br>
&nbsp;glusterfs-fuse&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; x86_64&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 6.5-2.el8<br>
&nbsp;glusterfs-rhel8&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 167 k<br>
Installing dependencies:<br>
&nbsp;glusterfs&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; x86_64&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 6.5-2.el8<br>
&nbsp;glusterfs-rhel8&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 681 k<br>
&nbsp;glusterfs-client-xlators&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; x86_64&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 6.5-2.el8<br>
&nbsp;glusterfs-rhel8&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 893 k<br>
&nbsp;glusterfs-libs&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; x86_64&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 6.5-2.el8<br>
&nbsp;glusterfs-rhel8&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 440 k<br>
<br>
Transaction Summary<br>
============================================================================================================<br>
Install&nbsp; 4 Packages<br>
<br>
Total download size: 2.1 M<br>
Installed size: 9.1 M<br>
Is this ok [y/N]: y<br>
Downloading Packages:<br>
[MIRROR] glusterfs-6.5-2.el8.x86_64.rpm: Curl error (18): Transferred a<br>
partial file for<br>
<a href="https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm">https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm</a><br>
[transfer closed with 648927 bytes remaining to read]<br>
[FAILED] glusterfs-6.5-2.el8.x86_64.rpm: No more mirrors to try - All<br>
mirrors were already tried without success<br>
(2-3/4): glusterfs-client-xlators- 34% [===========-&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ]<br>
562 kB/s | 745 kB&nbsp;&nbsp;&nbsp;&nbsp; 00:02 ETA<br>
The downloaded packages were saved in cache until the next successful<br>
transaction.<br>
You can remove cached packages by executing 'dnf clean packages'.<br>
Error: Error downloading packages:<br>
&nbsp; Cannot download glusterfs-6.5-2.el8.x86_64.rpm: All mirrors were tried<br>
<br>
If you try to download using wget it fails as well:<br>
<br>
root@nas-bkp /tmp $ wget<br>
<a href="https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm">https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm</a><br>
--2019-10-17 15:53:41--<br>
<a href="https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm">https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm</a><br>
Resolving download.gluster.org (download.gluster.org)... 8.43.85.185<br>
Connecting to download.gluster.org (download.gluster.org)|8.43.85.185|:443...<br>
connected.<br>
HTTP request sent, awaiting response... 200 OK<br>
Length: 697688 (681K) [application/x-rpm]<br>
Saving to: ?glusterfs-6.5-2.el8.x86_64.rpm.1?<br>
<br>
glusterfs-6.5-2.el8.x86_64&nbsp;&nbsp; 6%[=&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ]<br>
&nbsp;47.62K&nbsp; --.-KB/s&nbsp;&nbsp;&nbsp; in 0.09s<br>
<br>
2019-10-17 15:53:42 (559 KB/s) - Read error at byte 48761/697688 (Error<br>
decoding the received TLS packet.). Retrying.<br>
<br>
--2019-10-17 15:53:43--&nbsp; (try: 2)<br>
<a href="https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm">https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm</a><br>
Connecting to download.gluster.org (download.gluster.org)|8.43.85.185|:443...<br>
connected.<br>
HTTP request sent, awaiting response... ^C<br>
root@nas-bkp /tmp $ wget<br>
<a href="https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm">https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm</a><br>
--2019-10-17 15:53:45--<br>
<a href="https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm">https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm</a><br>
Resolving download.gluster.org (download.gluster.org)... 8.43.85.185<br>
Connecting to download.gluster.org (download.gluster.org)|8.43.85.185|:443...<br>
connected.<br>
HTTP request sent, awaiting response... 200 OK<br>
Length: 697688 (681K) [application/x-rpm]<br>
Saving to: ?glusterfs-6.5-2.el8.x86_64.rpm.2?<br>
<br>
glusterfs-6.5-2.el8.x86_64&nbsp;&nbsp; 6%[=&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ]<br>
&nbsp;47.62K&nbsp; --.-KB/s&nbsp;&nbsp;&nbsp; in 0.08s<br>
<br>
2019-10-17 15:53:46 (564 KB/s) - Read error at byte 48761/697688 (Error<br>
decoding the received TLS packet.). Retrying.<br>
<br>
--2019-10-17 15:53:47--&nbsp; (try: 2)<br>
<a href="https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm">https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm</a><br>
Connecting to download.gluster.org (download.gluster.org)|8.43.85.185|:443...<br>
connected.<br>
HTTP request sent, awaiting response... 206 Partial Content<br>
Length: 697688 (681K), 648927 (634K) remaining [application/x-rpm]<br>
Saving to: ?glusterfs-6.5-2.el8.x86_64.rpm.2?<br>
<br>
glusterfs-6.5-2.el8.x86_64&nbsp; 13%[&#43;&#43;==&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ]<br>
&nbsp;95.18K&nbsp; --.-KB/s&nbsp;&nbsp;&nbsp; in 0.08s<br>
<br>
2019-10-17 15:53:47 (563 KB/s) - Read error at byte 97467/697688 (Error<br>
decoding the received TLS packet.). Retrying.<br>
<br>
<br>
Thank you!<br>
<br>
Alberto Bengoa<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://lists.gluster.org/pipermail/gluster-users/attachments/20191017/146a4068/attachment-0001.html">http://lists.gluster.org/pipermail/gluster-users/attachments/20191017/146a4068/attachment-0001.html</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 2<br>
Date: Thu, 17 Oct 2019 21:02:42 &#43;0530<br>
From: Aravinda Vishwanathapura Krishna Murthy &lt;avishwan@redhat.com&gt;<br>
To: Alexander Iliev &lt;ailiev&#43;gluster@mamul.org&gt;<br>
Cc: gluster-users &lt;gluster-users@gluster.org&gt;<br>
Subject: Re: [Gluster-users] Issues with Geo-replication (GlusterFS<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 6.3 on Ubuntu 18.04)<br>
Message-ID:<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;CA&#43;8EeuNwuYJs0Yxk8zqKYc2VxdGM0xU6ivGpLE3oo28oxzbqLA@mail.gmail.com&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;<br>
<br>
On Thu, Oct 17, 2019 at 12:54 PM Alexander Iliev &lt;ailiev&#43;gluster@mamul.org&gt;<br>
wrote:<br>
<br>
&gt; Thanks, Aravinda.<br>
&gt;<br>
&gt; Does this mean that my scenario is currently unsupported?<br>
&gt;<br>
<br>
Please try by providing external IP while creating Geo-rep session. We will<br>
work on the enhancement if it didn't work.<br>
<br>
<br>
&gt; It seems that I need to make sure that the nodes in the two clusters can<br>
&gt; see each-other (some kind of VPN would work I guess).<br>
&gt;<br>
&gt; Is this be documented somewhere? I think I've read the geo-replication<br>
&gt; documentation several times now, but somehow it wasn't obvious to me<br>
&gt; that you need access to the slave nodes from the master ones (apart from<br>
&gt; the SSH access).<br>
&gt;<br>
&gt; Thanks!<br>
&gt;<br>
&gt; Best regards,<br>
&gt; --<br>
&gt; alexander iliev<br>
&gt;<br>
&gt; On 10/17/19 5:25 AM, Aravinda Vishwanathapura Krishna Murthy wrote:<br>
&gt; &gt; Got it.<br>
&gt; &gt;<br>
&gt; &gt; Geo-replication uses slave nodes IP in the following cases,<br>
&gt; &gt;<br>
&gt; &gt; - Verification during Session creation - It tries to mount the Slave<br>
&gt; &gt; volume using the hostname/IP provided in Geo-rep create command. Try<br>
&gt; &gt; Geo-rep create by specifying the external IP which is accessible from<br>
&gt; &gt; the master node.<br>
&gt; &gt; - Once Geo-replication is started, it gets the list of Slave nodes<br>
&gt; &gt; IP/hostname from Slave volume info and connects to those IPs. But in<br>
&gt; &gt; this case, those are internal IP addresses that are not accessible from<br>
&gt; &gt; Master nodes. - We need to enhance Geo-replication to accept external IP<br>
&gt; &gt; and internal IP map details so that for all connections it can use<br>
&gt; &gt; external IP.<br>
&gt; &gt;<br>
&gt; &gt; On Wed, Oct 16, 2019 at 10:29 PM Alexander Iliev<br>
&gt; &gt; &lt;ailiev&#43;gluster@mamul.org &lt;<a href="mailto:ailiev%2Bgluster@mamul.org">mailto:ailiev%2Bgluster@mamul.org</a>&gt;&gt; wrote:<br>
&gt; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; Hi Aravinda,<br>
&gt; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; All volume brick on the slave volume are up and the volume seems<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; functional.<br>
&gt; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; Your suggestion about trying to mount the slave volume on a master<br>
&gt; node<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; brings up my question about network connectivity again - the<br>
&gt; GlusterFS<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; documentation[1] says:<br>
&gt; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; The server specified in the mount command is only used to fetch<br>
&gt; the<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; gluster configuration volfile describing the volume name.<br>
&gt; Subsequently,<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; the client will communicate directly with the servers mentioned in<br>
&gt; the<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; volfile (which might not even include the one used for mount).<br>
&gt; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; To me this means that the masternode from your example is expected to<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; have connectivity to the network where the slave volume runs, i.e. to<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; have network access to the slave nodes. In my geo-replication<br>
&gt; scenario<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; this is definitely not the case. The two cluster are running in two<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; completely different networks that are not interconnected.<br>
&gt; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; So my question is - how is the slave volume mount expected to happen<br>
&gt; if<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; the client host cannot access the GlusterFS nodes? Or is the<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; connectivity a requirement even for geo-replication?<br>
&gt; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; I'm not sure if I'm missing something, but any help will be highly<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; appreciated!<br>
&gt; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; Thanks!<br>
&gt; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; Links:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; [1]<br>
&gt; &gt;<br>
&gt; <a href="https://gluster.readthedocs.io/en/latest/Administrator%20Guide/Setting%20Up%20Clients/">
https://gluster.readthedocs.io/en/latest/Administrator%20Guide/Setting%20Up%20Clients/</a><br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; --<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; alexander iliev<br>
&gt; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; On 10/16/19 6:03 AM, Aravinda Vishwanathapura Krishna Murthy wrote:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; Hi Alexander,<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; Please check the status of Volume. Looks like the Slave volume<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; mount is<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; failing because bricks are down or not reachable. If Volume<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; status shows<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; all bricks are up then try mounting the slave volume using mount<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; command.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; ```<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; masternode$ mkdir /mnt/vol<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; masternode$ mount -t glusterfs &lt;slavehost&gt;:&lt;slavevol&gt; /mnt/vol<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; ```<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; On Fri, Oct 11, 2019 at 4:03 AM Alexander Iliev<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; &lt;ailiev&#43;gluster@mamul.org &lt;<a href="mailto:ailiev%2Bgluster@mamul.org">mailto:ailiev%2Bgluster@mamul.org</a>&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href=""></a>mailto:ailiev%2Bgluster@mamul.org<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%252Bgluster@mamul.org">mailto:ailiev%252Bgluster@mamul.org</a>&gt;&gt;&gt; wrote:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; Hi all,<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; I ended up reinstalling the nodes with CentOS 7.5 and<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; GlusterFS 6.5<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; (installed from the SIG.)<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; Now when I try to create a replication session I get the<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; following:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; # gluster volume geo-replication store1<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;slave-host&gt;::store2 create<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; push-pem<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; Unable to mount and fetch slave volume details. Please<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; check the<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; log:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; /var/log/glusterfs/geo-replication/gverify-slavemnt.log<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; geo-replication command failed<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; You can find the contents of gverify-slavemnt.log below, but<br>
&gt; the<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; initial<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; error seems to be:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; [2019-10-10 22:07:51.578519] E<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; [fuse-bridge.c:5211:fuse_first_lookup]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; 0-fuse: first lookup on root failed (Transport endpoint is not<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; connected)<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; I only found<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; [this](https://bugzilla.redhat.com/show_bug.cgi?id=1659824)<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; bug report which doesn't seem to help. The reported issue is<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; failure to<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; mount a volume on a GlusterFS client, but in my case I need<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; geo-replication which implies the client (geo-replication<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; master) being<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; on a different network.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; Any help will be appreciated.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; Thanks!<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; gverify-slavemnt.log:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; [2019-10-10 22:07:40.571256] I [MSGID: 100030]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; [glusterfsd.c:2847:main] 0-glusterfs: Started running<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; glusterfs version<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; 6.5 (args: glusterfs --xlator-option=*dht.lookup-unhashed=off<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; --volfile-server &lt;slave-host&gt; --volfile-id store2 -l<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; /var/log/glusterfs/geo-replication/gverify-slavemnt.log<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; /tmp/gverify.sh.5nFlRh)<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; [2019-10-10 22:07:40.575438] I<br>
&gt; [glusterfsd.c:2556:daemonize]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; 0-glusterfs: Pid of current running process is 6021<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; [2019-10-10 22:07:40.584282] I [MSGID: 101190]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; [event-epoll.c:680:event_dispatch_epoll_worker] 0-epoll:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; Started thread<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; with index 0<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; [2019-10-10 22:07:40.584299] I [MSGID: 101190]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; [event-epoll.c:680:event_dispatch_epoll_worker] 0-epoll:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; Started thread<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; with index 1<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; [2019-10-10 22:07:40.928094] I [MSGID: 114020]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; [client.c:2393:notify]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; 0-store2-client-0: parent translators are ready, attempting<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; connect on<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; transport<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; [2019-10-10 22:07:40.931121] I [MSGID: 114020]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; [client.c:2393:notify]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; 0-store2-client-1: parent translators are ready, attempting<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; connect on<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; transport<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; [2019-10-10 22:07:40.933976] I [MSGID: 114020]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; [client.c:2393:notify]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; 0-store2-client-2: parent translators are ready, attempting<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; connect on<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; transport<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; Final graph:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;<br>
&gt;&nbsp; &#43;------------------------------------------------------------------------------&#43;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp; 1: volume store2-client-0<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp; 2:&nbsp;&nbsp;&nbsp;&nbsp; type protocol/client<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp; 3:&nbsp;&nbsp;&nbsp;&nbsp; option ping-timeout 42<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp; 4:&nbsp;&nbsp;&nbsp;&nbsp; option remote-host 172.31.36.11<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp; 5:&nbsp;&nbsp;&nbsp;&nbsp; option remote-subvolume<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; /data/gfs/store1/1/brick-store2<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp; 6:&nbsp;&nbsp;&nbsp;&nbsp; option transport-type socket<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp; 7:&nbsp;&nbsp;&nbsp;&nbsp; option transport.address-family inet<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp; 8:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.ssl-enabled off<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp; 9:&nbsp;&nbsp;&nbsp;&nbsp; option transport.tcp-user-timeout 0<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 10:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-time 20<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 11:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-interval 2<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 12:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-count 9<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 13:&nbsp;&nbsp;&nbsp;&nbsp; option send-gids true<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 14: end-volume<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 15:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 16: volume store2-client-1<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 17:&nbsp;&nbsp;&nbsp;&nbsp; type protocol/client<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 18:&nbsp;&nbsp;&nbsp;&nbsp; option ping-timeout 42<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 19:&nbsp;&nbsp;&nbsp;&nbsp; option remote-host 172.31.36.12<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 20:&nbsp;&nbsp;&nbsp;&nbsp; option remote-subvolume<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; /data/gfs/store1/1/brick-store2<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 21:&nbsp;&nbsp;&nbsp;&nbsp; option transport-type socket<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 22:&nbsp;&nbsp;&nbsp;&nbsp; option transport.address-family inet<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 23:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.ssl-enabled off<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 24:&nbsp;&nbsp;&nbsp;&nbsp; option transport.tcp-user-timeout 0<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 25:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-time 20<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 26:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-interval 2<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 27:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-count 9<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 28:&nbsp;&nbsp;&nbsp;&nbsp; option send-gids true<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 29: end-volume<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 30:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 31: volume store2-client-2<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 32:&nbsp;&nbsp;&nbsp;&nbsp; type protocol/client<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 33:&nbsp;&nbsp;&nbsp;&nbsp; option ping-timeout 42<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 34:&nbsp;&nbsp;&nbsp;&nbsp; option remote-host 172.31.36.13<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 35:&nbsp;&nbsp;&nbsp;&nbsp; option remote-subvolume<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; /data/gfs/store1/1/brick-store2<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 36:&nbsp;&nbsp;&nbsp;&nbsp; option transport-type socket<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 37:&nbsp;&nbsp;&nbsp;&nbsp; option transport.address-family inet<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 38:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.ssl-enabled off<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 39:&nbsp;&nbsp;&nbsp;&nbsp; option transport.tcp-user-timeout 0<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 40:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-time 20<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 41:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-interval 2<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 42:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-count 9<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 43:&nbsp;&nbsp;&nbsp;&nbsp; option send-gids true<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 44: end-volume<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 45:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 46: volume store2-replicate-0<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 47:&nbsp;&nbsp;&nbsp;&nbsp; type cluster/replicate<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 48:&nbsp;&nbsp;&nbsp;&nbsp; option afr-pending-xattr<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; store2-client-0,store2-client-1,store2-client-2<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 49:&nbsp;&nbsp;&nbsp;&nbsp; option use-compound-fops off<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 50:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes store2-client-0 store2-client-1<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; store2-client-2<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 51: end-volume<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 52:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 53: volume store2-dht<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 54:&nbsp;&nbsp;&nbsp;&nbsp; type cluster/distribute<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 55:&nbsp;&nbsp;&nbsp;&nbsp; option lookup-unhashed off<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 56:&nbsp;&nbsp;&nbsp;&nbsp; option lock-migration off<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 57:&nbsp;&nbsp;&nbsp;&nbsp; option force-migration off<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 58:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes store2-replicate-0<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 59: end-volume<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 60:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 61: volume store2-write-behind<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 62:&nbsp;&nbsp;&nbsp;&nbsp; type performance/write-behind<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 63:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes store2-dht<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 64: end-volume<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 65:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 66: volume store2-read-ahead<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 67:&nbsp;&nbsp;&nbsp;&nbsp; type performance/read-ahead<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 68:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes store2-write-behind<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 69: end-volume<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 70:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 71: volume store2-readdir-ahead<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 72:&nbsp;&nbsp;&nbsp;&nbsp; type performance/readdir-ahead<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 73:&nbsp;&nbsp;&nbsp;&nbsp; option parallel-readdir off<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 74:&nbsp;&nbsp;&nbsp;&nbsp; option rda-request-size 131072<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 75:&nbsp;&nbsp;&nbsp;&nbsp; option rda-cache-limit 10MB<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 76:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes store2-read-ahead<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 77: end-volume<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 78:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 79: volume store2-io-cache<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 80:&nbsp;&nbsp;&nbsp;&nbsp; type performance/io-cache<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 81:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes store2-readdir-ahead<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 82: end-volume<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 83:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 84: volume store2-open-behind<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 85:&nbsp;&nbsp;&nbsp;&nbsp; type performance/open-behind<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 86:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes store2-io-cache<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 87: end-volume<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 88:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 89: volume store2-quick-read<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 90:&nbsp;&nbsp;&nbsp;&nbsp; type performance/quick-read<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 91:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes store2-open-behind<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 92: end-volume<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 93:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 94: volume store2-md-cache<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 95:&nbsp;&nbsp;&nbsp;&nbsp; type performance/md-cache<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 96:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes store2-quick-read<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 97: end-volume<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 98:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; 99: volume store2<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; 100:&nbsp;&nbsp;&nbsp;&nbsp; type debug/io-stats<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; 101:&nbsp;&nbsp;&nbsp;&nbsp; option log-level INFO<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; 102:&nbsp;&nbsp;&nbsp;&nbsp; option latency-measurement off<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; 103:&nbsp;&nbsp;&nbsp;&nbsp; option count-fop-hits off<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; 104:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes store2-md-cache<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; 105: end-volume<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; 106:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; 107: volume meta-autoload<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; 108:&nbsp;&nbsp;&nbsp;&nbsp; type meta<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; 109:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes store2<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; 110: end-volume<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; 111:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;<br>
&gt;&nbsp; &#43;------------------------------------------------------------------------------&#43;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; [2019-10-10 22:07:51.578287] I<br>
&gt; [fuse-bridge.c:5142:fuse_init]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; 0-glusterfs-fuse: FUSE inited with protocol versions:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; glusterfs 7.24<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; kernel 7.22<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; [2019-10-10 22:07:51.578356] I<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; [fuse-bridge.c:5753:fuse_graph_sync]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; 0-fuse: switched to graph 0<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; [2019-10-10 22:07:51.578467] I [MSGID: 108006]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; [afr-common.c:5666:afr_local_init] 0-store2-replicate-0: no<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; subvolumes up<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; [2019-10-10 22:07:51.578519] E<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; [fuse-bridge.c:5211:fuse_first_lookup]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; 0-fuse: first lookup on root failed (Transport endpoint is not<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; connected)<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; [2019-10-10 22:07:51.578709] W<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; [fuse-bridge.c:1266:fuse_attr_cbk]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; 0-glusterfs-fuse: 2: LOOKUP() / =&gt; -1 (Transport endpoint is<br>
&gt; not<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; connected)<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; [2019-10-10 22:07:51.578687] I [MSGID: 108006]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; [afr-common.c:5666:afr_local_init] 0-store2-replicate-0: no<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; subvolumes up<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; [2019-10-10 22:09:48.222459] E [MSGID: 108006]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; [afr-common.c:5318:__afr_handle_child_down_event]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; 0-store2-replicate-0:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; All subvolumes are down. Going offline until at least one of<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; them comes<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; back up.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; The message &quot;E [MSGID: 108006]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; [afr-common.c:5318:__afr_handle_child_down_event]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; 0-store2-replicate-0:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; All subvolumes are down. Going offline until at least one of<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; them comes<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; back up.&quot; repeated 2 times between [2019-10-10<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; 22:09:48.222459] and<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; [2019-10-10 22:09:48.222891]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; alexander iliev<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; On 9/8/19 4:50 PM, Alexander Iliev wrote:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; Hi all,<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; Sunny, thank you for the update.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; I have applied the patch locally on my slave system and<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; now the<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; mountbroker setup is successful.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; I am facing another issue though - when I try to create a<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; replication<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; session between the two sites I am getting:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; # gluster volume geo-replication store1<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; glustergeorep@&lt;slave-host&gt;::store1 create push-pem<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Error : Request timed out<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; geo-replication command failed<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; It is still unclear to me if my setup is expected to work<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; at all.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; Reading the geo-replication documentation at [1] I see this<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; paragraph:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp; &gt; A password-less SSH connection is also required for<br>
&gt; gsyncd<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; between<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; every node in the master to every node in the slave. The<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; gluster<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; system:: execute gsec_create command creates secret-pem<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; files on<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; all the<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; nodes in the master, and is used to implement the<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; password-less SSH<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; connection. The push-pem option in the geo-replication<br>
&gt; create<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; command<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; pushes these keys to all the nodes in the slave.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; It is not clear to me whether connectivity from each<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; master node<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; to each<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; slave node is a requirement in terms of networking. In my<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; setup the<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; slave nodes form the Gluster pool over a private network<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; which is<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; not<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; reachable from the master site.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; Any ideas how to proceed from here will be greatly<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; appreciated.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; Thanks!<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; Links:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; [1]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;<br>
&gt; <a href="https://access.redhat.com/documentation/en-us/red_hat_gluster_storage/3/html/administration_guide/sect-preparing_to_deploy_geo-replication">
https://access.redhat.com/documentation/en-us/red_hat_gluster_storage/3/html/administration_guide/sect-preparing_to_deploy_geo-replication</a><br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; Best regards,<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; --<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; alexander iliev<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; On 9/3/19 2:50 PM, Sunny Kumar wrote:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt; Thank you for the explanation Kaleb.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt; Alexander,<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt; This fix will be available with next release for all<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; supported<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; versions.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt; /sunny<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt; On Mon, Sep 2, 2019 at 6:47 PM Kaleb Keithley<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;kkeithle@redhat.com &lt;<a href="mailto:kkeithle@redhat.com">mailto:kkeithle@redhat.com</a>&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href=""></a>mailto:kkeithle@redhat.com &lt;<a href="mailto:kkeithle@redhat.com">mailto:kkeithle@redhat.com</a>&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt; wrote:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt; Fixes on master (before or after the release-7 branch<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; was taken)<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt; almost certainly warrant a backport IMO to at least<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; release-6, and<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt; probably release-5 as well.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt; We used to have a &quot;tracker&quot; BZ for each minor release<br>
&gt; (e.g.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; 6.6) to<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt; keep track of backports by cloning the original BZ and<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; changing<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; the<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt; Version, and adding that BZ to the tracker. I'm not sure<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; what<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt; happened to that practice. The last ones I can find are<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; for 6.3<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; and<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt; 5.7;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; <a href="https://bugzilla.redhat.com/show_bug.cgi?id=glusterfs-6.3">https://bugzilla.redhat.com/show_bug.cgi?id=glusterfs-6.3</a> and<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;<br>
&gt; <a href="https://bugzilla.redhat.com/show_bug.cgi?id=glusterfs-5.7">https://bugzilla.redhat.com/show_bug.cgi?id=glusterfs-5.7</a><br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt; It isn't enough to just backport recent fixes on master<br>
&gt; to<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; release-7.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt; We are supposedly continuing to maintain release-6 and<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; release-5<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt; after release-7 GAs. If that has changed, I haven't seen<br>
&gt; an<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt; announcement to that effect. I don't know why our<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; developers don't<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt; automatically backport to all the actively maintained<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; releases.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt; Even if there isn't a tracker BZ, you can always create a<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; backport BZ<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt; by cloning the original BZ and change the release to 6.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; That'd<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; be a<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt; good place to start.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt; On Sun, Sep 1, 2019 at 8:45 AM Alexander Iliev<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt; &lt;ailiev&#43;gluster@mamul.org<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%2Bgluster@mamul.org">mailto:ailiev%2Bgluster@mamul.org</a>&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href=""></a>mailto:ailiev%2Bgluster@mamul.org<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%252Bgluster@mamul.org">mailto:ailiev%252Bgluster@mamul.org</a>&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; wrote:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt; Hi Strahil,<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt; Yes, this might be right, but I would still expect<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; fixes like<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; this<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt; to be<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt; released for all supported major versions (which should<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; include 6.) At<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt; least that's how I understand<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt; <a href="https://www.gluster.org/release-schedule/">https://www.gluster.org/release-schedule/</a>.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt; Anyway, let's wait for Sunny to clarify.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt; Best regards,<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt; alexander iliev<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt; On 9/1/19 2:07 PM, Strahil Nikolov wrote:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; Hi Alex,<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; I'm not very deep into bugzilla stuff, but for me<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; NEXTRELEASE<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; means<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; v7.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; Sunny,<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; Am I understanding it correctly ?<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; Best Regards,<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; Strahil Nikolov<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; ? ??????, 1 ????????? 2019 ?., 14:27:32 ?. ???????&#43;3,<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; Alexander Iliev<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; &lt;ailiev&#43;gluster@mamul.org<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%2Bgluster@mamul.org">mailto:ailiev%2Bgluster@mamul.org</a>&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href=""></a>mailto:ailiev%2Bgluster@mamul.org<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%252Bgluster@mamul.org">mailto:ailiev%252Bgluster@mamul.org</a>&gt;&gt;&gt; ??????:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; Hi Sunny,<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; Thank you for the quick response.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; It's not clear to me however if the fix has been<br>
&gt; already<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; released<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; or not.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; The bug status is CLOSED NEXTRELEASE and according to<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; [1] the<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; NEXTRELEASE resolution means that the fix will be<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; included in<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; the next<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; supported release. The bug is logged against the<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; mainline version<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; though, so I'm not sure what this means exactly.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; From the 6.4[2] and 6.5[3] release notes it seems it<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; hasn't<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; been<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; released yet.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; Ideally I would not like to patch my systems locally,<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; so if you<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; have an<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; ETA on when this will be out officially I would really<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; appreciate it.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; Links:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; [1]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; <a href="https://bugzilla.redhat.com/page.cgi?id=fields.html#bug_status">
https://bugzilla.redhat.com/page.cgi?id=fields.html#bug_status</a><br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; [2]<br>
&gt; <a href="https://docs.gluster.org/en/latest/release-notes/6.4/">https://docs.gluster.org/en/latest/release-notes/6.4/</a><br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; [3]<br>
&gt; <a href="https://docs.gluster.org/en/latest/release-notes/6.5/">https://docs.gluster.org/en/latest/release-notes/6.5/</a><br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; Thank you!<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; Best regards,<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; alexander iliev<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; On 8/30/19 9:22 AM, Sunny Kumar wrote:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt; Hi Alexander,<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt; Thanks for pointing that out!<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt; But this issue is fixed now you can see below link<br>
&gt; for<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; bz-link<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; and patch.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt; BZ -<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1709248">https://bugzilla.redhat.com/show_bug.cgi?id=1709248</a><br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt; Patch -<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; <a href="https://review.gluster.org/#/c/glusterfs/&#43;/22716/">https://review.gluster.org/#/c/glusterfs/&#43;/22716/</a><br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt; Hope this helps.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt; /sunny<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt; On Fri, Aug 30, 2019 at 2:30 AM Alexander Iliev<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt; &lt;ailiev&#43;gluster@mamul.org<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%2Bgluster@mamul.org">mailto:ailiev%2Bgluster@mamul.org</a>&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href=""></a>mailto:ailiev%2Bgluster@mamul.org<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%252Bgluster@mamul.org">mailto:ailiev%252Bgluster@mamul.org</a>&gt;&gt; &lt;<a href=""></a>mailto:gluster@mamul.org<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:gluster@mamul.org">mailto:gluster@mamul.org</a>&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href=""></a>mailto:gluster@mamul.org &lt;<a href="mailto:gluster@mamul.org">mailto:gluster@mamul.org</a>&gt;&gt;&gt;&gt;<br>
&gt; wrote:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; Hello dear GlusterFS users list,<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; I have been trying to set up geo-replication<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; between two<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; clusters for<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; some time now. The desired state is (Cluster #1)<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; being<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; replicated to<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; (Cluster #2).<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; Here are some details about the setup:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; Cluster #1: three nodes connected via a local<br>
&gt; network<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; (172.31.35.0/24 &lt;<a href="http://172.31.35.0/24">http://172.31.35.0/24</a>&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="http://172.31.35.0/24">http://172.31.35.0/24</a>&gt;),<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; one replicated (3 replica) volume.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; Cluster #2: three nodes connected via a local<br>
&gt; network<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; (172.31.36.0/24 &lt;<a href="http://172.31.36.0/24">http://172.31.36.0/24</a>&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="http://172.31.36.0/24">http://172.31.36.0/24</a>&gt;),<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; one replicated (3 replica) volume.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; The two clusters are connected to the Internet<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; via separate<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; network<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; adapters.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; Only SSH (port 22) is open on cluster #2 nodes'<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; adapters<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; connected to<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; the Internet.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; All nodes are running Ubuntu 18.04 and GlusterFS<br>
&gt; 6.3<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; installed<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; from [1].<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; The first time I followed the guide[2] everything<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; went<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; fine up<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; until I<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; reached the &quot;Create the session&quot; step. That was<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; like a<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; month<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; ago, then I<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; had to temporarily stop working in this and now I<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; am coming<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; back to it.<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; Currently, if I try to see the mountbroker status<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; I get the<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; following:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;&gt; # gluster-mountbroker status<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;&gt; Traceback (most recent call last):<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;&gt;&nbsp;&nbsp;&nbsp; File &quot;/usr/sbin/gluster-mountbroker&quot;, line<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; 396, in<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;module&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; runcli()<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;&gt;&nbsp;&nbsp;&nbsp; File<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &quot;/usr/lib/python3/dist-packages/gluster/cliutils/cliutils.py&quot;, line<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; 225,<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; in runcli<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; cls.run(args)<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;&gt;&nbsp;&nbsp;&nbsp; File &quot;/usr/sbin/gluster-mountbroker&quot;, line<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; 275, in run<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; out = execute_in_peers(&quot;node-status&quot;)<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;&gt;&nbsp;&nbsp;&nbsp; File<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &quot;/usr/lib/python3/dist-packages/gluster/cliutils/cliutils.py&quot;,<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; line 127, in execute_in_peers<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; raise GlusterCmdException((rc, out, err, &quot;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &quot;.join(cmd)))<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;&gt; gluster.cliutils.cliutils.GlusterCmdException:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; (1, '',<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; 'Unable to<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; end. Error : Success\n', 'gluster system:: execute<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; mountbroker.py<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; node-status')<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; And in /var/log/gluster/glusterd.log I have:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;&gt; [2019-08-10 15:24:21.418834] E [MSGID: 106336]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; [glusterd-geo-rep.c:5413:glusterd_op_sys_exec]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; 0-management:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; Unable to<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; end. Error : Success<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;&gt; [2019-08-10 15:24:21.418908] E [MSGID: 106122]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp; ?? &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; [glusterd-syncop.c:1445:gd_commit_op_phase]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; 0-management:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; Commit of<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; operation 'Volume Execute system commands' failed<br>
&gt; on<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; localhost<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; : Unable<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; to end. Error : Success<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; So, I have two questions right now:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; 1) Is there anything wrong with my setup<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; (networking, open<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; ports, etc.)?<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; Is it expected to work with this setup or should<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; I redo<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; it in a<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; different way?<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; 2) How can I troubleshoot the current status of my<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; setup? Can<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; I find out<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; what's missing/wrong and continue from there or<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; should I<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; just<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; start from<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; scratch?<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; Links:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; [1]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; <a href="http://ppa.launchpad.net/gluster/glusterfs-6/ubuntu">http://ppa.launchpad.net/gluster/glusterfs-6/ubuntu</a><br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; [2]<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;<br>
&gt; <a href="https://docs.gluster.org/en/latest/Administrator%20Guide/Geo%20Replication/">
https://docs.gluster.org/en/latest/Administrator%20Guide/Geo%20Replication/</a><br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; Thank you!<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; Best regards,<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; --<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; alexander iliev<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; _______________________________________________<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; Gluster-users mailing list<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt; Gluster-users@gluster.org<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href=""></a>mailto:Gluster-users@gluster.org &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;&nbsp;&nbsp; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; _______________________________________________<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; Gluster-users mailing list<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt; Gluster-users@gluster.org<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt; &lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt; &lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;&gt;<br>
&gt; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt; _______________________________________________<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt; Gluster-users mailing list<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt; Gluster-users@gluster.org<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt; &lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&gt;&gt;&gt;<br>
&gt; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; _______________________________________________<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; Gluster-users mailing list<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; Gluster-users@gluster.org<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt; &lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users">
https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; ________<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; Community Meeting Calendar:<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; APAC Schedule -<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; Every 2nd and 4th Tuesday at 11:30 AM IST<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; Bridge: <a href="https://bluejeans.com/118564314">https://bluejeans.com/118564314</a><br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; NA/EMEA Schedule -<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; Every 1st and 3rd Tuesday at 01:00 PM EDT<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; Bridge: <a href="https://bluejeans.com/118564314">https://bluejeans.com/118564314</a><br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; Gluster-users mailing list<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; Gluster-users@gluster.org &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href=""></a>mailto:Gluster-users@gluster.org &lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt; &gt;&gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; --<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; regards<br>
&gt; &gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; Aravinda VK<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; --<br>
&gt; &gt; regards<br>
&gt; &gt; Aravinda VK<br>
&gt;<br>
<br>
<br>
-- <br>
regards<br>
Aravinda VK<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://lists.gluster.org/pipermail/gluster-users/attachments/20191017/9bac07d3/attachment-0001.html">http://lists.gluster.org/pipermail/gluster-users/attachments/20191017/9bac07d3/attachment-0001.html</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 3<br>
Date: Thu, 17 Oct 2019 21:03:43 &#43;0530<br>
From: Aravinda Vishwanathapura Krishna Murthy &lt;avishwan@redhat.com&gt;<br>
To: deepu srinivasan &lt;sdeepugd@gmail.com&gt;<br>
Cc: gluster-users &lt;gluster-users@gluster.org&gt;<br>
Subject: Re: [Gluster-users] Single Point of failure in geo<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Replication<br>
Message-ID:<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;CA&#43;8EeuPu_t3ucUwkvS1x7Y91qyP=sCD7k0Ln=t0Fd_Dp_&#43;7oTA@mail.gmail.com&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;<br>
<br>
On Thu, Oct 17, 2019 at 11:44 AM deepu srinivasan &lt;sdeepugd@gmail.com&gt;<br>
wrote:<br>
<br>
&gt; Thank you for your response.<br>
&gt; We have tried the above use case you mentioned.<br>
&gt;<br>
&gt; Case 1: Primary node is permanently Down (Hardware failure)<br>
&gt; In this case, the Georeplication session cannot be stopped and returns the<br>
&gt; failure &quot;start the primary node and then stop(or similar message)&quot;.<br>
&gt; Now I cannot delete because I cannot stop the session.<br>
&gt;<br>
<br>
Please try &quot;stop force&quot;, Let us know if that works.<br>
<br>
<br>
&gt; On Thu, Oct 17, 2019 at 8:32 AM Aravinda Vishwanathapura Krishna Murthy &lt;<br>
&gt; avishwan@redhat.com&gt; wrote:<br>
&gt;<br>
&gt;&gt;<br>
&gt;&gt; On Wed, Oct 16, 2019 at 11:08 PM deepu srinivasan &lt;sdeepugd@gmail.com&gt;<br>
&gt;&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt;&gt; Hi Users<br>
&gt;&gt;&gt; Is there a single point of failure in GeoReplication for gluster?<br>
&gt;&gt;&gt; My Case:<br>
&gt;&gt;&gt; I Use 3 nodes in both master and slave volume.<br>
&gt;&gt;&gt; Master volume : Node1,Node2,Node3<br>
&gt;&gt;&gt; Slave Volume : Node4,Node5,Node6<br>
&gt;&gt;&gt; I tried to recreate the scenario to test a single point of failure.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Geo-Replication Status:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; *Master Node&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Slave Node&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Status *<br>
&gt;&gt;&gt; Node1&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Node4&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Active<br>
&gt;&gt;&gt; Node2&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Node4&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Passive<br>
&gt;&gt;&gt; Node3&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Node4&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Passive<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Step 1: Stoped the glusterd daemon in Node4.<br>
&gt;&gt;&gt; Result: There were only two-node statuses like the one below.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; *Master Node&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Slave Node&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Status *<br>
&gt;&gt;&gt; Node2&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Node4&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Passive<br>
&gt;&gt;&gt; Node3&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Node4&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Passive<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Will the GeoReplication session goes down if the primary slave is down?<br>
&gt;&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; Hi Deepu,<br>
&gt;&gt;<br>
&gt;&gt; Geo-replication depends on a primary slave node to get the information<br>
&gt;&gt; about other nodes which are part of Slave Volume.<br>
&gt;&gt;<br>
&gt;&gt; Once the workers are started, it is not dependent on the primary slave<br>
&gt;&gt; node. Will not fail if a primary goes down. But if any other node goes down<br>
&gt;&gt; then the worker will try to connect to some other node, for which it tries<br>
&gt;&gt; to run Volume status command on the slave node using the following command.<br>
&gt;&gt;<br>
&gt;&gt; ```<br>
&gt;&gt; ssh -i &lt;georep-pem&gt; &lt;primary-node&gt; gluster volume status &lt;slavevol&gt;<br>
&gt;&gt; ```<br>
&gt;&gt;<br>
&gt;&gt; The above command will fail and Worker will not get the list of Slave<br>
&gt;&gt; nodes to which it can connect to.<br>
&gt;&gt;<br>
&gt;&gt; This is only a temporary failure until the primary node comes back<br>
&gt;&gt; online. If the primary node is permanently down then run Geo-rep delete and<br>
&gt;&gt; Geo-rep create command again with the new primary node. (Note: Geo-rep<br>
&gt;&gt; Delete and Create will remember the last sync time and resume once it<br>
&gt;&gt; starts)<br>
&gt;&gt;<br>
&gt;&gt; I will evaluate the possibility of caching a list of Slave nodes so that<br>
&gt;&gt; it can be used as a backup primary node in case of failures. I will open<br>
&gt;&gt; Github issue for the same.<br>
&gt;&gt;<br>
&gt;&gt; Thanks for reporting the issue.<br>
&gt;&gt;<br>
&gt;&gt; --<br>
&gt;&gt; regards<br>
&gt;&gt; Aravinda VK<br>
&gt;&gt;<br>
&gt;<br>
<br>
-- <br>
regards<br>
Aravinda VK<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://lists.gluster.org/pipermail/gluster-users/attachments/20191017/fe2a180f/attachment-0001.html">http://lists.gluster.org/pipermail/gluster-users/attachments/20191017/fe2a180f/attachment-0001.html</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 4<br>
Date: Thu, 17 Oct 2019 22:24:30 &#43;0530<br>
From: Amar Tumballi &lt;amarts@gmail.com&gt;<br>
To: &quot;Kay K.&quot; &lt;kkay.jp@gmail.com&gt;<br>
Cc: gluster-users &lt;gluster-users@gluster.org&gt;<br>
Subject: Re: [Gluster-users] On a glusterfsd service<br>
Message-ID:<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;CA&#43;OzEQvhgfdBeAhoVHZsk14CPYGU32YRmXNUcWC-scTQ00aHaw@mail.gmail.com&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;<br>
<br>
On Thu, Oct 17, 2019 at 5:21 PM Kay K. &lt;kkay.jp@gmail.com&gt; wrote:<br>
<br>
&gt; Hello All,<br>
&gt;<br>
&gt; I'm using 20 glusterfs servers on CentOS 6.9 for about 5 years. It's<br>
&gt; working well.<br>
<br>
<br>
That is a sweet thing to read as first thing the email :-)<br>
<br>
<br>
&gt; However recently, I noticed that those settings are<br>
&gt; different in a part of hosts.<br>
&gt;<br>
&gt; Those 20 servers are working on runlevel:3.<br>
&gt; For 10 servers, if I looked at a directory /etc/rc.3, I found to be<br>
&gt; set K80 for the service, glusterfsd like below.<br>
&gt;<br>
&gt; $ ls -l /etc/rc.d/rc3.d/*gluster*<br>
&gt; lrwxrwxrwx 1 root root 20 Mar&nbsp; 9&nbsp; 2016 /etc/rc.d/rc3.d/K80glusterfsd<br>
&gt; -&gt; ../init.d/glusterfsd<br>
&gt; lrwxrwxrwx 1 root root 18 Mar&nbsp; 9&nbsp; 2016 /etc/rc.d/rc3.d/S20glusterd -&gt;<br>
&gt; ../init.d/glusterd<br>
&gt;<br>
&gt; However, I checked the another 10 servers, I cound find to be set S20<br>
&gt; for glusterfsd as below.<br>
&gt;<br>
&gt; $ ls -l /etc/rc.d/rc3.d/*gluster*<br>
&gt; lrwxrwxrwx 1 root root 18 Oct&nbsp; 9&nbsp; 2015 /etc/rc.d/rc3.d/S20glusterd -&gt;<br>
&gt; ../init.d/glusterd<br>
&gt; lrwxrwxrwx 1 root root 20 Oct&nbsp; 9&nbsp; 2015 /etc/rc.d/rc3.d/S20glusterfsd<br>
&gt; -&gt; ../init.d/glusterfsd<br>
&gt;<br>
&gt; I remember that the half of servers were built up several years lator.<br>
&gt; I expect that maybe, the difference was made at the time.<br>
&gt;<br>
&gt;<br>
Most probably. The dates points difference of ~18 months between them.<br>
Surely some improvements would have gone into the code. (~1000 patches in<br>
an year)<br>
<br>
Trying to check git log inside glusterfs' spec file and not able to find<br>
any thing. Looks like the diff is mostly with CentOS spec.<br>
<br>
<br>
&gt; Futhermore, if I checked the status for glusterfsd, the glusterfsd can<br>
&gt; get running as below.<br>
&gt;<br>
&gt; $ /etc/init.d/glusterd status<br>
&gt; glusterd (pid&nbsp; 1989) is running...<br>
&gt; $ /etc/init.d/glusterfsd status<br>
&gt; glusterfsd (pid 2216 2206 2201 2198 2193 2187 2181 2168 2163 2148 2147<br>
&gt; 2146 2139 2130 2123 2113 2111 2100 2088) is running...<br>
&gt;<br>
&gt;<br>
:-)<br>
<br>
<br>
<br>
&gt; Actually, my GlusterFS server is working well.<br>
&gt;<br>
&gt;<br>
IMO that is a good news. I don't think it would be an issue all of a sudden<br>
after 4-5 years.<br>
<br>
<br>
&gt; I don't know that which setting is correct. Would you know about it?<br>
&gt;<br>
&gt;<br>
We just need to start 'glusterd' service in later versions. So, if it is<br>
working, it would be fine. For reference/correctness related things, I<br>
would leave it to experts on specs, and init.d scripts to respond.<br>
<br>
For most of the emails, we end up recommending to move to a latest,<br>
supported version, but considering you are not facing an issue on top of<br>
filesystem, I wouldn't recommend that yet :-)<br>
<br>
Regards,<br>
Amar<br>
<br>
<br>
&gt; Thanks,<br>
&gt; Kondo<br>
&gt; ________<br>
&gt;<br>
&gt;<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://lists.gluster.org/pipermail/gluster-users/attachments/20191017/1eb1a0ed/attachment-0001.html">http://lists.gluster.org/pipermail/gluster-users/attachments/20191017/1eb1a0ed/attachment-0001.html</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 5<br>
Date: Thu, 17 Oct 2019 13:48:15 -0400<br>
From: Kaleb Keithley &lt;kkeithle@redhat.com&gt;<br>
To: Alberto Bengoa &lt;bengoa@gmail.com&gt;<br>
Cc: gluster-users &lt;gluster-users@gluster.org&gt;<br>
Subject: Re: [Gluster-users] Mirror <a href="https://download.gluster.org/">https://download.gluster.org/</a> is<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; not&nbsp;&nbsp;&nbsp;&nbsp; working<br>
Message-ID:<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &lt;CAC&#43;Jd5DEE5b7kW5&#43;Ax9fg3Ha3cM2FGvXCvSDJFhH2Vo&#43;PmqXsA@mail.gmail.com&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;<br>
<br>
file owners&#43;perms were fixed. Should work now<br>
<br>
On Thu, Oct 17, 2019 at 10:57 AM Alberto Bengoa &lt;bengoa@gmail.com&gt; wrote:<br>
<br>
&gt; Guys,<br>
&gt;<br>
&gt; Anybody from Gluster Team has one word about the mirror status? It is<br>
&gt; failing since (maybe?) yesterday.<br>
&gt;<br>
&gt; root@nas-bkp /tmp $ yum install glusterfs-client<br>
&gt; GlusterFS is a clustered file-system capable of scaling to several<br>
&gt; petabyte 2.1 kB/s | 2.9 kB&nbsp;&nbsp;&nbsp;&nbsp; 00:01<br>
&gt; Dependencies resolved.<br>
&gt;<br>
&gt; ============================================================================================================<br>
&gt;&nbsp; Package&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Arch&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Version<br>
&gt;&nbsp; Repository&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Size<br>
&gt;<br>
&gt; ============================================================================================================<br>
&gt; Installing:<br>
&gt;&nbsp; glusterfs-fuse&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; x86_64&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 6.5-2.el8<br>
&gt;&nbsp; glusterfs-rhel8&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 167 k<br>
&gt; Installing dependencies:<br>
&gt;&nbsp; glusterfs&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; x86_64&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 6.5-2.el8<br>
&gt;&nbsp; glusterfs-rhel8&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 681 k<br>
&gt;&nbsp; glusterfs-client-xlators&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; x86_64&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 6.5-2.el8<br>
&gt;&nbsp; glusterfs-rhel8&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 893 k<br>
&gt;&nbsp; glusterfs-libs&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; x86_64&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 6.5-2.el8<br>
&gt;&nbsp; glusterfs-rhel8&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 440 k<br>
&gt;<br>
&gt; Transaction Summary<br>
&gt;<br>
&gt; ============================================================================================================<br>
&gt; Install&nbsp; 4 Packages<br>
&gt;<br>
&gt; Total download size: 2.1 M<br>
&gt; Installed size: 9.1 M<br>
&gt; Is this ok [y/N]: y<br>
&gt; Downloading Packages:<br>
&gt; [MIRROR] glusterfs-6.5-2.el8.x86_64.rpm: Curl error (18): Transferred a<br>
&gt; partial file for<br>
&gt; <a href="https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm">
https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm</a><br>
&gt; [transfer closed with 648927 bytes remaining to read]<br>
&gt; [FAILED] glusterfs-6.5-2.el8.x86_64.rpm: No more mirrors to try - All<br>
&gt; mirrors were already tried without success<br>
&gt; (2-3/4): glusterfs-client-xlators- 34% [===========-<br>
&gt;&nbsp; ] 562 kB/s | 745 kB&nbsp;&nbsp;&nbsp;&nbsp; 00:02 ETA<br>
&gt; The downloaded packages were saved in cache until the next successful<br>
&gt; transaction.<br>
&gt; You can remove cached packages by executing 'dnf clean packages'.<br>
&gt; Error: Error downloading packages:<br>
&gt;&nbsp;&nbsp; Cannot download glusterfs-6.5-2.el8.x86_64.rpm: All mirrors were tried<br>
&gt;<br>
&gt; If you try to download using wget it fails as well:<br>
&gt;<br>
&gt; root@nas-bkp /tmp $ wget<br>
&gt; <a href="https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm">
https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm</a><br>
&gt; --2019-10-17 15:53:41--<br>
&gt; <a href="https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm">
https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm</a><br>
&gt; Resolving download.gluster.org (download.gluster.org)... 8.43.85.185<br>
&gt; Connecting to download.gluster.org (download.gluster.org)|8.43.85.185|:443...<br>
&gt; connected.<br>
&gt; HTTP request sent, awaiting response... 200 OK<br>
&gt; Length: 697688 (681K) [application/x-rpm]<br>
&gt; Saving to: ?glusterfs-6.5-2.el8.x86_64.rpm.1?<br>
&gt;<br>
&gt; glusterfs-6.5-2.el8.x86_64&nbsp;&nbsp; 6%[=&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ]<br>
&gt;&nbsp; 47.62K&nbsp; --.-KB/s&nbsp;&nbsp;&nbsp; in 0.09s<br>
&gt;<br>
&gt; 2019-10-17 15:53:42 (559 KB/s) - Read error at byte 48761/697688 (Error<br>
&gt; decoding the received TLS packet.). Retrying.<br>
&gt;<br>
&gt; --2019-10-17 15:53:43--&nbsp; (try: 2)<br>
&gt; <a href="https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm">
https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm</a><br>
&gt; Connecting to download.gluster.org (download.gluster.org)|8.43.85.185|:443...<br>
&gt; connected.<br>
&gt; HTTP request sent, awaiting response... ^C<br>
&gt; root@nas-bkp /tmp $ wget<br>
&gt; <a href="https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm">
https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm</a><br>
&gt; --2019-10-17 15:53:45--<br>
&gt; <a href="https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm">
https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm</a><br>
&gt; Resolving download.gluster.org (download.gluster.org)... 8.43.85.185<br>
&gt; Connecting to download.gluster.org (download.gluster.org)|8.43.85.185|:443...<br>
&gt; connected.<br>
&gt; HTTP request sent, awaiting response... 200 OK<br>
&gt; Length: 697688 (681K) [application/x-rpm]<br>
&gt; Saving to: ?glusterfs-6.5-2.el8.x86_64.rpm.2?<br>
&gt;<br>
&gt; glusterfs-6.5-2.el8.x86_64&nbsp;&nbsp; 6%[=&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ]<br>
&gt;&nbsp; 47.62K&nbsp; --.-KB/s&nbsp;&nbsp;&nbsp; in 0.08s<br>
&gt;<br>
&gt; 2019-10-17 15:53:46 (564 KB/s) - Read error at byte 48761/697688 (Error<br>
&gt; decoding the received TLS packet.). Retrying.<br>
&gt;<br>
&gt; --2019-10-17 15:53:47--&nbsp; (try: 2)<br>
&gt; <a href="https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm">
https://download.gluster.org/pub/gluster/glusterfs/6/LATEST/RHEL/el-8/x86_64/glusterfs-6.5-2.el8.x86_64.rpm</a><br>
&gt; Connecting to download.gluster.org (download.gluster.org)|8.43.85.185|:443...<br>
&gt; connected.<br>
&gt; HTTP request sent, awaiting response... 206 Partial Content<br>
&gt; Length: 697688 (681K), 648927 (634K) remaining [application/x-rpm]<br>
&gt; Saving to: ?glusterfs-6.5-2.el8.x86_64.rpm.2?<br>
&gt;<br>
&gt; glusterfs-6.5-2.el8.x86_64&nbsp; 13%[&#43;&#43;==&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ]<br>
&gt;&nbsp; 95.18K&nbsp; --.-KB/s&nbsp;&nbsp;&nbsp; in 0.08s<br>
&gt;<br>
&gt; 2019-10-17 15:53:47 (563 KB/s) - Read error at byte 97467/697688 (Error<br>
&gt; decoding the received TLS packet.). Retrying.<br>
&gt;<br>
&gt;<br>
&gt; Thank you!<br>
&gt;<br>
&gt; Alberto Bengoa<br>
&gt; ________<br>
&gt;<br>
&gt; Community Meeting Calendar:<br>
&gt;<br>
&gt; APAC Schedule -<br>
&gt; Every 2nd and 4th Tuesday at 11:30 AM IST<br>
&gt; Bridge: <a href="https://bluejeans.com/118564314">https://bluejeans.com/118564314</a><br>
&gt;<br>
&gt; NA/EMEA Schedule -<br>
&gt; Every 1st and 3rd Tuesday at 01:00 PM EDT<br>
&gt; Bridge: <a href="https://bluejeans.com/118564314">https://bluejeans.com/118564314</a><br>
&gt;<br>
&gt; Gluster-users mailing list<br>
&gt; Gluster-users@gluster.org<br>
&gt; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://lists.gluster.org/pipermail/gluster-users/attachments/20191017/0a41ccd1/attachment-0001.html">http://lists.gluster.org/pipermail/gluster-users/attachments/20191017/0a41ccd1/attachment-0001.html</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 6<br>
Date: Thu, 17 Oct 2019 20:40:37 &#43;0200<br>
From: Alexander Iliev &lt;ailiev&#43;gluster@mamul.org&gt;<br>
To: Aravinda Vishwanathapura Krishna Murthy &lt;avishwan@redhat.com&gt;<br>
Cc: gluster-users &lt;gluster-users@gluster.org&gt;<br>
Subject: Re: [Gluster-users] Issues with Geo-replication (GlusterFS<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 6.3 on Ubuntu 18.04)<br>
Message-ID: &lt;4214e52d-b69f-d5b2-c3fc-2c69e9abb217@mamul.org&gt;<br>
Content-Type: text/plain; charset=utf-8; format=flowed<br>
<br>
On 10/17/19 5:32 PM, Aravinda Vishwanathapura Krishna Murthy wrote:<br>
&gt; <br>
&gt; <br>
&gt; On Thu, Oct 17, 2019 at 12:54 PM Alexander Iliev <br>
&gt; &lt;ailiev&#43;gluster@mamul.org &lt;<a href="mailto:ailiev%2Bgluster@mamul.org">mailto:ailiev%2Bgluster@mamul.org</a>&gt;&gt; wrote:<br>
&gt; <br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; Thanks, Aravinda.<br>
&gt; <br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; Does this mean that my scenario is currently unsupported?<br>
&gt; <br>
&gt; <br>
&gt; Please try by providing external IP while creating Geo-rep session. We <br>
&gt; will work on the enhancement if it didn't work.<br>
<br>
This is what I've been doing all along. It didn't work for me.<br>
<br>
&gt; <br>
&gt; <br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; It seems that I need to make sure that the nodes in the two clusters<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; can<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; see each-other (some kind of VPN would work I guess).<br>
&gt; <br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; Is this be documented somewhere? I think I've read the geo-replication<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; documentation several times now, but somehow it wasn't obvious to me<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; that you need access to the slave nodes from the master ones (apart<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; from<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; the SSH access).<br>
&gt; <br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; Thanks!<br>
&gt; <br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; Best regards,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; --<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; alexander iliev<br>
&gt; <br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; On 10/17/19 5:25 AM, Aravinda Vishwanathapura Krishna Murthy wrote:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; Got it.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; Geo-replication uses slave nodes IP in the following cases,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; - Verification during Session creation - It tries to mount the Slave<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; volume using the hostname/IP provided in Geo-rep create command. Try<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; Geo-rep create by specifying the external IP which is accessible<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; from<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; the master node.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; - Once Geo-replication is started, it gets the list of Slave nodes<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; IP/hostname from Slave volume info and connects to those IPs. But in<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; this case, those are internal IP addresses that are not<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; accessible from<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; Master nodes. - We need to enhance Geo-replication to accept<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; external IP<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; and internal IP map details so that for all connections it can use<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; external IP.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; On Wed, Oct 16, 2019 at 10:29 PM Alexander Iliev<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; &lt;ailiev&#43;gluster@mamul.org &lt;<a href="mailto:ailiev%2Bgluster@mamul.org">mailto:ailiev%2Bgluster@mamul.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href=""></a>mailto:ailiev%2Bgluster@mamul.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%252Bgluster@mamul.org">mailto:ailiev%252Bgluster@mamul.org</a>&gt;&gt;&gt; wrote:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?Hi Aravinda,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?All volume brick on the slave volume are up and the volume seems<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?functional.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?Your suggestion about trying to mount the slave volume on a<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; master node<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?brings up my question about network connectivity again - the<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; GlusterFS<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?documentation[1] says:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? ?&gt; The server specified in the mount command is only used to<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; fetch the<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?gluster configuration volfile describing the volume name.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; Subsequently,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?the client will communicate directly with the servers<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; mentioned in the<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?volfile (which might not even include the one used for mount).<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?To me this means that the masternode from your example is<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; expected to<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?have connectivity to the network where the slave volume runs,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; i.e. to<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?have network access to the slave nodes. In my geo-replication<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; scenario<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?this is definitely not the case. The two cluster are running<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; in two<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?completely different networks that are not interconnected.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?So my question is - how is the slave volume mount expected to<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; happen if<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?the client host cannot access the GlusterFS nodes? Or is the<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?connectivity a requirement even for geo-replication?<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?I'm not sure if I'm missing something, but any help will be<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; highly<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?appreciated!<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?Thanks!<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?Links:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?[1]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; <a href="https://gluster.readthedocs.io/en/latest/Administrator%20Guide/Setting%20Up%20Clients/">
https://gluster.readthedocs.io/en/latest/Administrator%20Guide/Setting%20Up%20Clients/</a><br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?--<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?alexander iliev<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?On 10/16/19 6:03 AM, Aravinda Vishwanathapura Krishna Murthy<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; wrote:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt; Hi Alexander,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt; Please check the status of Volume. Looks like the Slave volume<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?mount is<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt; failing because bricks are down or not reachable. If Volume<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?status shows<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt; all bricks are up then try mounting the slave volume using<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; mount<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?command.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt; ```<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt; masternode$ mkdir /mnt/vol<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt; masternode$ mount -t glusterfs &lt;slavehost&gt;:&lt;slavevol&gt; /mnt/vol<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt; ```<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt; On Fri, Oct 11, 2019 at 4:03 AM Alexander Iliev<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt; &lt;ailiev&#43;gluster@mamul.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%2Bgluster@mamul.org">mailto:ailiev%2Bgluster@mamul.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href=""></a>mailto:ailiev%2Bgluster@mamul.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%252Bgluster@mamul.org">mailto:ailiev%252Bgluster@mamul.org</a>&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:ailiev%2Bgluster@mamul.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%252Bgluster@mamul.org">mailto:ailiev%252Bgluster@mamul.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:ailiev%252Bgluster@mamul.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%25252Bgluster@mamul.org">mailto:ailiev%25252Bgluster@mamul.org</a>&gt;&gt;&gt;&gt; wrote:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?Hi all,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?I ended up reinstalling the nodes with CentOS 7.5 and<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?GlusterFS 6.5<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?(installed from the SIG.)<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?Now when I try to create a replication session I get the<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?following:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; # gluster volume geo-replication store1<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;slave-host&gt;::store2 create<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?push-pem<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; Unable to mount and fetch slave volume details. Please<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?check the<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?log:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?/var/log/glusterfs/geo-replication/gverify-slavemnt.log<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; geo-replication command failed<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?You can find the contents of gverify-slavemnt.log<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; below, but the<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?initial<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?error seems to be:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; [2019-10-10 22:07:51.578519] E<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?[fuse-bridge.c:5211:fuse_first_lookup]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?0-fuse: first lookup on root failed (Transport<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; endpoint is not<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?connected)<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?I only found<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;&nbsp;&nbsp; <br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ?[this](https://bugzilla.redhat.com/show_bug.cgi?id=1659824)<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?bug report which doesn't seem to help. The reported<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; issue is<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?failure to<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?mount a volume on a GlusterFS client, but in my case I<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; need<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?geo-replication which implies the client (geo-replication<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?master) being<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?on a different network.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?Any help will be appreciated.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?Thanks!<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?gverify-slavemnt.log:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; [2019-10-10 22:07:40.571256] I [MSGID: 100030]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?[glusterfsd.c:2847:main] 0-glusterfs: Started running<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?glusterfs version<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?6.5 (args: glusterfs<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; --xlator-option=*dht.lookup-unhashed=off<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?--volfile-server &lt;slave-host&gt; --volfile-id store2 -l<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?/var/log/glusterfs/geo-replication/gverify-slavemnt.log<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?/tmp/gverify.sh.5nFlRh)<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; [2019-10-10 22:07:40.575438] I<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; [glusterfsd.c:2556:daemonize]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?0-glusterfs: Pid of current running process is 6021<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; [2019-10-10 22:07:40.584282] I [MSGID: 101190]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?[event-epoll.c:680:event_dispatch_epoll_worker] 0-epoll:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?Started thread<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?with index 0<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; [2019-10-10 22:07:40.584299] I [MSGID: 101190]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?[event-epoll.c:680:event_dispatch_epoll_worker] 0-epoll:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?Started thread<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?with index 1<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; [2019-10-10 22:07:40.928094] I [MSGID: 114020]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?[client.c:2393:notify]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?0-store2-client-0: parent translators are ready,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; attempting<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?connect on<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?transport<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; [2019-10-10 22:07:40.931121] I [MSGID: 114020]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?[client.c:2393:notify]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?0-store2-client-1: parent translators are ready,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; attempting<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?connect on<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?transport<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; [2019-10-10 22:07:40.933976] I [MSGID: 114020]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?[client.c:2393:notify]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?0-store2-client-2: parent translators are ready,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; attempting<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?connect on<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?transport<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; Final graph:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; <br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ?&#43;------------------------------------------------------------------------------&#43;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? ?1: volume store2-client-0<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? ?2:? ? ?type protocol/client<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? ?3:? ? ?option ping-timeout 42<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? ?4:? ? ?option remote-host 172.31.36.11<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? ?5:? ? ?option remote-subvolume<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?/data/gfs/store1/1/brick-store2<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? ?6:? ? ?option transport-type socket<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? ?7:? ? ?option transport.address-family inet<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? ?8:? ? ?option transport.socket.ssl-enabled off<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? ?9:? ? ?option transport.tcp-user-timeout 0<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 10:? ? ?option transport.socket.keepalive-time 20<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 11:? ? ?option transport.socket.keepalive-interval 2<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 12:? ? ?option transport.socket.keepalive-count 9<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 13:? ? ?option send-gids true<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 14: end-volume<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 15:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 16: volume store2-client-1<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 17:? ? ?type protocol/client<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 18:? ? ?option ping-timeout 42<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 19:? ? ?option remote-host 172.31.36.12<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 20:? ? ?option remote-subvolume<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?/data/gfs/store1/1/brick-store2<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 21:? ? ?option transport-type socket<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 22:? ? ?option transport.address-family inet<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 23:? ? ?option transport.socket.ssl-enabled off<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 24:? ? ?option transport.tcp-user-timeout 0<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 25:? ? ?option transport.socket.keepalive-time 20<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 26:? ? ?option transport.socket.keepalive-interval 2<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 27:? ? ?option transport.socket.keepalive-count 9<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 28:? ? ?option send-gids true<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 29: end-volume<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 30:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 31: volume store2-client-2<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 32:? ? ?type protocol/client<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 33:? ? ?option ping-timeout 42<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 34:? ? ?option remote-host 172.31.36.13<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 35:? ? ?option remote-subvolume<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?/data/gfs/store1/1/brick-store2<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 36:? ? ?option transport-type socket<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 37:? ? ?option transport.address-family inet<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 38:? ? ?option transport.socket.ssl-enabled off<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 39:? ? ?option transport.tcp-user-timeout 0<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 40:? ? ?option transport.socket.keepalive-time 20<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 41:? ? ?option transport.socket.keepalive-interval 2<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 42:? ? ?option transport.socket.keepalive-count 9<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 43:? ? ?option send-gids true<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 44: end-volume<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 45:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 46: volume store2-replicate-0<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 47:? ? ?type cluster/replicate<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 48:? ? ?option afr-pending-xattr<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?store2-client-0,store2-client-1,store2-client-2<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 49:? ? ?option use-compound-fops off<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 50:? ? ?subvolumes store2-client-0 store2-client-1<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?store2-client-2<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 51: end-volume<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 52:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 53: volume store2-dht<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 54:? ? ?type cluster/distribute<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 55:? ? ?option lookup-unhashed off<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 56:? ? ?option lock-migration off<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 57:? ? ?option force-migration off<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 58:? ? ?subvolumes store2-replicate-0<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 59: end-volume<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 60:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 61: volume store2-write-behind<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 62:? ? ?type performance/write-behind<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 63:? ? ?subvolumes store2-dht<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 64: end-volume<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 65:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 66: volume store2-read-ahead<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 67:? ? ?type performance/read-ahead<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 68:? ? ?subvolumes store2-write-behind<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 69: end-volume<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 70:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 71: volume store2-readdir-ahead<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 72:? ? ?type performance/readdir-ahead<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 73:? ? ?option parallel-readdir off<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 74:? ? ?option rda-request-size 131072<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 75:? ? ?option rda-cache-limit 10MB<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 76:? ? ?subvolumes store2-read-ahead<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 77: end-volume<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 78:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 79: volume store2-io-cache<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 80:? ? ?type performance/io-cache<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 81:? ? ?subvolumes store2-readdir-ahead<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 82: end-volume<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 83:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 84: volume store2-open-behind<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 85:? ? ?type performance/open-behind<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 86:? ? ?subvolumes store2-io-cache<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 87: end-volume<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 88:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 89: volume store2-quick-read<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 90:? ? ?type performance/quick-read<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 91:? ? ?subvolumes store2-open-behind<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 92: end-volume<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 93:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 94: volume store2-md-cache<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 95:? ? ?type performance/md-cache<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 96:? ? ?subvolumes store2-quick-read<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 97: end-volume<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 98:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;? 99: volume store2<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; 100:? ? ?type debug/io-stats<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; 101:? ? ?option log-level INFO<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; 102:? ? ?option latency-measurement off<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; 103:? ? ?option count-fop-hits off<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; 104:? ? ?subvolumes store2-md-cache<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; 105: end-volume<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; 106:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; 107: volume meta-autoload<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; 108:? ? ?type meta<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; 109:? ? ?subvolumes store2<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; 110: end-volume<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; 111:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; <br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ?&#43;------------------------------------------------------------------------------&#43;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; [2019-10-10 22:07:51.578287] I<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; [fuse-bridge.c:5142:fuse_init]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?0-glusterfs-fuse: FUSE inited with protocol versions:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?glusterfs 7.24<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?kernel 7.22<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; [2019-10-10 22:07:51.578356] I<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?[fuse-bridge.c:5753:fuse_graph_sync]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?0-fuse: switched to graph 0<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; [2019-10-10 22:07:51.578467] I [MSGID: 108006]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?[afr-common.c:5666:afr_local_init]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; 0-store2-replicate-0: no<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?subvolumes up<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; [2019-10-10 22:07:51.578519] E<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?[fuse-bridge.c:5211:fuse_first_lookup]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?0-fuse: first lookup on root failed (Transport<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; endpoint is not<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?connected)<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; [2019-10-10 22:07:51.578709] W<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?[fuse-bridge.c:1266:fuse_attr_cbk]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?0-glusterfs-fuse: 2: LOOKUP() / =&gt; -1 (Transport<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; endpoint is not<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?connected)<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; [2019-10-10 22:07:51.578687] I [MSGID: 108006]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?[afr-common.c:5666:afr_local_init]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; 0-store2-replicate-0: no<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?subvolumes up<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; [2019-10-10 22:09:48.222459] E [MSGID: 108006]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?[afr-common.c:5318:__afr_handle_child_down_event]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?0-store2-replicate-0:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?All subvolumes are down. Going offline until at least<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; one of<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?them comes<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?back up.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt; The message &quot;E [MSGID: 108006]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?[afr-common.c:5318:__afr_handle_child_down_event]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?0-store2-replicate-0:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?All subvolumes are down. Going offline until at least<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; one of<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?them comes<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?back up.&quot; repeated 2 times between [2019-10-10<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?22:09:48.222459] and<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?[2019-10-10 22:09:48.222891]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? ?&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?alexander iliev<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?On 9/8/19 4:50 PM, Alexander Iliev wrote:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; Hi all,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; Sunny, thank you for the update.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; I have applied the patch locally on my slave system and<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?now the<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; mountbroker setup is successful.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; I am facing another issue though - when I try to<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; create a<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?replication<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; session between the two sites I am getting:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;? ??????? # gluster volume geo-replication store1<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; glustergeorep@&lt;slave-host&gt;::store1 create push-pem<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;? ??????? Error : Request timed out<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;? ??????? geo-replication command failed<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; It is still unclear to me if my setup is expected<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; to work<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?at all.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; Reading the geo-replication documentation at [1] I<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; see this<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?paragraph:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;? &gt; A password-less SSH connection is also required<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; for gsyncd<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?between<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; every node in the master to every node in the<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; slave. The<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?gluster<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; system:: execute gsec_create command creates secret-pem<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?files on<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?all the<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; nodes in the master, and is used to implement the<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?password-less SSH<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; connection. The push-pem option in the<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; geo-replication create<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?command<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; pushes these keys to all the nodes in the slave.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; It is not clear to me whether connectivity from each<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?master node<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?to each<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; slave node is a requirement in terms of networking.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; In my<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?setup the<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; slave nodes form the Gluster pool over a private<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; network<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?which is<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?not<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; reachable from the master site.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; Any ideas how to proceed from here will be greatly<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?appreciated.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; Thanks!<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; Links:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; [1]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; <a href="https://access.redhat.com/documentation/en-us/red_hat_gluster_storage/3/html/administration_guide/sect-preparing_to_deploy_geo-replication">
https://access.redhat.com/documentation/en-us/red_hat_gluster_storage/3/html/administration_guide/sect-preparing_to_deploy_geo-replication</a><br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; Best regards,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; --<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; alexander iliev<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; On 9/3/19 2:50 PM, Sunny Kumar wrote:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt; Thank you for the explanation Kaleb.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt; Alexander,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt; This fix will be available with next release for all<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?supported<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?versions.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt; /sunny<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt; On Mon, Sep 2, 2019 at 6:47 PM Kaleb Keithley<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?&lt;kkeithle@redhat.com &lt;<a href="mailto:kkeithle@redhat.com">mailto:kkeithle@redhat.com</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href=""></a>mailto:kkeithle@redhat.com &lt;<a href="mailto:kkeithle@redhat.com">mailto:kkeithle@redhat.com</a>&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:kkeithle@redhat.com &lt;<a href="mailto:kkeithle@redhat.com">mailto:kkeithle@redhat.com</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href=""></a>mailto:kkeithle@redhat.com &lt;<a href="mailto:kkeithle@redhat.com">mailto:kkeithle@redhat.com</a>&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt; wrote:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt; Fixes on master (before or after the release-7 branch<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?was taken)<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt; almost certainly warrant a backport IMO to at least<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?release-6, and<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt; probably release-5 as well.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt; We used to have a &quot;tracker&quot; BZ for each minor<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; release (e.g.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?6.6) to<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt; keep track of backports by cloning the original<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; BZ and<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?changing<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?the<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt; Version, and adding that BZ to the tracker. I'm<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; not sure<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?what<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt; happened to that practice. The last ones I can<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; find are<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?for 6.3<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?and<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt; 5.7;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; <a href="https://bugzilla.redhat.com/show_bug.cgi?id=glusterfs-6.3">https://bugzilla.redhat.com/show_bug.cgi?id=glusterfs-6.3</a> and<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; <a href="https://bugzilla.redhat.com/show_bug.cgi?id=glusterfs-5.7">https://bugzilla.redhat.com/show_bug.cgi?id=glusterfs-5.7</a><br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt; It isn't enough to just backport recent fixes on<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; master to<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?release-7.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt; We are supposedly continuing to maintain<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; release-6 and<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?release-5<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt; after release-7 GAs. If that has changed, I<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; haven't seen an<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt; announcement to that effect. I don't know why our<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?developers don't<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt; automatically backport to all the actively maintained<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?releases.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt; Even if there isn't a tracker BZ, you can always<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; create a<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?backport BZ<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt; by cloning the original BZ and change the release<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; to 6.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?That'd<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?be a<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt; good place to start.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt; On Sun, Sep 1, 2019 at 8:45 AM Alexander Iliev<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt; &lt;ailiev&#43;gluster@mamul.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%2Bgluster@mamul.org">mailto:ailiev%2Bgluster@mamul.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:ailiev%2Bgluster@mamul.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%252Bgluster@mamul.org">mailto:ailiev%252Bgluster@mamul.org</a>&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:ailiev%2Bgluster@mamul.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%252Bgluster@mamul.org">mailto:ailiev%252Bgluster@mamul.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:ailiev%252Bgluster@mamul.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%25252Bgluster@mamul.org">mailto:ailiev%25252Bgluster@mamul.org</a>&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?wrote:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt; Hi Strahil,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt; Yes, this might be right, but I would still expect<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?fixes like<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?this<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt; to be<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt; released for all supported major versions (which<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; should<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?include 6.) At<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt; least that's how I understand<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt; <a href="https://www.gluster.org/release-schedule/">https://www.gluster.org/release-schedule/</a>.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt; Anyway, let's wait for Sunny to clarify.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt; Best regards,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt; alexander iliev<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt; On 9/1/19 2:07 PM, Strahil Nikolov wrote:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; Hi Alex,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; I'm not very deep into bugzilla stuff, but for me<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?NEXTRELEASE<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?means<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; v7.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; Sunny,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; Am I understanding it correctly ?<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; Best Regards,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; Strahil Nikolov<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? ??????, 1 ????????? 2019 ?., 14:27:32 ?.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; ???????&#43;3,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?Alexander Iliev<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; &lt;ailiev&#43;gluster@mamul.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%2Bgluster@mamul.org">mailto:ailiev%2Bgluster@mamul.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:ailiev%2Bgluster@mamul.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%252Bgluster@mamul.org">mailto:ailiev%252Bgluster@mamul.org</a>&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?&lt;<a href=""></a>mailto:ailiev%2Bgluster@mamul.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%252Bgluster@mamul.org">mailto:ailiev%252Bgluster@mamul.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:ailiev%252Bgluster@mamul.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%25252Bgluster@mamul.org">mailto:ailiev%25252Bgluster@mamul.org</a>&gt;&gt;&gt;&gt; ??????:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; Hi Sunny,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; Thank you for the quick response.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; It's not clear to me however if the fix has<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; been already<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?released<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; or not.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; The bug status is CLOSED NEXTRELEASE and<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; according to<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?[1] the<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; NEXTRELEASE resolution means that the fix will be<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?included in<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?the next<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; supported release. The bug is logged against the<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?mainline version<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; though, so I'm not sure what this means exactly.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? From the 6.4[2] and 6.5[3] release notes it<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; seems it<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?hasn't<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?been<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; released yet.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; Ideally I would not like to patch my systems<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; locally,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?so if you<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; have an<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ETA on when this will be out officially I would<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; really<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?appreciate it.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; Links:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; [1]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt; <a href="https://bugzilla.redhat.com/page.cgi?id=fields.html#bug_status">
https://bugzilla.redhat.com/page.cgi?id=fields.html#bug_status</a><br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; [2]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; <a href="https://docs.gluster.org/en/latest/release-notes/6.4/">https://docs.gluster.org/en/latest/release-notes/6.4/</a><br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; [3]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; <a href="https://docs.gluster.org/en/latest/release-notes/6.5/">https://docs.gluster.org/en/latest/release-notes/6.5/</a><br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; Thank you!<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; Best regards,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; alexander iliev<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; On 8/30/19 9:22 AM, Sunny Kumar wrote:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt; Hi Alexander,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt; Thanks for pointing that out!<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt; But this issue is fixed now you can see<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; below link for<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?bz-link<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; and patch.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt; BZ -<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1709248">https://bugzilla.redhat.com/show_bug.cgi?id=1709248</a><br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt; Patch -<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; <a href="https://review.gluster.org/#/c/glusterfs/&#43;/22716/">https://review.gluster.org/#/c/glusterfs/&#43;/22716/</a><br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt; Hope this helps.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt; /sunny<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt; On Fri, Aug 30, 2019 at 2:30 AM Alexander Iliev<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt; &lt;ailiev&#43;gluster@mamul.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%2Bgluster@mamul.org">mailto:ailiev%2Bgluster@mamul.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:ailiev%2Bgluster@mamul.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%252Bgluster@mamul.org">mailto:ailiev%252Bgluster@mamul.org</a>&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?&lt;<a href=""></a>mailto:ailiev%2Bgluster@mamul.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%252Bgluster@mamul.org">mailto:ailiev%252Bgluster@mamul.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:ailiev%252Bgluster@mamul.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:ailiev%25252Bgluster@mamul.org">mailto:ailiev%25252Bgluster@mamul.org</a>&gt;&gt;&gt; &lt;<a href=""></a>mailto:gluster@mamul.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:gluster@mamul.org">mailto:gluster@mamul.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:gluster@mamul.org &lt;<a href="mailto:gluster@mamul.org">mailto:gluster@mamul.org</a>&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?&lt;<a href=""></a>mailto:gluster@mamul.org &lt;<a href="mailto:gluster@mamul.org">mailto:gluster@mamul.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href=""></a>mailto:gluster@mamul.org &lt;<a href="mailto:gluster@mamul.org">mailto:gluster@mamul.org</a>&gt;&gt;&gt;&gt;&gt; wrote:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; Hello dear GlusterFS users list,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; I have been trying to set up geo-replication<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?between two<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; clusters for<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; some time now. The desired state is<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; (Cluster #1)<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?being<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; replicated to<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; (Cluster #2).<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; Here are some details about the setup:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; Cluster #1: three nodes connected via a<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; local network<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; (172.31.35.0/24 &lt;<a href="http://172.31.35.0/24">http://172.31.35.0/24</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="http://172.31.35.0/24">http://172.31.35.0/24</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href="http://172.31.35.0/24">http://172.31.35.0/24</a>&gt;),<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; one replicated (3 replica) volume.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; Cluster #2: three nodes connected via a<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; local network<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; (172.31.36.0/24 &lt;<a href="http://172.31.36.0/24">http://172.31.36.0/24</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="http://172.31.36.0/24">http://172.31.36.0/24</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href="http://172.31.36.0/24">http://172.31.36.0/24</a>&gt;),<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; one replicated (3 replica) volume.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; The two clusters are connected to the Internet<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?via separate<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; network<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; adapters.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; Only SSH (port 22) is open on cluster #2<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; nodes'<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?adapters<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; connected to<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; the Internet.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; All nodes are running Ubuntu 18.04 and<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; GlusterFS 6.3<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?installed<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; from [1].<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; The first time I followed the guide[2]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; everything<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?went<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?fine up<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; until I<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; reached the &quot;Create the session&quot; step.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; That was<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?like a<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?month<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ago, then I<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; had to temporarily stop working in this<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; and now I<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?am coming<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; back to it.<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; Currently, if I try to see the mountbroker<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; status<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?I get the<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; following:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;&gt; # gluster-mountbroker status<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;&gt; Traceback (most recent call last):<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;&gt;??? File &quot;/usr/sbin/gluster-mountbroker&quot;, line<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?396, in<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?&lt;module&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;&gt;????? runcli()<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;&gt;??? File<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;&nbsp;&nbsp;&nbsp;&nbsp; <br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ?&quot;/usr/lib/python3/dist-packages/gluster/cliutils/cliutils.py&quot;, line<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; 225,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; in runcli<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;&gt;????? cls.run(args)<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;&gt;??? File &quot;/usr/sbin/gluster-mountbroker&quot;, line<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?275, in run<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;&gt;????? out = execute_in_peers(&quot;node-status&quot;)<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;&gt;??? File<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&quot;/usr/lib/python3/dist-packages/gluster/cliutils/cliutils.py&quot;,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; line 127, in execute_in_peers<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;&gt;????? raise GlusterCmdException((rc, out,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; err, &quot;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?&quot;.join(cmd)))<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; gluster.cliutils.cliutils.GlusterCmdException:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?(1, '',<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; 'Unable to<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; end. Error : Success\n', 'gluster system::<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; execute<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?mountbroker.py<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; node-status')<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; And in /var/log/gluster/glusterd.log I have:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;&gt; [2019-08-10 15:24:21.418834] E [MSGID:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; 106336]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; [glusterd-geo-rep.c:5413:glusterd_op_sys_exec]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?0-management:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; Unable to<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; end. Error : Success<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;&gt; [2019-08-10 15:24:21.418908] E [MSGID:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; 106122]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; [glusterd-syncop.c:1445:gd_commit_op_phase]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?0-management:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; Commit of<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; operation 'Volume Execute system commands'<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; failed on<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?localhost<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; : Unable<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; to end. Error : Success<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; So, I have two questions right now:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; 1) Is there anything wrong with my setup<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?(networking, open<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ports, etc.)?<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; Is it expected to work with this setup or<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; should<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?I redo<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?it in a<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; different way?<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; 2) How can I troubleshoot the current<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; status of my<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?setup? Can<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; I find out<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; what's missing/wrong and continue from<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; there or<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?should I<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?just<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; start from<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; scratch?<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; Links:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; [1]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; <a href="http://ppa.launchpad.net/gluster/glusterfs-6/ubuntu">http://ppa.launchpad.net/gluster/glusterfs-6/ubuntu</a><br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; [2]<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; <a href="https://docs.gluster.org/en/latest/Administrator%20Guide/Geo%20Replication/">
https://docs.gluster.org/en/latest/Administrator%20Guide/Geo%20Replication/</a><br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; Thank you!<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; Best regards,<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; --<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; alexander iliev<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; _______________________________________________<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; Gluster-users mailing list<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt; Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?&lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt; &lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?&lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; ? &gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; Gluster-users mailing list<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt; Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href=""></a>mailto:Gluster-users@gluster.org &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?&lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href=""></a>mailto:Gluster-users@gluster.org &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt; Gluster-users mailing list<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt; Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href=""></a>mailto:Gluster-users@gluster.org &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; _______________________________________________<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; Gluster-users mailing list<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt; Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href=""></a>mailto:Gluster-users@gluster.org &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?________<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?Community Meeting Calendar:<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?APAC Schedule -<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?Every 2nd and 4th Tuesday at 11:30 AM IST<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?Bridge: <a href="https://bluejeans.com/118564314">https://bluejeans.com/118564314</a><br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?NA/EMEA Schedule -<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?Every 1st and 3rd Tuesday at 01:00 PM EDT<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?Bridge: <a href="https://bluejeans.com/118564314">https://bluejeans.com/118564314</a><br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;? ? ?Gluster-users mailing list<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt; Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt; &lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ?&lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt; &lt;<a href=""></a>mailto:Gluster-users@gluster.org<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp; &lt;<a href="mailto:Gluster-users@gluster.org">mailto:Gluster-users@gluster.org</a>&gt;&gt;&gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users">
https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt; --<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt; regards<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;? ? ? &gt; Aravinda VK<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt;<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; --<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; regards<br>
&gt;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &gt; Aravinda VK<br>
&gt; <br>
&gt; <br>
&gt; <br>
&gt; -- <br>
&gt; regards<br>
&gt; Aravinda VK<br>
<br>
Best regards,<br>
--<br>
alexander iliev<br>
<br>
<br>
------------------------------<br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
Gluster-users@gluster.org<br>
<a href="https://lists.gluster.org/mailman/listinfo/gluster-users">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
<br>
End of Gluster-users Digest, Vol 138, Issue 14<br>
**********************************************<br>
</div>
</span></font></div>
</div>
</div>
</body>
</html>