<div dir="ltr"><div>Got it.</div><div></div><div></div><div><br></div><div>Geo-replication uses slave nodes IP in the following cases,</div><div><br></div><div>- Verification during Session creation - It tries to mount the Slave volume using the hostname/IP provided in Geo-rep create command. Try Geo-rep create by specifying the external IP which is accessible from the master node.</div><div>- Once Geo-replication is started, it gets the list of Slave nodes IP/hostname from Slave volume info and connects to those IPs. But in this case, those are internal IP addresses that are not accessible from Master nodes. - We need to enhance Geo-replication to accept external IP and internal IP map <span class="gmail-gr_ gmail-gr_1429 gmail-gr-alert gmail-gr_gramm gmail-gr_inline_cards gmail-gr_run_anim gmail-Punctuation gmail-only-del gmail-replaceWithoutSep" id="gmail-1429">details</span> so that for all connections it can use external IP.</div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Oct 16, 2019 at 10:29 PM Alexander Iliev &lt;<a href="mailto:ailiev%2Bgluster@mamul.org">ailiev+gluster@mamul.org</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hi Aravinda,<br>
<br>All volume brick on the slave volume are up and the volume seems functional.<br>
<br>Your suggestion about trying to mount the slave volume on a master node <br>brings up my question about network connectivity again - the GlusterFS <br>documentation[1] says:<br>
<br> &gt; The server specified in the mount command is only used to fetch the <br>gluster configuration volfile describing the volume name. Subsequently, <br>the client will communicate directly with the servers mentioned in the <br>volfile (which might not even include the one used for mount).<br>
<br>To me this means that the masternode from your example is expected to <br>have connectivity to the network where the slave volume runs, i.e. to <br>have network access to the slave nodes. In my geo-replication scenario <br>this is definitely not the case. The two cluster are running in two <br>completely different networks that are not interconnected.<br>
<br>So my question is - how is the slave volume mount expected to happen if <br>the client host cannot access the GlusterFS nodes? Or is the <br>connectivity a requirement even for geo-replication?<br>
<br>I&#39;m not sure if I&#39;m missing something, but any help will be highly <br>appreciated!<br>
<br>Thanks!<br>
<br>Links:<br>[1] <br>
<a href="https://gluster.readthedocs.io/en/latest/Administrator%20Guide/Setting%20Up%20Clients/" rel="noreferrer" target="_blank">https://gluster.readthedocs.io/en/latest/Administrator%20Guide/Setting%20Up%20Clients/</a><br>--<br>alexander iliev<br>
<br>On 10/16/19 6:03 AM, Aravinda Vishwanathapura Krishna Murthy wrote:<br>&gt; Hi Alexander,<br>&gt; <br>&gt; Please check the status of Volume. Looks like the Slave volume mount is <br>&gt; failing because bricks are down or not reachable. If Volume status shows <br>&gt; all bricks are up then try mounting the slave volume using mount command.<br>&gt; <br>&gt; ```<br>&gt; masternode$ mkdir /mnt/vol<br>&gt; masternode$ mount -t glusterfs &lt;slavehost&gt;:&lt;slavevol&gt; /mnt/vol<br>&gt; ```<br>&gt; <br>&gt; On Fri, Oct 11, 2019 at 4:03 AM Alexander Iliev <br>&gt; &lt;<a href="mailto:ailiev%2Bgluster@mamul.org" target="_blank">ailiev+gluster@mamul.org</a> &lt;mailto:<a href="mailto:ailiev%252Bgluster@mamul.org" target="_blank">ailiev%2Bgluster@mamul.org</a>&gt;&gt; wrote:<br>&gt; <br>&gt;     Hi all,<br>&gt; <br>&gt;     I ended up reinstalling the nodes with CentOS 7.5 and GlusterFS 6.5<br>&gt;     (installed from the SIG.)<br>&gt; <br>&gt;     Now when I try to create a replication session I get the following:<br>&gt; <br>&gt;       &gt; # gluster volume geo-replication store1 &lt;slave-host&gt;::store2 create<br>&gt;     push-pem<br>&gt;       &gt; Unable to mount and fetch slave volume details. Please check the<br>&gt;     log:<br>&gt;     /var/log/glusterfs/geo-replication/gverify-slavemnt.log<br>&gt;       &gt; geo-replication command failed<br>&gt; <br>&gt;     You can find the contents of gverify-slavemnt.log below, but the<br>&gt;     initial<br>&gt;     error seems to be:<br>&gt; <br>&gt;       &gt; [2019-10-10 22:07:51.578519] E<br>&gt;     [fuse-bridge.c:5211:fuse_first_lookup]<br>&gt;     0-fuse: first lookup on root failed (Transport endpoint is not<br>&gt;     connected)<br>&gt; <br>&gt;     I only found<br>&gt;     [this](<a href="https://bugzilla.redhat.com/show_bug.cgi?id=1659824" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/show_bug.cgi?id=1659824</a>)<br>&gt;     bug report which doesn&#39;t seem to help. The reported issue is failure to<br>&gt;     mount a volume on a GlusterFS client, but in my case I need<br>&gt;     geo-replication which implies the client (geo-replication master) being<br>&gt;     on a different network.<br>&gt; <br>&gt;     Any help will be appreciated.<br>&gt; <br>&gt;     Thanks!<br>&gt; <br>&gt;     gverify-slavemnt.log:<br>&gt; <br>&gt;       &gt; [2019-10-10 22:07:40.571256] I [MSGID: 100030]<br>&gt;     [glusterfsd.c:2847:main] 0-glusterfs: Started running glusterfs version<br>&gt;     6.5 (args: glusterfs --xlator-option=*dht.lookup-unhashed=off<br>&gt;     --volfile-server &lt;slave-host&gt; --volfile-id store2 -l<br>&gt;     /var/log/glusterfs/geo-replication/gverify-slavemnt.log<br>&gt;     /tmp/gverify.sh.5nFlRh)<br>&gt;       &gt; [2019-10-10 22:07:40.575438] I [glusterfsd.c:2556:daemonize]<br>&gt;     0-glusterfs: Pid of current running process is 6021<br>&gt;       &gt; [2019-10-10 22:07:40.584282] I [MSGID: 101190]<br>&gt;     [event-epoll.c:680:event_dispatch_epoll_worker] 0-epoll: Started thread<br>&gt;     with index 0<br>&gt;       &gt; [2019-10-10 22:07:40.584299] I [MSGID: 101190]<br>&gt;     [event-epoll.c:680:event_dispatch_epoll_worker] 0-epoll: Started thread<br>&gt;     with index 1<br>&gt;       &gt; [2019-10-10 22:07:40.928094] I [MSGID: 114020]<br>&gt;     [client.c:2393:notify]<br>&gt;     0-store2-client-0: parent translators are ready, attempting connect on<br>&gt;     transport<br>&gt;       &gt; [2019-10-10 22:07:40.931121] I [MSGID: 114020]<br>&gt;     [client.c:2393:notify]<br>&gt;     0-store2-client-1: parent translators are ready, attempting connect on<br>&gt;     transport<br>&gt;       &gt; [2019-10-10 22:07:40.933976] I [MSGID: 114020]<br>&gt;     [client.c:2393:notify]<br>&gt;     0-store2-client-2: parent translators are ready, attempting connect on<br>&gt;     transport<br>&gt;       &gt; Final graph:<br>&gt;       &gt;<br>&gt;     +------------------------------------------------------------------------------+<br>&gt;       &gt;   1: volume store2-client-0<br>&gt;       &gt;   2:     type protocol/client<br>&gt;       &gt;   3:     option ping-timeout 42<br>&gt;       &gt;   4:     option remote-host 172.31.36.11<br>&gt;       &gt;   5:     option remote-subvolume /data/gfs/store1/1/brick-store2<br>&gt;       &gt;   6:     option transport-type socket<br>&gt;       &gt;   7:     option transport.address-family inet<br>&gt;       &gt;   8:     option transport.socket.ssl-enabled off<br>&gt;       &gt;   9:     option transport.tcp-user-timeout 0<br>&gt;       &gt;  10:     option transport.socket.keepalive-time 20<br>&gt;       &gt;  11:     option transport.socket.keepalive-interval 2<br>&gt;       &gt;  12:     option transport.socket.keepalive-count 9<br>&gt;       &gt;  13:     option send-gids true<br>&gt;       &gt;  14: end-volume<br>&gt;       &gt;  15:<br>&gt;       &gt;  16: volume store2-client-1<br>&gt;       &gt;  17:     type protocol/client<br>&gt;       &gt;  18:     option ping-timeout 42<br>&gt;       &gt;  19:     option remote-host 172.31.36.12<br>&gt;       &gt;  20:     option remote-subvolume /data/gfs/store1/1/brick-store2<br>&gt;       &gt;  21:     option transport-type socket<br>&gt;       &gt;  22:     option transport.address-family inet<br>&gt;       &gt;  23:     option transport.socket.ssl-enabled off<br>&gt;       &gt;  24:     option transport.tcp-user-timeout 0<br>&gt;       &gt;  25:     option transport.socket.keepalive-time 20<br>&gt;       &gt;  26:     option transport.socket.keepalive-interval 2<br>&gt;       &gt;  27:     option transport.socket.keepalive-count 9<br>&gt;       &gt;  28:     option send-gids true<br>&gt;       &gt;  29: end-volume<br>&gt;       &gt;  30:<br>&gt;       &gt;  31: volume store2-client-2<br>&gt;       &gt;  32:     type protocol/client<br>&gt;       &gt;  33:     option ping-timeout 42<br>&gt;       &gt;  34:     option remote-host 172.31.36.13<br>&gt;       &gt;  35:     option remote-subvolume /data/gfs/store1/1/brick-store2<br>&gt;       &gt;  36:     option transport-type socket<br>&gt;       &gt;  37:     option transport.address-family inet<br>&gt;       &gt;  38:     option transport.socket.ssl-enabled off<br>&gt;       &gt;  39:     option transport.tcp-user-timeout 0<br>&gt;       &gt;  40:     option transport.socket.keepalive-time 20<br>&gt;       &gt;  41:     option transport.socket.keepalive-interval 2<br>&gt;       &gt;  42:     option transport.socket.keepalive-count 9<br>&gt;       &gt;  43:     option send-gids true<br>&gt;       &gt;  44: end-volume<br>&gt;       &gt;  45:<br>&gt;       &gt;  46: volume store2-replicate-0<br>&gt;       &gt;  47:     type cluster/replicate<br>&gt;       &gt;  48:     option afr-pending-xattr<br>&gt;     store2-client-0,store2-client-1,store2-client-2<br>&gt;       &gt;  49:     option use-compound-fops off<br>&gt;       &gt;  50:     subvolumes store2-client-0 store2-client-1 store2-client-2<br>&gt;       &gt;  51: end-volume<br>&gt;       &gt;  52:<br>&gt;       &gt;  53: volume store2-dht<br>&gt;       &gt;  54:     type cluster/distribute<br>&gt;       &gt;  55:     option lookup-unhashed off<br>&gt;       &gt;  56:     option lock-migration off<br>&gt;       &gt;  57:     option force-migration off<br>&gt;       &gt;  58:     subvolumes store2-replicate-0<br>&gt;       &gt;  59: end-volume<br>&gt;       &gt;  60:<br>&gt;       &gt;  61: volume store2-write-behind<br>&gt;       &gt;  62:     type performance/write-behind<br>&gt;       &gt;  63:     subvolumes store2-dht<br>&gt;       &gt;  64: end-volume<br>&gt;       &gt;  65:<br>&gt;       &gt;  66: volume store2-read-ahead<br>&gt;       &gt;  67:     type performance/read-ahead<br>&gt;       &gt;  68:     subvolumes store2-write-behind<br>&gt;       &gt;  69: end-volume<br>&gt;       &gt;  70:<br>&gt;       &gt;  71: volume store2-readdir-ahead<br>&gt;       &gt;  72:     type performance/readdir-ahead<br>&gt;       &gt;  73:     option parallel-readdir off<br>&gt;       &gt;  74:     option rda-request-size 131072<br>&gt;       &gt;  75:     option rda-cache-limit 10MB<br>&gt;       &gt;  76:     subvolumes store2-read-ahead<br>&gt;       &gt;  77: end-volume<br>&gt;       &gt;  78:<br>&gt;       &gt;  79: volume store2-io-cache<br>&gt;       &gt;  80:     type performance/io-cache<br>&gt;       &gt;  81:     subvolumes store2-readdir-ahead<br>&gt;       &gt;  82: end-volume<br>&gt;       &gt;  83:<br>&gt;       &gt;  84: volume store2-open-behind<br>&gt;       &gt;  85:     type performance/open-behind<br>&gt;       &gt;  86:     subvolumes store2-io-cache<br>&gt;       &gt;  87: end-volume<br>&gt;       &gt;  88:<br>&gt;       &gt;  89: volume store2-quick-read<br>&gt;       &gt;  90:     type performance/quick-read<br>&gt;       &gt;  91:     subvolumes store2-open-behind<br>&gt;       &gt;  92: end-volume<br>&gt;       &gt;  93:<br>&gt;       &gt;  94: volume store2-md-cache<br>&gt;       &gt;  95:     type performance/md-cache<br>&gt;       &gt;  96:     subvolumes store2-quick-read<br>&gt;       &gt;  97: end-volume<br>&gt;       &gt;  98:<br>&gt;       &gt;  99: volume store2<br>&gt;       &gt; 100:     type debug/io-stats<br>&gt;       &gt; 101:     option log-level INFO<br>&gt;       &gt; 102:     option latency-measurement off<br>&gt;       &gt; 103:     option count-fop-hits off<br>&gt;       &gt; 104:     subvolumes store2-md-cache<br>&gt;       &gt; 105: end-volume<br>&gt;       &gt; 106:<br>&gt;       &gt; 107: volume meta-autoload<br>&gt;       &gt; 108:     type meta<br>&gt;       &gt; 109:     subvolumes store2<br>&gt;       &gt; 110: end-volume<br>&gt;       &gt; 111:<br>&gt;       &gt;<br>&gt;     +------------------------------------------------------------------------------+<br>&gt;       &gt; [2019-10-10 22:07:51.578287] I [fuse-bridge.c:5142:fuse_init]<br>&gt;     0-glusterfs-fuse: FUSE inited with protocol versions: glusterfs 7.24<br>&gt;     kernel 7.22<br>&gt;       &gt; [2019-10-10 22:07:51.578356] I [fuse-bridge.c:5753:fuse_graph_sync]<br>&gt;     0-fuse: switched to graph 0<br>&gt;       &gt; [2019-10-10 22:07:51.578467] I [MSGID: 108006]<br>&gt;     [afr-common.c:5666:afr_local_init] 0-store2-replicate-0: no<br>&gt;     subvolumes up<br>&gt;       &gt; [2019-10-10 22:07:51.578519] E<br>&gt;     [fuse-bridge.c:5211:fuse_first_lookup]<br>&gt;     0-fuse: first lookup on root failed (Transport endpoint is not<br>&gt;     connected)<br>&gt;       &gt; [2019-10-10 22:07:51.578709] W [fuse-bridge.c:1266:fuse_attr_cbk]<br>&gt;     0-glusterfs-fuse: 2: LOOKUP() / =&gt; -1 (Transport endpoint is not<br>&gt;     connected)<br>&gt;       &gt; [2019-10-10 22:07:51.578687] I [MSGID: 108006]<br>&gt;     [afr-common.c:5666:afr_local_init] 0-store2-replicate-0: no<br>&gt;     subvolumes up<br>&gt;       &gt; [2019-10-10 22:09:48.222459] E [MSGID: 108006]<br>&gt;     [afr-common.c:5318:__afr_handle_child_down_event] 0-store2-replicate-0:<br>&gt;     All subvolumes are down. Going offline until at least one of them comes<br>&gt;     back up.<br>&gt;       &gt; The message &quot;E [MSGID: 108006]<br>&gt;     [afr-common.c:5318:__afr_handle_child_down_event] 0-store2-replicate-0:<br>&gt;     All subvolumes are down. Going offline until at least one of them comes<br>&gt;     back up.&quot; repeated 2 times between [2019-10-10 22:09:48.222459] and<br>&gt;     [2019-10-10 22:09:48.222891]<br>&gt;       &gt;<br>&gt; <br>&gt;     alexander iliev<br>&gt; <br>&gt;     On 9/8/19 4:50 PM, Alexander Iliev wrote:<br>&gt;      &gt; Hi all,<br>&gt;      &gt;<br>&gt;      &gt; Sunny, thank you for the update.<br>&gt;      &gt;<br>&gt;      &gt; I have applied the patch locally on my slave system and now the<br>&gt;      &gt; mountbroker setup is successful.<br>&gt;      &gt;<br>&gt;      &gt; I am facing another issue though - when I try to create a<br>&gt;     replication<br>&gt;      &gt; session between the two sites I am getting:<br>&gt;      &gt;<br>&gt;      &gt;          # gluster volume geo-replication store1<br>&gt;      &gt; glustergeorep@&lt;slave-host&gt;::store1 create push-pem<br>&gt;      &gt;          Error : Request timed out<br>&gt;      &gt;          geo-replication command failed<br>&gt;      &gt;<br>&gt;      &gt; It is still unclear to me if my setup is expected to work at all.<br>&gt;      &gt;<br>&gt;      &gt; Reading the geo-replication documentation at [1] I see this<br>&gt;     paragraph:<br>&gt;      &gt;<br>&gt;      &gt;  &gt; A password-less SSH connection is also required for gsyncd<br>&gt;     between<br>&gt;      &gt; every node in the master to every node in the slave. The gluster<br>&gt;      &gt; system:: execute gsec_create command creates secret-pem files on<br>&gt;     all the<br>&gt;      &gt; nodes in the master, and is used to implement the password-less SSH<br>&gt;      &gt; connection. The push-pem option in the geo-replication create<br>&gt;     command<br>&gt;      &gt; pushes these keys to all the nodes in the slave.<br>&gt;      &gt;<br>&gt;      &gt; It is not clear to me whether connectivity from each master node<br>&gt;     to each<br>&gt;      &gt; slave node is a requirement in terms of networking. In my setup the<br>&gt;      &gt; slave nodes form the Gluster pool over a private network which is<br>&gt;     not<br>&gt;      &gt; reachable from the master site.<br>&gt;      &gt;<br>&gt;      &gt; Any ideas how to proceed from here will be greatly appreciated.<br>&gt;      &gt;<br>&gt;      &gt; Thanks!<br>&gt;      &gt;<br>&gt;      &gt; Links:<br>&gt;      &gt; [1]<br>&gt;      &gt;<br>&gt;     <a href="https://access.redhat.com/documentation/en-us/red_hat_gluster_storage/3/html/administration_guide/sect-preparing_to_deploy_geo-replication" rel="noreferrer" target="_blank">https://access.redhat.com/documentation/en-us/red_hat_gluster_storage/3/html/administration_guide/sect-preparing_to_deploy_geo-replication</a><br>&gt; <br>&gt;      &gt;<br>&gt;      &gt;<br>&gt;      &gt; Best regards,<br>&gt;      &gt; --<br>&gt;      &gt; alexander iliev<br>&gt;      &gt;<br>&gt;      &gt; On 9/3/19 2:50 PM, Sunny Kumar wrote:<br>&gt;      &gt;&gt; Thank you for the explanation Kaleb.<br>&gt;      &gt;&gt;<br>&gt;      &gt;&gt; Alexander,<br>&gt;      &gt;&gt;<br>&gt;      &gt;&gt; This fix will be available with next release for all supported<br>&gt;     versions.<br>&gt;      &gt;&gt;<br>&gt;      &gt;&gt; /sunny<br>&gt;      &gt;&gt;<br>&gt;      &gt;&gt; On Mon, Sep 2, 2019 at 6:47 PM Kaleb Keithley<br>&gt;     &lt;<a href="mailto:kkeithle@redhat.com" target="_blank">kkeithle@redhat.com</a> &lt;mailto:<a href="mailto:kkeithle@redhat.com" target="_blank">kkeithle@redhat.com</a>&gt;&gt;<br>&gt;      &gt;&gt; wrote:<br>&gt;      &gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt; Fixes on master (before or after the release-7 branch was taken)<br>&gt;      &gt;&gt;&gt; almost certainly warrant a backport IMO to at least release-6, and<br>&gt;      &gt;&gt;&gt; probably release-5 as well.<br>&gt;      &gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt; We used to have a &quot;tracker&quot; BZ for each minor release (e.g.<br>&gt;     6.6) to<br>&gt;      &gt;&gt;&gt; keep track of backports by cloning the original BZ and changing<br>&gt;     the<br>&gt;      &gt;&gt;&gt; Version, and adding that BZ to the tracker. I&#39;m not sure what<br>&gt;      &gt;&gt;&gt; happened to that practice. The last ones I can find are for 6.3<br>&gt;     and<br>&gt;      &gt;&gt;&gt; 5.7; <a href="https://bugzilla.redhat.com/show_bug.cgi?id=glusterfs-6.3" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/show_bug.cgi?id=glusterfs-6.3</a> and<br>&gt;      &gt;&gt;&gt; <a href="https://bugzilla.redhat.com/show_bug.cgi?id=glusterfs-5.7" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/show_bug.cgi?id=glusterfs-5.7</a><br>&gt;      &gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt; It isn&#39;t enough to just backport recent fixes on master to<br>&gt;     release-7.<br>&gt;      &gt;&gt;&gt; We are supposedly continuing to maintain release-6 and release-5<br>&gt;      &gt;&gt;&gt; after release-7 GAs. If that has changed, I haven&#39;t seen an<br>&gt;      &gt;&gt;&gt; announcement to that effect. I don&#39;t know why our developers don&#39;t<br>&gt;      &gt;&gt;&gt; automatically backport to all the actively maintained releases.<br>&gt;      &gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt; Even if there isn&#39;t a tracker BZ, you can always create a<br>&gt;     backport BZ<br>&gt;      &gt;&gt;&gt; by cloning the original BZ and change the release to 6. That&#39;d<br>&gt;     be a<br>&gt;      &gt;&gt;&gt; good place to start.<br>&gt;      &gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt; On Sun, Sep 1, 2019 at 8:45 AM Alexander Iliev<br>&gt;      &gt;&gt;&gt; &lt;<a href="mailto:ailiev%2Bgluster@mamul.org" target="_blank">ailiev+gluster@mamul.org</a> &lt;mailto:<a href="mailto:ailiev%252Bgluster@mamul.org" target="_blank">ailiev%2Bgluster@mamul.org</a>&gt;&gt;<br>&gt;     wrote:<br>&gt;      &gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt; Hi Strahil,<br>&gt;      &gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt; Yes, this might be right, but I would still expect fixes like<br>&gt;     this<br>&gt;      &gt;&gt;&gt;&gt; to be<br>&gt;      &gt;&gt;&gt;&gt; released for all supported major versions (which should<br>&gt;     include 6.) At<br>&gt;      &gt;&gt;&gt;&gt; least that&#39;s how I understand<br>&gt;      &gt;&gt;&gt;&gt; <a href="https://www.gluster.org/release-schedule/" rel="noreferrer" target="_blank">https://www.gluster.org/release-schedule/</a>.<br>&gt;      &gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt; Anyway, let&#39;s wait for Sunny to clarify.<br>&gt;      &gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt; Best regards,<br>&gt;      &gt;&gt;&gt;&gt; alexander iliev<br>&gt;      &gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt; On 9/1/19 2:07 PM, Strahil Nikolov wrote:<br>&gt;      &gt;&gt;&gt;&gt;&gt; Hi Alex,<br>&gt;      &gt;&gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt; I&#39;m not very deep into bugzilla stuff, but for me NEXTRELEASE<br>&gt;     means<br>&gt;      &gt;&gt;&gt;&gt;&gt; v7.<br>&gt;      &gt;&gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt; Sunny,<br>&gt;      &gt;&gt;&gt;&gt;&gt; Am I understanding it correctly ?<br>&gt;      &gt;&gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt; Best Regards,<br>&gt;      &gt;&gt;&gt;&gt;&gt; Strahil Nikolov<br>&gt;      &gt;&gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt; В неделя, 1 септември 2019 г., 14:27:32 ч. Гринуич+3,<br>&gt;     Alexander Iliev<br>&gt;      &gt;&gt;&gt;&gt;&gt; &lt;<a href="mailto:ailiev%2Bgluster@mamul.org" target="_blank">ailiev+gluster@mamul.org</a><br>&gt;     &lt;mailto:<a href="mailto:ailiev%252Bgluster@mamul.org" target="_blank">ailiev%2Bgluster@mamul.org</a>&gt;&gt; написа:<br>&gt;      &gt;&gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt; Hi Sunny,<br>&gt;      &gt;&gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt; Thank you for the quick response.<br>&gt;      &gt;&gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt; It&#39;s not clear to me however if the fix has been already<br>&gt;     released<br>&gt;      &gt;&gt;&gt;&gt;&gt; or not.<br>&gt;      &gt;&gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt; The bug status is CLOSED NEXTRELEASE and according to [1] the<br>&gt;      &gt;&gt;&gt;&gt;&gt; NEXTRELEASE resolution means that the fix will be included in<br>&gt;     the next<br>&gt;      &gt;&gt;&gt;&gt;&gt; supported release. The bug is logged against the mainline version<br>&gt;      &gt;&gt;&gt;&gt;&gt; though, so I&#39;m not sure what this means exactly.<br>&gt;      &gt;&gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   From the 6.4[2] and 6.5[3] release notes it seems it hasn&#39;t<br>&gt;     been<br>&gt;      &gt;&gt;&gt;&gt;&gt; released yet.<br>&gt;      &gt;&gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt; Ideally I would not like to patch my systems locally, so if you<br>&gt;      &gt;&gt;&gt;&gt;&gt; have an<br>&gt;      &gt;&gt;&gt;&gt;&gt; ETA on when this will be out officially I would really<br>&gt;     appreciate it.<br>&gt;      &gt;&gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt; Links:<br>&gt;      &gt;&gt;&gt;&gt;&gt; [1]<br>&gt;     <a href="https://bugzilla.redhat.com/page.cgi?id=fields.html#bug_status" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/page.cgi?id=fields.html#bug_status</a><br>&gt;      &gt;&gt;&gt;&gt;&gt; [2] <a href="https://docs.gluster.org/en/latest/release-notes/6.4/" rel="noreferrer" target="_blank">https://docs.gluster.org/en/latest/release-notes/6.4/</a><br>&gt;      &gt;&gt;&gt;&gt;&gt; [3] <a href="https://docs.gluster.org/en/latest/release-notes/6.5/" rel="noreferrer" target="_blank">https://docs.gluster.org/en/latest/release-notes/6.5/</a><br>&gt;      &gt;&gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt; Thank you!<br>&gt;      &gt;&gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt; Best regards,<br>&gt;      &gt;&gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt; alexander iliev<br>&gt;      &gt;&gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt; On 8/30/19 9:22 AM, Sunny Kumar wrote:<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt; Hi Alexander,<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt; Thanks for pointing that out!<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt; But this issue is fixed now you can see below link for<br>&gt;     bz-link<br>&gt;      &gt;&gt;&gt;&gt;&gt; and patch.<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt; BZ - <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1709248" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/show_bug.cgi?id=1709248</a><br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt; Patch - <a href="https://review.gluster.org/#/c/glusterfs/+/22716/" rel="noreferrer" target="_blank">https://review.gluster.org/#/c/glusterfs/+/22716/</a><br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt; Hope this helps.<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt; /sunny<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt; On Fri, Aug 30, 2019 at 2:30 AM Alexander Iliev<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt; &lt;<a href="mailto:ailiev%2Bgluster@mamul.org" target="_blank">ailiev+gluster@mamul.org</a><br>&gt;     &lt;mailto:<a href="mailto:ailiev%252Bgluster@mamul.org" target="_blank">ailiev%2Bgluster@mamul.org</a>&gt; &lt;mailto:<a href="mailto:gluster@mamul.org" target="_blank">gluster@mamul.org</a><br>&gt;     &lt;mailto:<a href="mailto:gluster@mamul.org" target="_blank">gluster@mamul.org</a>&gt;&gt;&gt; wrote:<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; Hello dear GlusterFS users list,<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; I have been trying to set up geo-replication between two<br>&gt;      &gt;&gt;&gt;&gt;&gt; clusters for<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; some time now. The desired state is (Cluster #1) being<br>&gt;      &gt;&gt;&gt;&gt;&gt; replicated to<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; (Cluster #2).<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; Here are some details about the setup:<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; Cluster #1: three nodes connected via a local network<br>&gt;      &gt;&gt;&gt;&gt;&gt; (<a href="http://172.31.35.0/24" rel="noreferrer" target="_blank">172.31.35.0/24</a> &lt;<a href="http://172.31.35.0/24" rel="noreferrer" target="_blank">http://172.31.35.0/24</a>&gt;),<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; one replicated (3 replica) volume.<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; Cluster #2: three nodes connected via a local network<br>&gt;      &gt;&gt;&gt;&gt;&gt; (<a href="http://172.31.36.0/24" rel="noreferrer" target="_blank">172.31.36.0/24</a> &lt;<a href="http://172.31.36.0/24" rel="noreferrer" target="_blank">http://172.31.36.0/24</a>&gt;),<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; one replicated (3 replica) volume.<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; The two clusters are connected to the Internet via separate<br>&gt;      &gt;&gt;&gt;&gt;&gt; network<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; adapters.<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; Only SSH (port 22) is open on cluster #2 nodes&#39; adapters<br>&gt;      &gt;&gt;&gt;&gt;&gt; connected to<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; the Internet.<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; All nodes are running Ubuntu 18.04 and GlusterFS 6.3<br>&gt;     installed<br>&gt;      &gt;&gt;&gt;&gt;&gt; from [1].<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; The first time I followed the guide[2] everything went<br>&gt;     fine up<br>&gt;      &gt;&gt;&gt;&gt;&gt; until I<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; reached the &quot;Create the session&quot; step. That was like a<br>&gt;     month<br>&gt;      &gt;&gt;&gt;&gt;&gt; ago, then I<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; had to temporarily stop working in this and now I am coming<br>&gt;      &gt;&gt;&gt;&gt;&gt; back to it.<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; Currently, if I try to see the mountbroker status I get the<br>&gt;      &gt;&gt;&gt;&gt;&gt; following:<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;&gt; # gluster-mountbroker status<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;&gt; Traceback (most recent call last):<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;&gt;    File &quot;/usr/sbin/gluster-mountbroker&quot;, line 396, in<br>&gt;     &lt;module&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;&gt;      runcli()<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;&gt;    File<br>&gt;      &gt;&gt;&gt;&gt;&gt;<br>&gt;     &quot;/usr/lib/python3/dist-packages/gluster/cliutils/cliutils.py&quot;, line<br>&gt;      &gt;&gt;&gt;&gt;&gt; 225,<br>&gt;      &gt;&gt;&gt;&gt;&gt; in runcli<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;&gt;      cls.run(args)<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;&gt;    File &quot;/usr/sbin/gluster-mountbroker&quot;, line 275, in run<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;&gt;      out = execute_in_peers(&quot;node-status&quot;)<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;&gt;    File<br>&gt;      &gt;&gt;&gt;&gt;&gt; &quot;/usr/lib/python3/dist-packages/gluster/cliutils/cliutils.py&quot;,<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; line 127, in execute_in_peers<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;&gt;      raise GlusterCmdException((rc, out, err, &quot;<br>&gt;     &quot;.join(cmd)))<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;&gt; gluster.cliutils.cliutils.GlusterCmdException: (1, &#39;&#39;,<br>&gt;      &gt;&gt;&gt;&gt;&gt; &#39;Unable to<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; end. Error : Success\n&#39;, &#39;gluster system:: execute<br>&gt;     mountbroker.py<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; node-status&#39;)<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; And in /var/log/gluster/glusterd.log I have:<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;&gt; [2019-08-10 15:24:21.418834] E [MSGID: 106336]<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; [glusterd-geo-rep.c:5413:glusterd_op_sys_exec]<br>&gt;     0-management:<br>&gt;      &gt;&gt;&gt;&gt;&gt; Unable to<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; end. Error : Success<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;&gt; [2019-08-10 15:24:21.418908] E [MSGID: 106122]<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; [glusterd-syncop.c:1445:gd_commit_op_phase] 0-management:<br>&gt;      &gt;&gt;&gt;&gt;&gt; Commit of<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; operation &#39;Volume Execute system commands&#39; failed on<br>&gt;     localhost<br>&gt;      &gt;&gt;&gt;&gt;&gt; : Unable<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; to end. Error : Success<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; So, I have two questions right now:<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; 1) Is there anything wrong with my setup (networking, open<br>&gt;      &gt;&gt;&gt;&gt;&gt; ports, etc.)?<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; Is it expected to work with this setup or should I redo<br>&gt;     it in a<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; different way?<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; 2) How can I troubleshoot the current status of my<br>&gt;     setup? Can<br>&gt;      &gt;&gt;&gt;&gt;&gt; I find out<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; what&#39;s missing/wrong and continue from there or should I<br>&gt;     just<br>&gt;      &gt;&gt;&gt;&gt;&gt; start from<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; scratch?<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; Links:<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; [1] <a href="http://ppa.launchpad.net/gluster/glusterfs-6/ubuntu" rel="noreferrer" target="_blank">http://ppa.launchpad.net/gluster/glusterfs-6/ubuntu</a><br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; [2]<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;<br>&gt;     <a href="https://docs.gluster.org/en/latest/Administrator%20Guide/Geo%20Replication/" rel="noreferrer" target="_blank">https://docs.gluster.org/en/latest/Administrator%20Guide/Geo%20Replication/</a><br>&gt; <br>&gt;      &gt;&gt;&gt;&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; Thank you!<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; Best regards,<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; --<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; alexander iliev<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; _______________________________________________<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; Gluster-users mailing list<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>&gt;     &lt;mailto:<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a>&gt; &lt;mailto:<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>&gt;     &lt;mailto:<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a>&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt;   &gt;&gt; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>&gt;      &gt;&gt;&gt;&gt;&gt; _______________________________________________<br>&gt;      &gt;&gt;&gt;&gt;&gt; Gluster-users mailing list<br>&gt;      &gt;&gt;&gt;&gt;&gt; <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a> &lt;mailto:<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a>&gt;<br>&gt;     &lt;mailto:<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a> &lt;mailto:<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a>&gt;&gt;<br>&gt;      &gt;&gt;&gt;&gt;&gt; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>&gt;      &gt;&gt;&gt;&gt; _______________________________________________<br>&gt;      &gt;&gt;&gt;&gt; Gluster-users mailing list<br>&gt;      &gt;&gt;&gt;&gt; <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a> &lt;mailto:<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a>&gt;<br>&gt;      &gt;&gt;&gt;&gt; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>&gt;      &gt; _______________________________________________<br>&gt;      &gt; Gluster-users mailing list<br>&gt;      &gt; <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a> &lt;mailto:<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a>&gt;<br>&gt;      &gt; <a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>&gt;     ________<br>&gt; <br>&gt;     Community Meeting Calendar:<br>&gt; <br>&gt;     APAC Schedule -<br>&gt;     Every 2nd and 4th Tuesday at 11:30 AM IST<br>&gt;     Bridge: <a href="https://bluejeans.com/118564314" rel="noreferrer" target="_blank">https://bluejeans.com/118564314</a><br>&gt; <br>&gt;     NA/EMEA Schedule -<br>&gt;     Every 1st and 3rd Tuesday at 01:00 PM EDT<br>&gt;     Bridge: <a href="https://bluejeans.com/118564314" rel="noreferrer" target="_blank">https://bluejeans.com/118564314</a><br>&gt; <br>&gt;     Gluster-users mailing list<br>&gt;     <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a> &lt;mailto:<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a>&gt;<br>&gt;     <a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>&gt; <br>&gt; <br>&gt; <br>&gt; -- <br>&gt; regards<br>&gt; Aravinda VK<br>
</blockquote></div><br clear="all"><br>-- <br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div>regards<br></div>Aravinda VK<br></div></div></div></div></div></div></div>