<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1">
<style type="text/css" style="display:none"><!--P{margin-top:0;margin-bottom:0;} p
        {margin-top:0;
        margin-bottom:0}--></style>
</head>
<body dir="ltr" style="font-size:12pt;color:#000000;background-color:#FFFFFF;font-family:Calibri,Arial,Helvetica,sans-serif;">
<p>Hi, </p>
<p>As the geo-replication stopped after 4-5 hours, I added a cron job that stopped, paused for 2 mins and started geo-replication again every 6 hours.</p>
<p>The cron job has been running for 5 days and the changelogs has been catching up.</p>
<p><br>
</p>
<p>Now a different behavior has shown up.</p>
<p>In one of the active master nodes I get a python error.</p>
<p>The other active master node has started to toggle status between active and faulty.</p>
<p>See parts of logs below.</p>
<p><br>
</p>
<p>When I read Troubleshooting Geo-replication, there is a suggestion when sync is not complete, to enforce a full sync of the data by erasing the index and restarting GlusterFS geo-replication.</p>
<p>There is no explanation of how to erase the index.</p>
<p>Should I enforse a full sync?</p>
<p>How do I erase the index?</p>
<p><br>
</p>
<p>Thanks a lot!</p>
<p><br>
</p>
<p>Best regards</p>
<p>Marcus Pedersén<br>
</p>
<p><br>
</p>
<p><br>
</p>
<p>Node with python error:</p>
<p>[2018-08-12 16:02:05.304924] I [resource(worker /urd-gds/gluster):1348:connect_remote] SSH: Initializing SSH connection between master and slave...<br>
[2018-08-12 16:02:06.842832] I [resource(worker /urd-gds/gluster):1395:connect_remote] SSH: SSH connection between master and slave established.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; duration=1.5376<br>
[2018-08-12 16:02:06.843370] I [resource(worker /urd-gds/gluster):1067:connect] GLUSTER: Mounting gluster volume locally...<br>
[2018-08-12 16:02:07.930706] I [resource(worker /urd-gds/gluster):1090:connect] GLUSTER: Mounted gluster volume duration=1.0869<br>
[2018-08-12 16:02:07.931536] I [subcmds(worker /urd-gds/gluster):70:subcmd_worker] &lt;top&gt;: Worker spawn successful. Acknowledging back to monitor<br>
[2018-08-12 16:02:20.759797] I [master(worker /urd-gds/gluster):1534:register] _GMaster: Working dir&nbsp;&nbsp;&nbsp; path=/var/lib/misc/gluster/gsyncd/urd-gds-volume_urd-gds-geo-001_urd-gds-volume/urd-gds-gluster<br>
[2018-08-12 16:02:20.760411] I [resource(worker /urd-gds/gluster):1253:service_loop] GLUSTER: Register time&nbsp;&nbsp;&nbsp;&nbsp; time=1534089740<br>
[2018-08-12 16:02:20.831918] I [gsyncdstatus(worker /urd-gds/gluster):276:set_active] GeorepStatus: Worker Status Change&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; status=Active<br>
[2018-08-12 16:02:20.835541] I [gsyncdstatus(worker /urd-gds/gluster):248:set_worker_crawl_status] GeorepStatus: Crawl Status Change&nbsp;&nbsp;&nbsp; status=History Crawl<br>
[2018-08-12 16:02:20.836832] I [master(worker /urd-gds/gluster):1448:crawl] _GMaster: starting history crawl&nbsp;&nbsp;&nbsp; turns=1 stime=(1523906126, 0)&nbsp;&nbsp; entry_stime=None&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; etime=1534089740<br>
[2018-08-12 16:02:21.848570] I [master(worker /urd-gds/gluster):1477:crawl] _GMaster: slave's time&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; stime=(1523906126, 0)<br>
[2018-08-12 16:02:21.950453] E [syncdutils(worker /urd-gds/gluster):330:log_raise_exception] &lt;top&gt;: FAIL:<br>
Traceback (most recent call last):<br>
&nbsp; File &quot;/usr/libexec/glusterfs/python/syncdaemon/syncdutils.py&quot;, line 360, in twrap<br>
&nbsp;&nbsp;&nbsp; tf(*aargs)<br>
&nbsp; File &quot;/usr/libexec/glusterfs/python/syncdaemon/master.py&quot;, line 1880, in syncjob<br>
&nbsp;&nbsp;&nbsp; po = self.sync_engine(pb, self.log_err)<br>
&nbsp; File &quot;/usr/libexec/glusterfs/python/syncdaemon/resource.py&quot;, line 1413, in rsync<br>
&nbsp;&nbsp;&nbsp; rconf.ssh_ctl_args &#43; \<br>
AttributeError: 'NoneType' object has no attribute 'split'<br>
[2018-08-12 16:02:21.975228] I [repce(agent /urd-gds/gluster):80:service_loop] RepceServer: terminating on reaching EOF.<br>
[2018-08-12 16:02:22.947170] I [monitor(monitor):272:monitor] Monitor: worker died in startup phase&nbsp;&nbsp;&nbsp;&nbsp; brick=/urd-gds/gluster<br>
[2018-08-12 16:02:22.954096] I [gsyncdstatus(monitor):243:set_worker_status] GeorepStatus: Worker Status Change status=Faulty<br>
[2018-08-12 16:02:32.973948] I [monitor(monitor):158:monitor] Monitor: starting gsyncd worker&nbsp;&nbsp; brick=/urd-gds/gluster&nbsp; slave_node=urd-gds-geo-000<br>
[2018-08-12 16:02:33.16155] I [gsyncd(agent /urd-gds/gluster):297:main] &lt;top&gt;: Using session config file&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; path=/var/lib/glusterd/geo-replication/urd-gds-volume_urd-gds-geo-001_urd-gds-volume/gsyncd.conf<br>
[2018-08-12 16:02:33.16882] I [changelogagent(agent /urd-gds/gluster):72:__init__] ChangelogAgent: Agent listining...<br>
[2018-08-12 16:02:33.17292] I [gsyncd(worker /urd-gds/gluster):297:main] &lt;top&gt;: Using session config file&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; path=/var/lib/glusterd/geo-replication/urd-gds-volume_urd-gds-geo-001_urd-gds-volume/gsyncd.conf<br>
[2018-08-12 16:02:33.26951] I [resource(worker /urd-gds/gluster):1348:connect_remote] SSH: Initializing SSH connection between master and slave...<br>
[2018-08-12 16:02:34.642838] I [resource(worker /urd-gds/gluster):1395:connect_remote] SSH: SSH connection between master and slave established.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; duration=1.6156<br>
[2018-08-12 16:02:34.643369] I [resource(worker /urd-gds/gluster):1067:connect] GLUSTER: Mounting gluster volume locally...</p>
<p><br>
</p>
<p><br>
</p>
<p><br>
</p>
<p>Node that toggles status between active and faulty:</p>
<p>[2018-08-12 19:33:03.475833] I [master(worker /urd-gds/gluster):1885:syncjob] Syncer: Sync Time Taken&nbsp;&nbsp; duration=0.2757 num_files=27&nbsp;&nbsp;&nbsp; job=2&nbsp;&nbsp; return_code=23<br>
[2018-08-12 19:33:04.818854] I [master(worker /urd-gds/gluster):1885:syncjob] Syncer: Sync Time Taken&nbsp;&nbsp; duration=0.3767 num_files=67&nbsp;&nbsp;&nbsp; job=1&nbsp;&nbsp; return_code=23<br>
[2018-08-12 19:33:09.926820] E [repce(worker /urd-gds/gluster):197:__call__] RepceClient: call failed&nbsp;&nbsp; call=14853:139697829693248:1534102389.64&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; method=entry_ops&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; error=GsyncdError<br>
[2018-08-12 19:33:09.927042] E [syncdutils(worker /urd-gds/gluster):298:log_raise_exception] &lt;top&gt;: execution of &quot;gluster&quot; failed with ENOENT (No such file or directory)<br>
[2018-08-12 19:33:09.942267] I [repce(agent /urd-gds/gluster):80:service_loop] RepceServer: terminating on reaching EOF.<br>
[2018-08-12 19:33:10.349848] I [monitor(monitor):272:monitor] Monitor: worker died in startup phase&nbsp;&nbsp;&nbsp;&nbsp; brick=/urd-gds/gluster<br>
[2018-08-12 19:33:10.363173] I [gsyncdstatus(monitor):243:set_worker_status] GeorepStatus: Worker Status Change status=Faulty<br>
[2018-08-12 19:33:20.386089] I [monitor(monitor):158:monitor] Monitor: starting gsyncd worker&nbsp;&nbsp; brick=/urd-gds/gluster&nbsp; slave_node=urd-gds-geo-000<br>
[2018-08-12 19:33:20.456687] I [gsyncd(agent /urd-gds/gluster):297:main] &lt;top&gt;: Using session config file&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; path=/var/lib/glusterd/geo-replication/urd-gds-volume_urd-gds-geo-001_urd-gds-volume/gsyncd.conf<br>
[2018-08-12 19:33:20.456686] I [gsyncd(worker /urd-gds/gluster):297:main] &lt;top&gt;: Using session config file&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; path=/var/lib/glusterd/geo-replication/urd-gds-volume_urd-gds-geo-001_urd-gds-volume/gsyncd.conf<br>
[2018-08-12 19:33:20.457559] I [changelogagent(agent /urd-gds/gluster):72:__init__] ChangelogAgent: Agent listining...<br>
[2018-08-12 19:33:20.511825] I [resource(worker /urd-gds/gluster):1348:connect_remote] SSH: Initializing SSH connection between master and slave...<br>
[2018-08-12 19:33:22.88713] I [resource(worker /urd-gds/gluster):1395:connect_remote] SSH: SSH connection between master and slave established. duration=1.5766<br>
[2018-08-12 19:33:22.89272] I [resource(worker /urd-gds/gluster):1067:connect] GLUSTER: Mounting gluster volume locally...<br>
[2018-08-12 19:33:23.179249] I [resource(worker /urd-gds/gluster):1090:connect] GLUSTER: Mounted gluster volume duration=1.0896<br>
[2018-08-12 19:33:23.179805] I [subcmds(worker /urd-gds/gluster):70:subcmd_worker] &lt;top&gt;: Worker spawn successful. Acknowledging back to monitor<br>
[2018-08-12 19:33:35.245277] I [master(worker /urd-gds/gluster):1534:register] _GMaster: Working dir&nbsp;&nbsp;&nbsp; path=/var/lib/misc/gluster/gsyncd/urd-gds-volume_urd-gds-geo-001_urd-gds-volume/urd-gds-gluster<br>
[2018-08-12 19:33:35.246495] I [resource(worker /urd-gds/gluster):1253:service_loop] GLUSTER: Register time&nbsp;&nbsp;&nbsp;&nbsp; time=1534102415<br>
[2018-08-12 19:33:35.321988] I [gsyncdstatus(worker /urd-gds/gluster):276:set_active] GeorepStatus: Worker Status Change&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; status=Active<br>
[2018-08-12 19:33:35.324270] I [gsyncdstatus(worker /urd-gds/gluster):248:set_worker_crawl_status] GeorepStatus: Crawl Status Change&nbsp;&nbsp;&nbsp; status=History Crawl<br>
[2018-08-12 19:33:35.324902] I [master(worker /urd-gds/gluster):1448:crawl] _GMaster: starting history crawl&nbsp;&nbsp;&nbsp; turns=1 stime=(1525290650, 0)&nbsp;&nbsp; entry_stime=(1525296245, 0)&nbsp;&nbsp;&nbsp;&nbsp; etime=1534102415<br>
[2018-08-12 19:33:35.328735] I [master(worker /urd-gds/gluster):1477:crawl] _GMaster: slave's time&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; stime=(1525290650, 0)<br>
[2018-08-12 19:33:35.574338] I [master(worker /urd-gds/gluster):1301:process] _GMaster: Skipping already processed entry ops&nbsp;&nbsp;&nbsp; to_changelog=1525290651 num_changelogs=1&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; from_changelog=1525290651<br>
[2018-08-12 19:33:35.574448] I [master(worker /urd-gds/gluster):1315:process] _GMaster: Entry Time Taken&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; MKD=0&nbsp;&nbsp; MKN=0&nbsp;&nbsp; LIN=0&nbsp;&nbsp; SYM=0&nbsp;&nbsp; REN=0&nbsp;&nbsp; RMD=0&nbsp;&nbsp; CRE=0&nbsp;&nbsp; duration=0.0000 UNL=0<br>
[2018-08-12 19:33:35.574507] I [master(worker /urd-gds/gluster):1325:process] _GMaster: Data/Metadata Time Taken&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; SETA=1&nbsp; SETX=0&nbsp; meta_duration=0.0249&nbsp;&nbsp;&nbsp; data_duration=0.2156&nbsp;&nbsp;&nbsp; DATA=0&nbsp; XATT=0<br>
[2018-08-12 19:33:35.574723] I [master(worker /urd-gds/gluster):1335:process] _GMaster: Batch Completed changelog_end=1525290651&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; entry_stime=(1525296245, 0)&nbsp;&nbsp;&nbsp;&nbsp; changelog_start=1525290651&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; stime=(152\<br>
5290650, 0)&nbsp;&nbsp; duration=0.2455 num_changelogs=1&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; mode=history_changelog<br>
[2018-08-12 19:33:35.582545] I [master(worker /urd-gds/gluster):1477:crawl] _GMaster: slave's time&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; stime=(1525290650, 0)<br>
[2018-08-12 19:33:35.780823] I [master(worker /urd-gds/gluster):1885:syncjob] Syncer: Sync Time Taken&nbsp;&nbsp; duration=0.0847 num_files=3&nbsp;&nbsp;&nbsp;&nbsp; job=2&nbsp;&nbsp; return_code=23<br>
[2018-08-12 19:33:37.362822] I [master(worker /urd-gds/gluster):1885:syncjob] Syncer: Sync Time Taken&nbsp;&nbsp; duration=0.0807 num_files=4&nbsp;&nbsp;&nbsp;&nbsp; job=2&nbsp;&nbsp; return_code=23<br>
[2018-08-12 19:33:37.818542] I [master(worker /urd-gds/gluster):1885:syncjob] Syncer: Sync Time Taken&nbsp;&nbsp; duration=0.1098 num_files=11&nbsp;&nbsp;&nbsp; job=1&nbsp;&nbsp; return_code=23&nbsp;
<br>
</p>
<p><br>
</p>
<div dir="ltr" style="font-size:12pt; color:#000000; background-color:#FFFFFF; font-family:Calibri,Arial,Helvetica,sans-serif">
<hr tabindex="-1" style="display:inline-block; width:98%">
<div id="divRplyFwdMsg" dir="ltr"><font style="font-size:11pt" face="Calibri, sans-serif" color="#000000"><b>Från:</b> gluster-users-bounces@gluster.org &lt;gluster-users-bounces@gluster.org&gt; för Marcus Pedersén &lt;marcus.pedersen@slu.se&gt;<br>
<b>Skickat:</b> den 6 augusti 2018 13:28<br>
<b>Till:</b> khiremat@redhat.com<br>
<b>Kopia:</b> gluster-users@gluster.org<br>
<b>Ämne:</b> Re: [Gluster-users] Geo-replication stops after 4-5 hours</font>
<div>&nbsp;</div>
</div>
<div>
<p>Hi,</p>
<p>Is there a way to resolve the problem with rsync and hanging processes?</p>
<p>Do I need to kill all the processes and hope that it starts again or stop/start geo-replication?</p>
<p><br>
</p>
<p>If I stop/start geo-replication it will start again, I have tried it before.<br>
</p>
<p><br>
</p>
<p>Regards</p>
<p>Marcus</p>
<p><br>
</p>
<p><br>
</p>
<div style="color:rgb(33,33,33)">
<hr tabindex="-1" style="display:inline-block; width:98%">
<div id="divRplyFwdMsg" dir="ltr"><font style="font-size:11pt" face="Calibri, sans-serif" color="#000000"><b>Från:</b> gluster-users-bounces@gluster.org &lt;gluster-users-bounces@gluster.org&gt; för Marcus Pedersén &lt;marcus.pedersen@slu.se&gt;<br>
<b>Skickat:</b> den 2 augusti 2018 10:04<br>
<b>Till:</b> Kotresh Hiremath Ravishankar<br>
<b>Kopia:</b> gluster-users@gluster.org<br>
<b>Ämne:</b> Re: [Gluster-users] Geo-replication stops after 4-5 hours</font>
<div>&nbsp;</div>
</div>
<div>
<div dir="auto">
<div>
<div dir="auto">Hi Kotresh,</div>
<div dir="auto"><br>
</div>
<div dir="auto">I get the following and then it hangs:</div>
<div dir="auto"><br>
</div>
strace: Process 5921 attached&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; write(2, &quot;rsync: link_stat \&quot;/tmp/gsyncd-au&quot;..., 12811<br>
<br>
<br>
When sync is running I can see rsync with geouser on the slave node.</div>
<div dir="auto"><br>
</div>
<div dir="auto">Regards</div>
<div dir="auto">Marcus</div>
<div dir="auto"><br>
<div dir="auto">################<br>
Marcus Pedersén<br>
Systemadministrator <br>
Interbull Centre<br>
################<br>
Sent from my phone <br>
################</div>
<div class="gmail_extra" dir="auto"><br>
<div class="gmail_quote">Den 2 aug. 2018 09:31 skrev Kotresh Hiremath Ravishankar &lt;khiremat@redhat.com&gt;:<br type="attribution">
<blockquote class="quote" style="margin:0 0 0 .8ex; border-left:1px #ccc solid; padding-left:1ex">
<div>
<div dir="ltr">
<div>Cool, just check whether they are hung by any chance with following command.<br>
<br>
</div>
#strace -f -p 5921<br>
</div>
<div><br>
<div class="elided-text">On Thu, Aug 2, 2018 at 12:25 PM, Marcus Pedersén <span dir="ltr">
&lt;<a href="mailto:marcus.pedersen@slu.se">marcus.pedersen@slu.se</a>&gt;</span> wrote:<br>
<blockquote style="margin:0 0 0 0.8ex; border-left:1px #ccc solid; padding-left:1ex">
<div>
<div dir="auto">On both active master nodes there is an rsync process. As in:
<div dir="auto"><br>
root&nbsp; &nbsp; &nbsp; 5921&nbsp; 0.0&nbsp; 0.0 115424&nbsp; 1176 ?&nbsp; &nbsp; &nbsp; &nbsp; S&nbsp; &nbsp; Aug01&nbsp; &nbsp;0:00 rsync -aR0 --inplace --files-from=- --super --stats --numeric-ids --no-implied-dirs --xattrs --acls . -e ssh -oPasswordAuthentication=no -oStrictHostKeyChecking=no -i /var/lib/glusterd/geo-<wbr>replication/secret.pem
 -p 22 -oControlMaster=auto -S /tmp/gsyncd-aux-ssh-stuphs/<wbr>bf60c68f1a195dad59573a8dbaa309<wbr>f2.sock geouser@urd-gds-geo-001:/proc/<wbr>13077/cwd</div>
<div dir="auto"><br>
</div>
<div dir="auto">There is also ssh tunnels to slave nodes and&nbsp; gsyncd.py processes.</div>
<div dir="auto"><br>
</div>
<div dir="auto">Regards</div>
<div dir="auto">Marcus&nbsp;</div>
<div dir="auto"><br>
<div dir="auto">################<br>
Marcus Pedersén<br>
Systemadministrator <br>
Interbull Centre<br>
################<br>
Sent from my phone <br>
################</div>
</div>
</div>
<div>
<div>
<div><br>
<div class="elided-text">Den 2 aug. 2018 08:07 skrev Kotresh Hiremath Ravishankar &lt;<a href="mailto:khiremat@redhat.com">khiremat@redhat.com</a>&gt;:<br type="attribution">
</div>
</div>
<div>
<div dir="ltr">Could you look of any rsync processes hung in master or slave?<br>
</div>
<div><br>
<div class="elided-text">On Thu, Aug 2, 2018 at 11:18 AM, Marcus Pedersén <span dir="ltr">
&lt;<a href="mailto:marcus.pedersen@slu.se">marcus.pedersen@slu.se</a>&gt;</span> wrote:<br>
<blockquote style="margin:0 0 0 0.8ex; border-left:1px #ccc solid; padding-left:1ex">
<div>
<div dir="auto">
<div>Hi Kortesh,
<div dir="auto">rsync&nbsp; version 3.1.2&nbsp; protocol version 31</div>
<div dir="auto">All nodes run CentOS 7, updated the last couple of days.</div>
<div dir="auto"><br>
</div>
<div dir="auto">Thanks</div>
<div dir="auto">Marcus&nbsp;<br>
<br>
<div dir="auto">################<font color="#888888"><br>
Marcus Pedersén<br>
Systemadministrator <br>
Interbull Centre<br>
################<br>
Sent from my phone <br>
################</font></div>
</div>
<div>
<div><br>
<div><br>
<div class="elided-text">Den 2 aug. 2018 06:13 skrev Kotresh Hiremath Ravishankar &lt;<a href="mailto:khiremat@redhat.com">khiremat@redhat.com</a>&gt;:<br type="attribution">
<blockquote style="margin:0 0 0 0.8ex; border-left:1px #ccc solid; padding-left:1ex">
<div>
<div dir="ltr">
<div>
<div>
<div>Hi Marcus,<br>
<br>
</div>
What's the rsync version being used?<br>
<br>
</div>
Thanks,<br>
</div>
Kotresh HR<br>
</div>
<div><br>
<div>On Thu, Aug 2, 2018 at 1:48 AM, Marcus Pedersén <span dir="ltr">&lt;<a href="mailto:marcus.pedersen@slu.se">marcus.pedersen@slu.se</a>&gt;</span> wrote:<br>
<blockquote style="margin:0 0 0 0.8ex; border-left:1px #ccc solid; padding-left:1ex">
<div dir="ltr" style="font-size:12pt; color:#000000; background-color:#ffffff; font-family:'calibri' ,'arial' ,'helvetica' ,sans-serif">
<p>Hi all!</p>
<p>I upgraded from 3.12.9 to 4.1.1 and had problems with geo-replication.</p>
<p>With help from the list with some sym links and so on (handled in another thread)</p>
<p>I got the geo-replication running.</p>
<p>It ran for 4-5 hours and then stopped, I stopped and started geo-replication and it ran for another 4-5 hours.</p>
<p>4.1.2 was released and I updated, hoping this would solve the problem.</p>
<p>I still have the same problem, at start it runs for 4-5 hours and then it stops.</p>
<p>After that nothing happens, I have waited for days&nbsp;but still nothing&nbsp;happens.</p>
<p><br>
</p>
<p>I have looked through logs but can not find anything obvious.<br>
</p>
<p><br>
</p>
<p>Status&nbsp;for&nbsp;geo-replication&nbsp;is&nbsp;<wbr>active for the two same nodes all the time:</p>
<p><br>
</p>
<p>MASTER NODE&nbsp;&nbsp;&nbsp; MASTER VOL&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; MASTER BRICK&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; SLAVE USER&nbsp;&nbsp;&nbsp; SLAVE&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<wbr>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; SLAVE NODE&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; STATUS&nbsp;&nbsp;&nbsp;&nbsp; CRAWL STATUS&nbsp;&nbsp;&nbsp;&nbsp; LAST_SYNCED&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; ENTRY&nbsp;&nbsp;&nbsp; DATA&nbsp;&nbsp;&nbsp;&nbsp; META&nbsp;&nbsp;&nbsp; FAILURES&nbsp;&nbsp;&nbsp; CHECKPOINT TIME&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; CHECKPOINT
 COMPLETED&nbsp;&nbsp;&nbsp; CHECKPOINT COMPLETION TIME&nbsp; &nbsp;<br>
------------------------------<wbr>------------------------------<wbr>------------------------------<wbr>------------------------------<wbr>------------------------------<wbr>------------------------------<wbr>------------------------------<wbr>-----<br>
urd-gds-001&nbsp;&nbsp;&nbsp; urd-gds-volume&nbsp;&nbsp;&nbsp; /urd-gds/gluster&nbsp;&nbsp;&nbsp;&nbsp; geouser&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; geouser@urd-gds-geo-001::urd-g<wbr>ds-volume&nbsp;&nbsp;&nbsp; urd-gds-geo-000&nbsp;&nbsp;&nbsp; Active&nbsp;&nbsp;&nbsp;&nbsp; History Crawl&nbsp;&nbsp;&nbsp; 2018-04-16 20:32:09&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 14205&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 2018-07-27 21:12:44&nbsp;&nbsp;&nbsp; No&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
 N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &nbsp;<br>
urd-gds-002&nbsp;&nbsp;&nbsp; urd-gds-volume&nbsp;&nbsp;&nbsp; /urd-gds/gluster&nbsp;&nbsp;&nbsp;&nbsp; geouser&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; geouser@urd-gds-geo-001::urd-g<wbr>ds-volume&nbsp;&nbsp;&nbsp; urd-gds-geo-002&nbsp;&nbsp;&nbsp; Passive&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
 N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &nbsp;<br>
urd-gds-004&nbsp;&nbsp;&nbsp; urd-gds-volume&nbsp;&nbsp;&nbsp; /urd-gds/gluster&nbsp;&nbsp;&nbsp;&nbsp; geouser&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; geouser@urd-gds-geo-001::urd-g<wbr>ds-volume&nbsp;&nbsp;&nbsp; urd-gds-geo-002&nbsp;&nbsp;&nbsp; Passive&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
 N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &nbsp;<br>
urd-gds-003&nbsp;&nbsp;&nbsp; urd-gds-volume&nbsp;&nbsp;&nbsp; /urd-gds/gluster&nbsp;&nbsp;&nbsp;&nbsp; geouser&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; geouser@urd-gds-geo-001::urd-g<wbr>ds-volume&nbsp;&nbsp;&nbsp; urd-gds-geo-000&nbsp;&nbsp;&nbsp; Active&nbsp;&nbsp;&nbsp;&nbsp; History Crawl&nbsp;&nbsp;&nbsp; 2018-05-01 20:58:14&nbsp;&nbsp;&nbsp; 285&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 4552&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 2018-07-27 21:12:44&nbsp;&nbsp;&nbsp; No&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
 N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &nbsp;<br>
urd-gds-000&nbsp;&nbsp;&nbsp; urd-gds-volume&nbsp;&nbsp;&nbsp; /urd-gds/gluster1&nbsp;&nbsp;&nbsp; geouser&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; geouser@urd-gds-geo-001::urd-g<wbr>ds-volume&nbsp;&nbsp;&nbsp; urd-gds-geo-001&nbsp;&nbsp;&nbsp; Passive&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
 N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; &nbsp;<br>
urd-gds-000&nbsp;&nbsp;&nbsp; urd-gds-volume&nbsp;&nbsp;&nbsp; /urd-gds/gluster2&nbsp;&nbsp;&nbsp; geouser&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; geouser@urd-gds-geo-001::urd-g<wbr>ds-volume&nbsp;&nbsp;&nbsp; urd-gds-geo-001&nbsp;&nbsp;&nbsp; Passive&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;
 N/A&nbsp;</p>
<p><br>
</p>
<p>Master cluster is Distribute-Replicate </p>
<p>2 x (2 &#43; 1) </p>
<p>Used space 30TB<br>
</p>
<p><br>
</p>
<p>Slave cluster is Replicate</p>
<p>1 x (2 &#43; 1)</p>
<p>Used space 9TB</p>
<p><br>
</p>
<p>Parts from gsyncd.logs are enclosed.<br>
</p>
<p><br>
</p>
<p>Thanks a lot!</p>
<p><br>
</p>
<p>Best regards</p>
<p>Marcus Pedersén</p>
<p><br>
</p>
<p><br>
</p>
<p><br>
</p>
<p>---<br>
När du skickar e-post till SLU så innebär detta att SLU behandlar dina personuppgifter. För att läsa mer om hur detta går till, klicka
<a href="https://www.slu.se/om-slu/kontakta-slu/personuppgifter/">här </a><br>
E-mailing SLU will result in SLU processing your personal data. For more information on how this is done, click
<a href="https://www.slu.se/en/about-slu/contact-slu/personal-data/">here </a></p>
</div>
<br>
______________________________<wbr>_________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="https://lists.gluster.org/mailman/listinfo/gluster-users">https://lists.gluster.org/mail<wbr>man/listinfo/gluster-users</a><br>
</blockquote>
</div>
<br>
<br clear="all">
<br>
-- <br>
<div>
<div dir="ltr">
<div>Thanks and Regards,<br>
</div>
Kotresh H R<br>
</div>
</div>
</div>
</div>
</blockquote>
</div>
<br>
</div>
</div>
</div>
</div>
</div>
<div>
<div>
<p>---<br>
När du skickar e-post till SLU så innebär detta att SLU behandlar dina personuppgifter. För att läsa mer om hur detta går till, klicka
<a href="https://www.slu.se/om-slu/kontakta-slu/personuppgifter/">här </a><br>
E-mailing SLU will result in SLU processing your personal data. For more information on how this is done, click
<a href="https://www.slu.se/en/about-slu/contact-slu/personal-data/">here </a></p>
</div>
</div>
</div>
</blockquote>
</div>
<br>
<br clear="all">
<br>
-- <br>
<div>
<div dir="ltr">
<div>Thanks and Regards,<br>
</div>
Kotresh H R<br>
</div>
</div>
</div>
</div>
<p>---<br>
När du skickar e-post till SLU så innebär detta att SLU behandlar dina personuppgifter. För att läsa mer om hur detta går till, klicka
<a href="https://www.slu.se/om-slu/kontakta-slu/personuppgifter/">här </a><br>
E-mailing SLU will result in SLU processing your personal data. For more information on how this is done, click
<a href="https://www.slu.se/en/about-slu/contact-slu/personal-data/">here </a></p>
</div>
</div>
</div>
</blockquote>
</div>
<br>
<br clear="all">
<br>
-- <br>
<div>
<div dir="ltr">
<div>Thanks and Regards,<br>
</div>
Kotresh H R<br>
</div>
</div>
</div>
</div>
</blockquote>
</div>
<br>
</div>
</div>
</div>
<p>---<br>
När du skickar e-post till SLU så innebär detta att SLU behandlar dina personuppgifter. För att läsa mer om hur detta går till, klicka
<a href="https://www.slu.se/om-slu/kontakta-slu/personuppgifter/">här </a><br>
E-mailing SLU will result in SLU processing your personal data. For more information on how this is done, click
<a href="https://www.slu.se/en/about-slu/contact-slu/personal-data/">here </a></p>
</div>
</div>
<p>---<br>
När du skickar e-post till SLU så innebär detta att SLU behandlar dina personuppgifter. För att läsa mer om hur detta går till, klicka
<a href="https://www.slu.se/om-slu/kontakta-slu/personuppgifter/">här </a><br>
E-mailing SLU will result in SLU processing your personal data. For more information on how this is done, click
<a href="https://www.slu.se/en/about-slu/contact-slu/personal-data/">here </a></p>
</div>
</div>
<p>---<br>
När du skickar e-post till SLU så innebär detta att SLU behandlar dina personuppgifter. För att läsa mer om hur detta går till, klicka
<a href="https://www.slu.se/om-slu/kontakta-slu/personuppgifter/">här </a><br>
E-mailing SLU will result in SLU processing your personal data. For more information on how this is done, click
<a href="https://www.slu.se/en/about-slu/contact-slu/personal-data/">here </a></p>
</body>
</html>