<div dir="ltr"><div>Hi Aravinda,</div><div><br></div><div>Thanks for the reply. This test server is indeed the master server for geo-replication to a slave.</div><div><br></div><div>I&#39;m really surprised that geo-replication simply keeps writing logs until all space is consumed, without cleaning them up itself. I didn&#39;t see any warning about it in the geo-replication install documentation which is unfortunate. We&#39;ll come up with a solution to delete log files older than the LAST_SYNCED time in the geo-replication status. Is anyone aware of any other potential gotchas like this?<br></div><div><br></div><div>Does anyone have an idea why in my previous note some space in the 2GB GlusterFS partition apparently went missing? We had 0.47GB of data, 1GB reported used by .glusterfs, which even if they were separate files would only add up to 1.47GB used, meaning 0.53GB should have been left in the partition. If less space is actually being used because of the hard links then it&#39;s even harder to understand where the other 1.53GB went. So why would GlusterFS report &quot;No space left on device&quot;?</div><div><br></div><div>Thanks again for any assistance.</div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, 5 Mar 2020 at 17:31, Aravinda VK &lt;<a href="mailto:aravinda@kadalu.io">aravinda@kadalu.io</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div style="overflow-wrap: break-word;">Hi David,<div><br></div><div>Is this Volume is uses Geo-replication? Geo-replication feature enables Changelog to identify the latest changes happening in the GlusterFS volume. </div><div><br></div><div>Content of .glusterfs directory also includes hardlinks to the actual data, so the size shown in .glusterfs is including data. Please refer the comment by Xavi <a href="https://github.com/gluster/glusterfs/issues/833#issuecomment-594436009" target="_blank">https://github.com/gluster/glusterfs/issues/833#issuecomment-594436009</a></div><div><br></div><div>If Changelogs files are causing issue, you can use archival tool to remove processed changelogs.</div><div><a href="https://github.com/aravindavk/archive_gluster_changelogs" target="_blank">https://github.com/aravindavk/archive_gluster_changelogs</a></div><div><br></div><div>—</div><div>regards</div><div><div>Aravinda Vishwanathapura</div><div><a href="https://kadalu.io" target="_blank">https://kadalu.io</a></div><div><br></div><div><br><blockquote type="cite"><div>On 05-Mar-2020, at 9:02 AM, David Cunningham &lt;<a href="mailto:dcunningham@voisonics.com" target="_blank">dcunningham@voisonics.com</a>&gt; wrote:</div><br><div><div dir="ltr"><div>Hello,</div><div><br></div><div>We are looking for some advice on disk use. This is on a single node GlusterFS test server.<br></div><div><br></div><div>There&#39;s a 2GB partition for GlusterFS. Of that, 470MB is used for actual data, and 1GB is used by the .glusterfs directory. The .glusterfs directory is mostly used by the two-character directories and the &quot;changelogs&quot; directory. Why is so much used by .glusterfs, and can we reduce that overhead?</div><div><br></div><div>We also have a problem with this test system where GlusterFS is giving &quot;No space left on device&quot; errors. That&#39;s despite &quot;df&quot; reporting only 54% used, and even if we add the 470MB to 1GB used above, that still comes out to less than the 2GB available, so there should be some spare.<br></div><div><br></div><div>Would anyone be able to advise on these please? Thank you in advance.<br></div><div><br></div><div>The GlusterFS version is 5.11 and here is the volume information:</div><div><br></div><div>Volume Name: gvol0<br>Type: Distribute<br>Volume ID: 33ed309b-0e63-4f9a-8132-ab1b0fdcbc36<br>Status: Started<br>Snapshot Count: 0<br>Number of Bricks: 1<br>Transport-type: tcp<br>Bricks:<br>Brick1: myhost:/nodirectwritedata/gluster/gvol0<br>Options Reconfigured:<br>transport.address-family: inet<br>nfs.disable: on<br>geo-replication.indexing: on<br>geo-replication.ignore-pid-check: on<br>changelog.changelog: on<br></div><div><br></div>-- <br><div dir="ltr"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div>David Cunningham, Voisonics Limited<br><a href="http://voisonics.com/" target="_blank">http://voisonics.com/</a><br>USA: +1 213 221 1092<br>New Zealand: +64 (0)28 2558 3782</div></div></div></div></div></div></div></div></div></div></div></div>
________<br><br><br><br>Community Meeting Calendar:<br><br>Schedule -<br>Every Tuesday at 14:30 IST / 09:00 UTC<br>Bridge: <a href="https://bluejeans.com/441850968" target="_blank">https://bluejeans.com/441850968</a><br><br>Gluster-users mailing list<br><a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br><a href="https://lists.gluster.org/mailman/listinfo/gluster-users" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br></div></blockquote></div><br><div>
<div><br></div><div><br></div><br>
</div>
<br></div></div></blockquote></div><br clear="all"><br>-- <br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div>David Cunningham, Voisonics Limited<br><a href="http://voisonics.com/" target="_blank">http://voisonics.com/</a><br>USA: +1 213 221 1092<br>New Zealand: +64 (0)28 2558 3782</div></div></div></div></div></div></div></div></div></div></div>