<div dir="ltr"><div>Hi,</div><div><br></div><div>Just to follow up my first observation from this email from december: automatic scheduled scrubs that not happen. We have now upgraded glusterfs from 7.4 to 10.1, and now see that the automated scrubs ARE running now. Not sure why they didn't in 7.4, but issue solved. :-)</div><div><br></div><div>MJ<br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, 12 Dec 2022 at 13:38, cYuSeDfZfb cYuSeDfZfb <<a href="mailto:cyusedfzfb@gmail.com">cyusedfzfb@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>Hi,</div><div><br></div><div>I am running a PoC with cluster, and, as one does, I am trying to break and heal it.<br></div><div><br></div><div>One of the things I am testing is scrubbing / healing.</div><div><br></div><div>My cluster is created on ubuntu 20.04 with stock glusterfs 7.2, and my test volume info:</div><div><br></div>Volume Name: gv0<br>Type: Replicate<br>Volume ID: 7c09100b-8095-4062-971f-2cea9fa8c2bc<br>Status: Started<br>Snapshot Count: 0<br>Number of Bricks: 1 x 3 = 3<br>Transport-type: tcp<br>Bricks:<br>Brick1: gluster1:/data/brick1/gv0<br>Brick2: 
gluster2:/data/brick1/gv0<br>Brick3: 
gluster3:/data/brick1/gv0<br>Options Reconfigured:<br>features.scrub-freq: daily<br>auth.allow: x.y.z.q<br>transport.address-family: inet<br>storage.fips-mode-rchecksum: on<br>nfs.disable: on<br>performance.client-io-threads: off<br>features.bitrot: on<br>features.scrub: Active<br>features.scrub-throttle: aggressive<br>storage.build-pgfid: on<br><div><br></div><div>I have two issues:</div><div><br></div>1) scrubs are configured to run daily (see above) but they don't automatically happen. Do I need to configure something to actually get daily automatic scrubs?<br><div><br></div><div>2) A "scrub status" reports *many* skipped files, and only very few files that have actually been scrubbed. Why are so many files skipped?</div><div><br></div><div>See:<br></div><div><div></div>

</div><div><br></div><div>gluster volume bitrot gv0 scrub status<br><br>Volume name : gv0<br><br>State of scrub: Active (Idle)<br><br>Scrub impact: aggressive<br><br>Scrub frequency: daily<br><br>Bitrot error log location: /var/log/glusterfs/bitd.log<br><br>Scrubber error log location: /var/log/glusterfs/scrub.log<br><br><br>=========================================================<br><br>Node: localhost<br><br>Number of Scrubbed files: 8112<br><br>Number of Skipped files: 51209<br><br>Last completed scrub time: 2022-12-10 04:36:55<br><br>Duration of last scrub (D:M:H:M:S): 0:16:58:53<br><br>Error count: 0<br><br><br>=========================================================<br><br>Node: 
gluster3<br><br>Number of Scrubbed files: 42<br><br>Number of Skipped files: 59282<br><br>Last completed scrub time: 2022-12-10 02:24:42<br><br>Duration of last scrub (D:M:H:M:S): 0:16:58:15<br><br>Error count: 0<br><br><br>=========================================================<br><br>Node: 
gluster2<br><br>Number of Scrubbed files: 42<br><br>Number of Skipped files: 59282<br><br>Last completed scrub time: 2022-12-10 02:24:29<br><br>Duration of last scrub (D:M:H:M:S): 0:16:58:2<br><br>Error count: 0<br><br>=========================================================</div><div><br></div><div>Thanks!</div><div>MJ<br></div></div>
</blockquote></div>