<div>Dear all,<br></div><div><br></div><div>Thanks to this fix I could successfully upgrade from GlusterFS 6.9 to 7.8 but now, 1 week later after the upgrade, I have rebooted my third node (arbiter node) and unfortunately the bricks do not want to come up on that node. I get the same following error message:<br></div><div><br></div><div>[2020-10-26 06:21:59.726705] E [MSGID: 106012] [glusterd-utils.c:3682:glusterd_compare_friend_volume] 0-management: Cksums of quota configuration of volume myvol-private differ. local cksum = 0, remote&nbsp; cksum = 66908910 on peer node2.domain<br></div><div>[2020-10-26 06:21:59.726871] I [MSGID: 106493] [glusterd-handler.c:3715:glusterd_xfer_friend_add_resp] 0-glusterd: Responded to node2.domain (0), ret: 0, op_ret: -1<br></div><div>[2020-10-26 06:21:59.728164] I [MSGID: 106490] [glusterd-handler.c:2434:__glusterd_handle_incoming_friend_req] 0-glusterd: Received probe from uuid: 5f4ccbf4-33f6-4298-8b31-213553223349<br></div><div>[2020-10-26 06:21:59.728969] E [MSGID: 106012] [glusterd-utils.c:3682:glusterd_compare_friend_volume] 0-management: Cksums of quota configuration of volume myvol-private differ. local cksum = 0, remote&nbsp; cksum = 66908910 on peer node1.domain<br></div><div>[2020-10-26 06:21:59.729099] I [MSGID: 106493] [glusterd-handler.c:3715:glusterd_xfer_friend_add_resp] 0-glusterd: Responded to node1.domain (0), ret: 0, op_ret: -1<br></div><div><br></div><div>Can someone please advise what I need to do in order to have my arbiter node up and running again as soon as possible?<br></div><div><br></div><div>Thank you very much in advance for your help.<br></div><div><br>Best regards,</div><div>Mabi<br></div><div class="protonmail_signature_block protonmail_signature_block-empty"><div class="protonmail_signature_block-user protonmail_signature_block-empty"><div><br></div></div><div class="protonmail_signature_block-proton protonmail_signature_block-empty"><br></div></div><div><br></div><div>‐‐‐‐‐‐‐ Original Message ‐‐‐‐‐‐‐<br></div><div> On Monday, September 7, 2020 5:49 AM, Sanju Rakonde &lt;srakonde@redhat.com&gt; wrote:<br></div><div> <br></div><blockquote class="protonmail_quote" type="cite"><div dir="ltr"><div>Hi,<br></div><div><br></div><div>issue&nbsp;<a href="https://github.com/gluster/glusterfs/issues/1332">https://github.com/gluster/glusterfs/issues/1332</a>&nbsp;is fixed now with&nbsp;<a href="https://github.com/gluster/glusterfs/commit/865cca1190e233381f975ff36118f46e29477dcf">https://github.com/gluster/glusterfs/commit/865cca1190e233381f975ff36118f46e29477dcf</a>.<br></div><div><br></div><div>It will be backported to release-7 and release-8 branches soon.<br></div></div><div><br></div><div class="gmail_quote"><div dir="ltr">On Mon, Sep 7, 2020 at 1:14 AM Strahil Nikolov &lt;<a href="mailto:hunter86_bg@yahoo.com">hunter86_bg@yahoo.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div>Your e-mail got in the spam...&nbsp;<br></div><div> <br></div><div> If you haven't fixed the issue, check Hari's topic about quota issues (based on the error message you provided) :&nbsp;<a href="https://medium.com/@harigowtham/glusterfs-quota-fix-accounting-840df33fcd3a" rel="noreferrer" target="_blank">https://medium.com/@harigowtham/glusterfs-quota-fix-accounting-840df33fcd3a</a><br></div><div> <br></div><div> Most probably there is a quota issue and you need to fix it.<br></div><div> <br></div><div> Best Regards,<br></div><div> Strahil Nikolov<br></div><div> <br></div><div> <br></div><div> <br></div><div> <br></div><div> <br></div><div> <br></div><div> В неделя, 23 август 2020 г., 11:05:27 Гринуич+3, mabi &lt;<a href="mailto:mabi@protonmail.ch" target="_blank">mabi@protonmail.ch</a>&gt; написа: <br></div><div> <br></div><div> <br></div><div> <br></div><div> <br></div><div> <br></div><div> Hello,<br></div><div> <br></div><div> So to be precise I am exactly having the following issue:<br></div><div> <br></div><div> <a href="https://github.com/gluster/glusterfs/issues/1332" rel="noreferrer" target="_blank">https://github.com/gluster/glusterfs/issues/1332</a><br></div><div> <br></div><div> I could not wait any longer to find some workarounds or quick fixes so I decided to downgrade my rejected from 7.7 back to 6.9 which worked.<br></div><div> <br></div><div> I would be really glad if someone could fix this issue or provide me a workaround which works because version 6 of GlusterFS is not supported anymore so I would really like to move on to the stable version 7.<br></div><div> <br></div><div> Thank you very much in advance.<br></div><div> <br></div><div> Best regards,<br></div><div> Mabi<br></div><div> <br></div><div> <br></div><div> ‐‐‐‐‐‐‐ Original Message ‐‐‐‐‐‐‐<br></div><div> <br></div><div> On Saturday, August 22, 2020 7:53 PM, mabi &lt;<a href="mailto:mabi@protonmail.ch" target="_blank">mabi@protonmail.ch</a>&gt; wrote:<br></div><div> <br></div><div> &gt; Hello,<br></div><div> &gt;<br></div><div> &gt; I just started an upgrade of my 3 nodes replica (incl arbiter) of GlusterFS from 6.9 to 7.7 but unfortunately after upgrading the first node, that node gets rejected due to the following error:<br></div><div> &gt;<br></div><div> &gt; [2020-08-22 17:43:00.240990] E [MSGID: 106012] [glusterd-utils.c:3537:glusterd_compare_friend_volume] 0-management: Cksums of quota configuration of volume myvolume differ. local cksum = 3013120651, remote cksum = 0 on peer myfirstnode.domain.tld<br></div><div> &gt;<br></div><div> &gt; So glusterd process is running but not glusterfsd.<br></div><div> &gt;<br></div><div> &gt; I am exactly in the same issue as described here:<br></div><div> &gt;<br></div><div> &gt; <a href="https://www.gitmemory.com/Adam2Marsh" rel="noreferrer" target="_blank">https://www.gitmemory.com/Adam2Marsh</a><br></div><div> &gt;<br></div><div> &gt; But I do not see any solutions or workaround. So now I am stuck with a degraded GlusterFS cluster.<br></div><div> &gt;<br></div><div> &gt; Could someone please advise me as soon as possible on what I should do? Is there maybe any workarounds?<br></div><div> &gt;<br></div><div> &gt; Thank you very much in advance for your response.<br></div><div> &gt;<br></div><div> &gt; Best regards,<br></div><div> &gt; Mabi<br></div><div> <br></div><div> <br></div><div> ________<br></div><div> <br></div><div> <br></div><div> <br></div><div> Community Meeting Calendar:<br></div><div> <br></div><div> Schedule -<br></div><div> Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br></div><div> Bridge: <a href="https://bluejeans.com/441850968" rel="noreferrer" target="_blank">https://bluejeans.com/441850968</a><br></div><div> <br></div><div> Gluster-users mailing list<br></div><div> <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br></div><div> <a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br></div><div> ________<br></div><div> <br></div><div> <br></div><div> <br></div><div> Community Meeting Calendar:<br></div><div> <br></div><div> Schedule -<br></div><div> Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br></div><div> Bridge: <a href="https://bluejeans.com/441850968" rel="noreferrer" target="_blank">https://bluejeans.com/441850968</a><br></div><div> <br></div><div> Gluster-users mailing list<br></div><div> <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br></div><div> <a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br></div></blockquote></div><div><br></div><div><br></div><div>-- <br></div><div dir="ltr"><div dir="ltr"><div>Thanks,<br></div><div>Sanju<br></div></div></div></blockquote><div><br></div>