<div dir="ltr">The good news is the downgrade seems to have worked and was painless.<div><br></div><div>zypper install --oldpackage glusterfs-5.13, restart gluster, and almost immediately there are no heal pending entries anymore.</div><div><br></div><div>The only things still showing up in the logs, besides some healing is 

<font face="monospace">0-glusterfs-fuse: writing to fuse device failed: No such file or directory</font>:</div><div><font face="monospace">==&gt; mnt-androidpolice_data3.log &lt;==<br>[2020-05-01 16:54:21.085643] E [fuse-bridge.c:219:check_and_dump_fuse_W] (--&gt; /usr/lib64/libglusterfs.so.0(_gf_log_callingfn+0x17d)[0x7fd13d50624d] (--&gt; /usr/lib64/glusterfs/5.13/xlator/mount/fuse.so(+0x849a)[0x7fd1398e949a] (--&gt; /usr/lib64/glusterfs/5.13/xlator/mount/fuse.so(+0x87bb)[0x7fd1398e97bb] (--&gt; /lib64/libpthread.so.0(+0x84f9)[0x7fd13ca564f9] (--&gt; /lib64/libc.so.6(clone+0x3f)[0x7fd13c78ef2f] ))))) 0-glusterfs-fuse: writing to fuse device failed: No such file or directory<br>==&gt; mnt-apkmirror_data1.log &lt;==<br>[2020-05-01 16:54:21.268842] E [fuse-bridge.c:219:check_and_dump_fuse_W] (--&gt; /usr/lib64/libglusterfs.so.0(_gf_log_callingfn+0x17d)[0x7fdf2b0a624d] (--&gt; /usr/lib64/glusterfs/5.13/xlator/mount/fuse.so(+0x849a)[0x7fdf2748949a] (--&gt; /usr/lib64/glusterfs/5.13/xlator/mount/fuse.so(+0x87bb)[0x7fdf274897bb] (--&gt; /lib64/libpthread.so.0(+0x84f9)[0x7fdf2a5f64f9] (--&gt; /lib64/libc.so.6(clone+0x3f)[0x7fdf2a32ef2f] ))))) 0-glusterfs-fuse: writing to fuse device failed: No such file or directory<br clear="all"></font><div><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><br></div><div>It&#39;d be very helpful if it had more info about what failed to write and why.</div><div><br></div><div>I&#39;d still really love to see the analysis of this failed upgrade from core gluster maintainers to see what needs fixing and how we can upgrade in the future.</div><div><br></div><div>Thanks.</div><div dir="ltr"><br>Sincerely,<br>Artem<br><br>--<br>Founder, <a href="http://www.androidpolice.com" target="_blank">Android Police</a>, <a href="http://www.apkmirror.com/" style="font-size:12.8px" target="_blank">APK Mirror</a><span style="font-size:12.8px">, Illogical Robot LLC</span></div><div dir="ltr"><a href="http://beerpla.net/" target="_blank">beerpla.net</a> | <a href="http://twitter.com/ArtemR" target="_blank">@ArtemR</a><br></div></div></div></div></div></div></div></div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, May 1, 2020 at 7:25 AM Artem Russakovskii &lt;<a href="mailto:archon810@gmail.com">archon810@gmail.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="auto">I do not have snapshots, no. I have a general file based backup, but also the other 3 nodes are up. <div dir="auto"><br></div><div dir="auto">OpenSUSE 15.1.</div><div dir="auto"><br></div><div dir="auto">If I try to downgrade and it doesn&#39;t work, what&#39;s the brick replacement scenario - is this still accurate? <a href="https://docs.gluster.org/en/latest/Administrator%20Guide/Managing%20Volumes/#replace-brick" target="_blank">https://docs.gluster.org/en/latest/Administrator%20Guide/Managing%20Volumes/#replace-brick</a></div><div dir="auto"><br></div><div dir="auto"><span style="font-family:sans-serif">Any feedback about the issues themselves yet please? Specifically, is there a chance this is happening because of the mismatched gluster versions? Though, what&#39;s the solution then? </span><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, May 1, 2020, 1:07 AM Strahil Nikolov &lt;<a href="mailto:hunter86_bg@yahoo.com" target="_blank">hunter86_bg@yahoo.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On May 1, 2020 1:25:17 AM GMT+03:00, Artem Russakovskii &lt;<a href="mailto:archon810@gmail.com" rel="noreferrer" target="_blank">archon810@gmail.com</a>&gt; wrote:<br>
&gt;If more time is needed to analyze this, is this an option? Shut down<br>
&gt;7.5,<br>
&gt;downgrade it back to 5.13 and restart, or would this screw something up<br>
&gt;badly? I didn&#39;t up the op-version yet.<br>
&gt;<br>
&gt;Thanks.<br>
&gt;<br>
&gt;Sincerely,<br>
&gt;Artem<br>
&gt;<br>
&gt;--<br>
&gt;Founder, Android Police &lt;<a href="http://www.androidpolice.com" rel="noreferrer noreferrer" target="_blank">http://www.androidpolice.com</a>&gt;, APK Mirror<br>
&gt;&lt;<a href="http://www.apkmirror.com/" rel="noreferrer noreferrer" target="_blank">http://www.apkmirror.com/</a>&gt;, Illogical Robot LLC<br>
&gt;<a href="http://beerpla.net" rel="noreferrer noreferrer" target="_blank">beerpla.net</a> | @ArtemR &lt;<a href="http://twitter.com/ArtemR" rel="noreferrer noreferrer" target="_blank">http://twitter.com/ArtemR</a>&gt;<br>
&gt;<br>
&gt;<br>
&gt;On Thu, Apr 30, 2020 at 3:13 PM Artem Russakovskii<br>
&gt;&lt;<a href="mailto:archon810@gmail.com" rel="noreferrer" target="_blank">archon810@gmail.com</a>&gt;<br>
&gt;wrote:<br>
&gt;<br>
&gt;&gt; The number of heal pending on citadel, the one that was upgraded to<br>
&gt;7.5,<br>
&gt;&gt; has now gone to 10s of thousands and continues to go up.<br>
&gt;&gt;<br>
&gt;&gt; Sincerely,<br>
&gt;&gt; Artem<br>
&gt;&gt;<br>
&gt;&gt; --<br>
&gt;&gt; Founder, Android Police &lt;<a href="http://www.androidpolice.com" rel="noreferrer noreferrer" target="_blank">http://www.androidpolice.com</a>&gt;, APK Mirror<br>
&gt;&gt; &lt;<a href="http://www.apkmirror.com/" rel="noreferrer noreferrer" target="_blank">http://www.apkmirror.com/</a>&gt;, Illogical Robot LLC<br>
&gt;&gt; <a href="http://beerpla.net" rel="noreferrer noreferrer" target="_blank">beerpla.net</a> | @ArtemR &lt;<a href="http://twitter.com/ArtemR" rel="noreferrer noreferrer" target="_blank">http://twitter.com/ArtemR</a>&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On Thu, Apr 30, 2020 at 2:57 PM Artem Russakovskii<br>
&gt;&lt;<a href="mailto:archon810@gmail.com" rel="noreferrer" target="_blank">archon810@gmail.com</a>&gt;<br>
&gt;&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt;&gt; Hi all,<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Today, I decided to upgrade one of the four servers (citadel) we<br>
&gt;have to<br>
&gt;&gt;&gt; 7.5 from 5.13. There are 2 volumes, 1x4 replicate, and fuse mounts<br>
&gt;(I sent<br>
&gt;&gt;&gt; the full details earlier in another message). If everything looked<br>
&gt;OK, I<br>
&gt;&gt;&gt; would have proceeded the rolling upgrade for all of them, following<br>
&gt;the<br>
&gt;&gt;&gt; full heal.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; However, as soon as I upgraded and restarted, the logs filled with<br>
&gt;&gt;&gt; messages like these:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; [2020-04-30 21:39:21.316149] E<br>
&gt;&gt;&gt; [rpcsvc.c:567:rpcsvc_check_and_reply_error] 0-rpcsvc: rpc actor<br>
&gt;&gt;&gt; (1298437:400:17) failed to complete successfully<br>
&gt;&gt;&gt; [2020-04-30 21:39:21.382891] E<br>
&gt;&gt;&gt; [rpcsvc.c:567:rpcsvc_check_and_reply_error] 0-rpcsvc: rpc actor<br>
&gt;&gt;&gt; (1298437:400:17) failed to complete successfully<br>
&gt;&gt;&gt; [2020-04-30 21:39:21.442440] E<br>
&gt;&gt;&gt; [rpcsvc.c:567:rpcsvc_check_and_reply_error] 0-rpcsvc: rpc actor<br>
&gt;&gt;&gt; (1298437:400:17) failed to complete successfully<br>
&gt;&gt;&gt; [2020-04-30 21:39:21.445587] E<br>
&gt;&gt;&gt; [rpcsvc.c:567:rpcsvc_check_and_reply_error] 0-rpcsvc: rpc actor<br>
&gt;&gt;&gt; (1298437:400:17) failed to complete successfully<br>
&gt;&gt;&gt; [2020-04-30 21:39:21.571398] E<br>
&gt;&gt;&gt; [rpcsvc.c:567:rpcsvc_check_and_reply_error] 0-rpcsvc: rpc actor<br>
&gt;&gt;&gt; (1298437:400:17) failed to complete successfully<br>
&gt;&gt;&gt; [2020-04-30 21:39:21.668192] E<br>
&gt;&gt;&gt; [rpcsvc.c:567:rpcsvc_check_and_reply_error] 0-rpcsvc: rpc actor<br>
&gt;&gt;&gt; (1298437:400:17) failed to complete successfully<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; The message &quot;I [MSGID: 108031]<br>
&gt;&gt;&gt; [afr-common.c:2581:afr_local_discovery_cbk]<br>
&gt;&gt;&gt; 0-androidpolice_data3-replicate-0: selecting local read_child<br>
&gt;&gt;&gt; androidpolice_data3-client-3&quot; repeated 10 times between [2020-04-30<br>
&gt;&gt;&gt; 21:46:41.854675] and [2020-04-30 21:48:20.206323]<br>
&gt;&gt;&gt; The message &quot;W [MSGID: 114031]<br>
&gt;&gt;&gt; [client-rpc-fops_v2.c:850:client4_0_setxattr_cbk]<br>
&gt;&gt;&gt; 0-androidpolice_data3-client-1: remote operation failed [Transport<br>
&gt;endpoint<br>
&gt;&gt;&gt; is not connected]&quot; repeated 264 times between [2020-04-30<br>
&gt;21:46:32.129567]<br>
&gt;&gt;&gt; and [2020-04-30 21:48:29.905008]<br>
&gt;&gt;&gt; The message &quot;W [MSGID: 114031]<br>
&gt;&gt;&gt; [client-rpc-fops_v2.c:850:client4_0_setxattr_cbk]<br>
&gt;&gt;&gt; 0-androidpolice_data3-client-0: remote operation failed [Transport<br>
&gt;endpoint<br>
&gt;&gt;&gt; is not connected]&quot; repeated 264 times between [2020-04-30<br>
&gt;21:46:32.129602]<br>
&gt;&gt;&gt; and [2020-04-30 21:48:29.905040]<br>
&gt;&gt;&gt; The message &quot;W [MSGID: 114031]<br>
&gt;&gt;&gt; [client-rpc-fops_v2.c:850:client4_0_setxattr_cbk]<br>
&gt;&gt;&gt; 0-androidpolice_data3-client-2: remote operation failed [Transport<br>
&gt;endpoint<br>
&gt;&gt;&gt; is not connected]&quot; repeated 264 times between [2020-04-30<br>
&gt;21:46:32.129512]<br>
&gt;&gt;&gt; and [2020-04-30 21:48:29.905047]<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Once in a while, I&#39;m seeing this:<br>
&gt;&gt;&gt; ==&gt; bricks/mnt-hive_block4-androidpolice_data3.log &lt;==<br>
&gt;&gt;&gt; [2020-04-30 21:45:54.251637] I [MSGID: 115072]<br>
&gt;&gt;&gt; [server-rpc-fops_v2.c:1681:server4_setattr_cbk]<br>
&gt;&gt;&gt; 0-androidpolice_data3-server: 5725811: SETATTR /<br>
&gt;&gt;&gt;<br>
&gt;<a href="http://androidpolice.com/public/wp-content/uploads/2019/03/cielo-breez-plus-hero.png" rel="noreferrer noreferrer" target="_blank">androidpolice.com/public/wp-content/uploads/2019/03/cielo-breez-plus-hero.png</a><br>
&gt;&gt;&gt; (d4556eb4-f15b-412c-a42a-32b4438af557), client:<br>
&gt;&gt;&gt;<br>
&gt;CTX_ID:32e2d636-038a-472d-8199-007555d1805f-GRAPH_ID:0-PID:14265-HOST:nexus2-PC_NAME:androidpolice_data3-client-2-RECON_NO:-1,<br>
&gt;&gt;&gt; error-xlator: androidpolice_data3-access-control [Operation not<br>
&gt;permitted]<br>
&gt;&gt;&gt; [2020-04-30 21:49:10.439701] I [MSGID: 115072]<br>
&gt;&gt;&gt; [server-rpc-fops_v2.c:1680:server4_setattr_cbk]<br>
&gt;&gt;&gt; 0-androidpolice_data3-server: 201833: SETATTR /<br>
&gt;&gt;&gt; <a href="http://androidpolice.com/public/wp-content/uploads" rel="noreferrer noreferrer" target="_blank">androidpolice.com/public/wp-content/uploads</a><br>
&gt;&gt;&gt; (2692eeba-1ebe-49b6-927f-1dfbcd227591), client:<br>
&gt;&gt;&gt;<br>
&gt;CTX_ID:af341e80-70ff-4d23-99ef-3d846a546fc9-GRAPH_ID:0-PID:2358-HOST:forge-PC_NAME:androidpolice_data3-client-3-RECON_NO:-2,<br>
&gt;&gt;&gt; error-xlator: androidpolice_data3-access-control [Operation not<br>
&gt;permitted]<br>
&gt;&gt;&gt; [2020-04-30 21:49:10.453724] I [MSGID: 115072]<br>
&gt;&gt;&gt; [server-rpc-fops_v2.c:1680:server4_setattr_cbk]<br>
&gt;&gt;&gt; 0-androidpolice_data3-server: 201842: SETATTR /<br>
&gt;&gt;&gt; <a href="http://androidpolice.com/public/wp-content/uploads" rel="noreferrer noreferrer" target="_blank">androidpolice.com/public/wp-content/uploads</a><br>
&gt;&gt;&gt; (2692eeba-1ebe-49b6-927f-1dfbcd227591), client:<br>
&gt;&gt;&gt;<br>
&gt;CTX_ID:af341e80-70ff-4d23-99ef-3d846a546fc9-GRAPH_ID:0-PID:2358-HOST:forge-PC_NAME:androidpolice_data3-client-3-RECON_NO:-2,<br>
&gt;&gt;&gt; error-xlator: androidpolice_data3-access-control [Operation not<br>
&gt;permitted]<br>
&gt;&gt;&gt; [2020-04-30 21:49:16.224662] I [MSGID: 115072]<br>
&gt;&gt;&gt; [server-rpc-fops_v2.c:1680:server4_setattr_cbk]<br>
&gt;&gt;&gt; 0-androidpolice_data3-server: 202865: SETATTR /<br>
&gt;&gt;&gt; <a href="http://androidpolice.com/public/wp-content/uploads" rel="noreferrer noreferrer" target="_blank">androidpolice.com/public/wp-content/uploads</a><br>
&gt;&gt;&gt; (2692eeba-1ebe-49b6-927f-1dfbcd227591), client:<br>
&gt;&gt;&gt;<br>
&gt;CTX_ID:32e2d636-038a-472d-8199-007555d1805f-GRAPH_ID:0-PID:14265-HOST:nexus2-PC_NAME:androidpolice_data3-client-3-RECON_NO:-2,<br>
&gt;&gt;&gt; error-xlator: androidpolice_data3-access-control [Operation not<br>
&gt;permitted]<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; There&#39;s also lots of self-healing happening that I didn&#39;t expect at<br>
&gt;all,<br>
&gt;&gt;&gt; since the upgrade only took ~10-15s.<br>
&gt;&gt;&gt; [2020-04-30 21:47:38.714448] I [MSGID: 108026]<br>
&gt;&gt;&gt; [afr-self-heal-metadata.c:52:__afr_selfheal_metadata_do]<br>
&gt;&gt;&gt; 0-apkmirror_data1-replicate-0: performing metadata selfheal on<br>
&gt;&gt;&gt; 4a6ba2d7-7ad8-4113-862b-02e4934a3461<br>
&gt;&gt;&gt; [2020-04-30 21:47:38.765033] I [MSGID: 108026]<br>
&gt;&gt;&gt; [afr-self-heal-common.c:1723:afr_log_selfheal]<br>
&gt;&gt;&gt; 0-apkmirror_data1-replicate-0: Completed metadata selfheal on<br>
&gt;&gt;&gt; 4a6ba2d7-7ad8-4113-862b-02e4934a3461. sources=[3]  sinks=0 1 2<br>
&gt;&gt;&gt; [2020-04-30 21:47:38.765289] I [MSGID: 108026]<br>
&gt;&gt;&gt; [afr-self-heal-metadata.c:52:__afr_selfheal_metadata_do]<br>
&gt;&gt;&gt; 0-apkmirror_data1-replicate-0: performing metadata selfheal on<br>
&gt;&gt;&gt; f3c62a41-1864-4e75-9883-4357a7091296<br>
&gt;&gt;&gt; [2020-04-30 21:47:38.800987] I [MSGID: 108026]<br>
&gt;&gt;&gt; [afr-self-heal-common.c:1723:afr_log_selfheal]<br>
&gt;&gt;&gt; 0-apkmirror_data1-replicate-0: Completed metadata selfheal on<br>
&gt;&gt;&gt; f3c62a41-1864-4e75-9883-4357a7091296. sources=[3]  sinks=0 1 2<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; I&#39;m also seeing &quot;remote operation failed&quot; and &quot;writing to fuse<br>
&gt;device<br>
&gt;&gt;&gt; failed: No such file or directory&quot; messages<br>
&gt;&gt;&gt; [2020-04-30 21:46:34.891957] I [MSGID: 108026]<br>
&gt;&gt;&gt; [afr-self-heal-common.c:1723:afr_log_selfheal]<br>
&gt;&gt;&gt; 0-androidpolice_data3-replicate-0: Completed metadata selfheal on<br>
&gt;&gt;&gt; 2692eeba-1ebe-49b6-927f-1dfbcd227591. sources=0 1 [2]  sinks=3<br>
&gt;&gt;&gt; [2020-04-30 21:45:36.127412] W [MSGID: 114031]<br>
&gt;&gt;&gt; [client-rpc-fops_v2.c:1985:client4_0_setattr_cbk]<br>
&gt;&gt;&gt; 0-androidpolice_data3-client-0: remote operation failed [Operation<br>
&gt;not<br>
&gt;&gt;&gt; permitted]<br>
&gt;&gt;&gt; [2020-04-30 21:45:36.345924] W [MSGID: 114031]<br>
&gt;&gt;&gt; [client-rpc-fops_v2.c:1985:client4_0_setattr_cbk]<br>
&gt;&gt;&gt; 0-androidpolice_data3-client-1: remote operation failed [Operation<br>
&gt;not<br>
&gt;&gt;&gt; permitted]<br>
&gt;&gt;&gt; [2020-04-30 21:46:35.291853] I [MSGID: 108031]<br>
&gt;&gt;&gt; [afr-common.c:2543:afr_local_discovery_cbk]<br>
&gt;&gt;&gt; 0-androidpolice_data3-replicate-0: selecting local read_child<br>
&gt;&gt;&gt; androidpolice_data3-client-2<br>
&gt;&gt;&gt; [2020-04-30 21:46:35.977342] I [MSGID: 108026]<br>
&gt;&gt;&gt; [afr-self-heal-metadata.c:52:__afr_selfheal_metadata_do]<br>
&gt;&gt;&gt; 0-androidpolice_data3-replicate-0: performing metadata selfheal on<br>
&gt;&gt;&gt; 2692eeba-1ebe-49b6-927f-1dfbcd227591<br>
&gt;&gt;&gt; [2020-04-30 21:46:36.006607] I [MSGID: 108026]<br>
&gt;&gt;&gt; [afr-self-heal-common.c:1723:afr_log_selfheal]<br>
&gt;&gt;&gt; 0-androidpolice_data3-replicate-0: Completed metadata selfheal on<br>
&gt;&gt;&gt; 2692eeba-1ebe-49b6-927f-1dfbcd227591. sources=0 1 [2]  sinks=3<br>
&gt;&gt;&gt; [2020-04-30 21:46:37.245599] E<br>
&gt;[fuse-bridge.c:219:check_and_dump_fuse_W]<br>
&gt;&gt;&gt; (--&gt;<br>
&gt;/usr/lib64/libglusterfs.so.0(_gf_log_callingfn+0x17d)[0x7fd13d50624d]<br>
&gt;&gt;&gt; (--&gt;<br>
&gt;&gt;&gt;<br>
&gt;/usr/lib64/glusterfs/5.13/xlator/mount/fuse.so(+0x849a)[0x7fd1398e949a]<br>
&gt;&gt;&gt; (--&gt;<br>
&gt;&gt;&gt;<br>
&gt;/usr/lib64/glusterfs/5.13/xlator/mount/fuse.so(+0x87bb)[0x7fd1398e97bb]<br>
&gt;&gt;&gt; (--&gt; /lib64/libpthread.so.0(+0x84f9)[0x7fd13ca564f9] (--&gt;<br>
&gt;&gt;&gt; /lib64/libc.so.6(clone+0x3f)[0x7fd13c78ef2f] ))))) 0-glusterfs-fuse:<br>
&gt;&gt;&gt; writing to fuse device failed: No such file or directory<br>
&gt;&gt;&gt; [2020-04-30 21:46:50.864797] E<br>
&gt;[fuse-bridge.c:219:check_and_dump_fuse_W]<br>
&gt;&gt;&gt; (--&gt;<br>
&gt;/usr/lib64/libglusterfs.so.0(_gf_log_callingfn+0x17d)[0x7fd13d50624d]<br>
&gt;&gt;&gt; (--&gt;<br>
&gt;&gt;&gt;<br>
&gt;/usr/lib64/glusterfs/5.13/xlator/mount/fuse.so(+0x849a)[0x7fd1398e949a]<br>
&gt;&gt;&gt; (--&gt;<br>
&gt;&gt;&gt;<br>
&gt;/usr/lib64/glusterfs/5.13/xlator/mount/fuse.so(+0x87bb)[0x7fd1398e97bb]<br>
&gt;&gt;&gt; (--&gt; /lib64/libpthread.so.0(+0x84f9)[0x7fd13ca564f9] (--&gt;<br>
&gt;&gt;&gt; /lib64/libc.so.6(clone+0x3f)[0x7fd13c78ef2f] ))))) 0-glusterfs-fuse:<br>
&gt;&gt;&gt; writing to fuse device failed: No such file or directory<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; The number of items being healed is going up and down wildly, from 0<br>
&gt;to<br>
&gt;&gt;&gt; 8000+ and sometimes taking a really long time to return a value. I&#39;m<br>
&gt;really<br>
&gt;&gt;&gt; worried as this is a production system, and I didn&#39;t observe this in<br>
&gt;our<br>
&gt;&gt;&gt; test system.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; gluster v heal apkmirror_data1 info summary<br>
&gt;&gt;&gt; Brick nexus2:/mnt/nexus2_block1/apkmirror_data1<br>
&gt;&gt;&gt; Status: Connected<br>
&gt;&gt;&gt; Total Number of entries: 27<br>
&gt;&gt;&gt; Number of entries in heal pending: 27<br>
&gt;&gt;&gt; Number of entries in split-brain: 0<br>
&gt;&gt;&gt; Number of entries possibly healing: 0<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Brick forge:/mnt/forge_block1/apkmirror_data1<br>
&gt;&gt;&gt; Status: Connected<br>
&gt;&gt;&gt; Total Number of entries: 27<br>
&gt;&gt;&gt; Number of entries in heal pending: 27<br>
&gt;&gt;&gt; Number of entries in split-brain: 0<br>
&gt;&gt;&gt; Number of entries possibly healing: 0<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Brick hive:/mnt/hive_block1/apkmirror_data1<br>
&gt;&gt;&gt; Status: Connected<br>
&gt;&gt;&gt; Total Number of entries: 27<br>
&gt;&gt;&gt; Number of entries in heal pending: 27<br>
&gt;&gt;&gt; Number of entries in split-brain: 0<br>
&gt;&gt;&gt; Number of entries possibly healing: 0<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Brick citadel:/mnt/citadel_block1/apkmirror_data1<br>
&gt;&gt;&gt; Status: Connected<br>
&gt;&gt;&gt; Total Number of entries: 8540<br>
&gt;&gt;&gt; Number of entries in heal pending: 8540<br>
&gt;&gt;&gt; Number of entries in split-brain: 0<br>
&gt;&gt;&gt; Number of entries possibly healing: 0<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; gluster v heal androidpolice_data3 info summary<br>
&gt;&gt;&gt; Brick nexus2:/mnt/nexus2_block4/androidpolice_data3<br>
&gt;&gt;&gt; Status: Connected<br>
&gt;&gt;&gt; Total Number of entries: 1<br>
&gt;&gt;&gt; Number of entries in heal pending: 1<br>
&gt;&gt;&gt; Number of entries in split-brain: 0<br>
&gt;&gt;&gt; Number of entries possibly healing: 0<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Brick forge:/mnt/forge_block4/androidpolice_data3<br>
&gt;&gt;&gt; Status: Connected<br>
&gt;&gt;&gt; Total Number of entries: 1<br>
&gt;&gt;&gt; Number of entries in heal pending: 1<br>
&gt;&gt;&gt; Number of entries in split-brain: 0<br>
&gt;&gt;&gt; Number of entries possibly healing: 0<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Brick hive:/mnt/hive_block4/androidpolice_data3<br>
&gt;&gt;&gt; Status: Connected<br>
&gt;&gt;&gt; Total Number of entries: 1<br>
&gt;&gt;&gt; Number of entries in heal pending: 1<br>
&gt;&gt;&gt; Number of entries in split-brain: 0<br>
&gt;&gt;&gt; Number of entries possibly healing: 0<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Brick citadel:/mnt/citadel_block4/androidpolice_data3<br>
&gt;&gt;&gt; Status: Connected<br>
&gt;&gt;&gt; Total Number of entries: 1149<br>
&gt;&gt;&gt; Number of entries in heal pending: 1149<br>
&gt;&gt;&gt; Number of entries in split-brain: 0<br>
&gt;&gt;&gt; Number of entries possibly healing: 0<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; What should I do at this point? The files I tested seem to be<br>
&gt;replicating<br>
&gt;&gt;&gt; correctly, but I don&#39;t know if it&#39;s the case for all of them, and<br>
&gt;the heals<br>
&gt;&gt;&gt; going up and down, and all these log messages are making me very<br>
&gt;nervous.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Thank you.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Sincerely,<br>
&gt;&gt;&gt; Artem<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; --<br>
&gt;&gt;&gt; Founder, Android Police &lt;<a href="http://www.androidpolice.com" rel="noreferrer noreferrer" target="_blank">http://www.androidpolice.com</a>&gt;, APK Mirror<br>
&gt;&gt;&gt; &lt;<a href="http://www.apkmirror.com/" rel="noreferrer noreferrer" target="_blank">http://www.apkmirror.com/</a>&gt;, Illogical Robot LLC<br>
&gt;&gt;&gt; <a href="http://beerpla.net" rel="noreferrer noreferrer" target="_blank">beerpla.net</a> | @ArtemR &lt;<a href="http://twitter.com/ArtemR" rel="noreferrer noreferrer" target="_blank">http://twitter.com/ArtemR</a>&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;<br>
<br>
I&#39;s not supported  , but usually it works.<br>
<br>
In worst case scenario,  you can remove the node, wipe gluster on the node, reinstall the packages and add it - it will require full heal of the brick and as you have previously reported could lead to performance degradation.<br>
<br>
I think you are on SLES, but I could be wrong . Do you have btrfs or LVM  snapshots to revert from ?<br>
<br>
Best Regards,<br>
Strahil Nikolov<br>
</blockquote></div>
</blockquote></div>