<div dir="ltr"><div>@Krutika if you need any further information, please let me know.</div><div><br></div><div>Thanks Olaf<br></div></div><br><div class="gmail_quote"><div dir="ltr">Op vr 4 jan. 2019 om 07:51 schreef Nithya Balachandran &lt;<a href="mailto:nbalacha@redhat.com">nbalacha@redhat.com</a>&gt;:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr">Adding Krutika.</div><br><div class="gmail_quote"><div dir="ltr">On Wed, 2 Jan 2019 at 20:56, Olaf Buitelaar &lt;<a href="mailto:olaf.buitelaar@gmail.com" target="_blank">olaf.buitelaar@gmail.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div>Hi Nithya,</div><div><br></div><div>Thank you for your reply.<br></div><div><br></div><div>the VM&#39;s using the gluster volumes keeps on getting paused/stopped on errors like these;</div><div>[2019-01-02 02:33:44.469132] E [MSGID: 133010] [shard.c:1724:shard_common_lookup_shards_cbk] 0-ovirt-kube-shard: Lookup on shard 101487 failed. Base file gfid = a38d64bc-a28b-4ee1-a0bb-f919e7a1022c [Stale file handle]<br>[2019-01-02 02:33:44.563288] E [MSGID: 133010] [shard.c:1724:shard_common_lookup_shards_cbk] 0-ovirt-kube-shard: Lookup on shard 101488 failed. Base file gfid = a38d64bc-a28b-4ee1-a0bb-f919e7a1022c [Stale file handle]</div><div><br></div></div></div></blockquote><div>Krutika, Can you take a look at this?</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div></div><div><br></div><div>What i&#39;m trying to find out, if i can purge all gluster volumes from all possible stale file handles (and hopefully find a method to prevent this in the future), so the VM&#39;s can start running stable again.</div><div>For this i need to know when the &quot;shard_common_lookup_shards_cbk&quot; function considers a file as stale.</div><div>The statement; &quot;Stale file handle errors show up when a file with a specified gfid is not found.&quot; doesn&#39;t seem to cover it all, as i&#39;ve shown in earlier mails the shard file and glusterfs/xx/xx/uuid file do both exist, and have the same inode.</div><div>If the criteria i&#39;m using aren&#39;t correct, could you please tell me which criteria i should use to determine if a file is stale or not?</div><div>these criteria are just based observations i made, moving the stale files manually. After removing them i was able to start the VM again..until some time later it hangs on another stale shard file unfortunate.<br></div><div><br></div><div>Thanks Olaf<br></div></div></div><br><div class="gmail_quote"><div dir="ltr">Op wo 2 jan. 2019 om 14:20 schreef Nithya Balachandran &lt;<a href="mailto:nbalacha@redhat.com" target="_blank">nbalacha@redhat.com</a>&gt;:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr">On Mon, 31 Dec 2018 at 01:27, Olaf Buitelaar &lt;<a href="mailto:olaf.buitelaar@gmail.com" target="_blank">olaf.buitelaar@gmail.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div>Dear All,</div><div><br></div><div>till now a selected group of VM&#39;s still seem to produce new stale file&#39;s and getting paused due to this. <br></div><div>I&#39;ve not updated gluster recently, however i did change the op version from 
31200 to 31202 about a week before this issue arose.<br></div><div>Looking at the .shard directory, i&#39;ve 100.000+ files sharing the same characteristics as a stale file. which are found till now, <br></div><div>they all have the sticky bit set, e.g. file permissions; ---------T. are 0kb in size, and have the trusted.glusterfs.dht.linkto attribute.</div></div></div></div></blockquote><div><br></div><div>These are internal files used by gluster and do not necessarily mean they are stale. They &quot;point&quot; to data files which may be on different bricks (same name, gfid etc but no linkto xattr and no ----T permissions).</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div>These files range from long a go (beginning of the year) till now. Which makes me suspect this was laying dormant for some time now..and somehow recently surfaced.<br></div><div>Checking other sub-volumes they contain also 0kb files in the .shard directory, but don&#39;t have the sticky bit and the linkto attribute.</div><div><br></div><div>Does anybody else experience this issue? Could this be a bug or an environmental issue?</div></div></div></div></blockquote><div>These are most likely valid files- please do not delete them without double-checking.</div><div> </div><div>Stale file handle errors show up when a file with a specified gfid is not found. You will need to debug the files for which you see this error by checking the bricks to see if they actually exist.</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div><br></div><div>Also i wonder if there is any tool or gluster command to clean all stale file handles? <br></div><div>Otherwise i&#39;m planning to make a simple bash script, which iterates over the .shard dir, checks each file for the above mentioned criteria, and (re)moves the file and the corresponding .glusterfs file.</div><div>If there are other criteria needed to identify a stale file handle, i would like to hear that.<br></div><div>If this is a viable and safe operation to do of course.</div><div><br></div><div>Thanks Olaf<br></div><div><br></div><div><br></div></div></div></div><br><div class="gmail_quote"><div dir="ltr">Op do 20 dec. 2018 om 13:43 schreef Olaf Buitelaar &lt;<a href="mailto:olaf.buitelaar@gmail.com" target="_blank">olaf.buitelaar@gmail.com</a>&gt;:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div>Dear All,</div><div><br></div><div>I figured it out, it appeared to be the exact same issue as described here;  <a href="https://lists.gluster.org/pipermail/gluster-users/2018-March/033785.html" target="_blank">https://lists.gluster.org/pipermail/gluster-users/2018-March/033785.html</a></div><div>Another subvolume also had the shard file, only were all 0 bytes and had the dht.linkto</div><div><br></div><div>for reference; <br></div><div>[root@lease-04 ovirt-backbone-2]# getfattr -d -m . -e hex .shard/f28cabcb-d169-41fc-a633-9bef4c4a8e40.51500<br># file: .shard/f28cabcb-d169-41fc-a633-9bef4c4a8e40.51500<br>security.selinux=0x73797374656d5f753a6f626a6563745f723a6574635f72756e74696d655f743a733000<br>trusted.gfid=0x298147e49f9748b2baf1c8fff897244d<br>trusted.gfid2path.b48064c78d7a85c9=0x62653331383633382d653861302d346336642d393737642d3761393337616138343830362f66323863616263622d643136392d343166632d613633332d3962656634633461386534302e3531353030<br>trusted.glusterfs.dht.linkto=0x6f766972742d6261636b626f6e652d322d7265706c69636174652d3100<br><br>[root@lease-04 ovirt-backbone-2]# getfattr -d -m . -e hex .glusterfs/29/81/298147e4-9f97-48b2-baf1-c8fff897244d<br># file: .glusterfs/29/81/298147e4-9f97-48b2-baf1-c8fff897244d<br>security.selinux=0x73797374656d5f753a6f626a6563745f723a6574635f72756e74696d655f743a733000<br>trusted.gfid=0x298147e49f9748b2baf1c8fff897244d<br>trusted.gfid2path.b48064c78d7a85c9=0x62653331383633382d653861302d346336642d393737642d3761393337616138343830362f66323863616263622d643136392d343166632d613633332d3962656634633461386534302e3531353030<br>trusted.glusterfs.dht.linkto=0x6f766972742d6261636b626f6e652d322d7265706c69636174652d3100<br><br>[root@lease-04 ovirt-backbone-2]# stat .glusterfs/29/81/298147e4-9f97-48b2-baf1-c8fff897244d<br>  File: ‘.glusterfs/29/81/298147e4-9f97-48b2-baf1-c8fff897244d’<br>  Size: 0               Blocks: 0          IO Block: 4096   regular empty file<br>Device: fd01h/64769d    Inode: 1918631406  Links: 2<br>Access: (1000/---------T)  Uid: (    0/    root)   Gid: (    0/    root)<br>Context: system_u:object_r:etc_runtime_t:s0<br>Access: 2018-12-17 21:43:36.405735296 +0000<br>Modify: 2018-12-17 21:43:36.405735296 +0000<br>Change: 2018-12-17 21:43:36.405735296 +0000<br> Birth: -</div><div><br></div><div>removing the shard file and glusterfs file from each node resolved the issue.</div><div><br></div><div>I also found this thread; <a href="https://lists.gluster.org/pipermail/gluster-users/2018-December/035460.html" target="_blank">https://lists.gluster.org/pipermail/gluster-users/2018-December/035460.html</a><br>Maybe he suffers from the same issue.<br><br>Best Olaf<br></div><div><br></div></div></div></div></div></div><br><div class="gmail_quote"><div dir="ltr">Op wo 19 dec. 2018 om 21:56 schreef Olaf Buitelaar &lt;<a href="mailto:olaf.buitelaar@gmail.com" target="_blank">olaf.buitelaar@gmail.com</a>&gt;:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div>Dear All,</div><div><br></div><div>It appears i&#39;ve a stale file in one of the volumes, on 2 files. These files are qemu images (1 raw and 1 qcow2).</div><div>I&#39;ll just focus on 1 file since the situation on the other seems the same. <br></div><div><br></div><div>The VM get&#39;s paused more or less directly after being booted with error;</div><div>[2018-12-18 14:05:05.275713] E [MSGID: 133010] [shard.c:1724:shard_common_lookup_shards_cbk] 0-ovirt-backbone-2-shard: Lookup on shard 51500 failed. Base file gfid = f28cabcb-d169-41fc-a633-9bef4c4a8e40 [Stale file handle]</div><div><br></div><div>investigating the shard;</div><div><br></div><div>#on the arbiter node:<br></div><div><br></div><div>[root@lease-05 ovirt-backbone-2]# getfattr -n glusterfs.gfid.string /mnt/ovirt-backbone-2/b1c2c949-aef4-4aec-999b-b179efeef732/images/f6ac9660-a84e-469e-a17c-c6dbc538af4b/d6b09501-5b79-4c92-bf10-2ed3bda1b425<br>getfattr: Removing leading &#39;/&#39; from absolute path names<br># file: mnt/ovirt-backbone-2/b1c2c949-aef4-4aec-999b-b179efeef732/images/f6ac9660-a84e-469e-a17c-c6dbc538af4b/d6b09501-5b79-4c92-bf10-2ed3bda1b425<br>glusterfs.gfid.string=&quot;f28cabcb-d169-41fc-a633-9bef4c4a8e40&quot;</div><div><br></div><div>[root@lease-05 ovirt-backbone-2]# getfattr -d -m . -e hex .shard/f28cabcb-d169-41fc-a633-9bef4c4a8e40.51500<br># file: .shard/f28cabcb-d169-41fc-a633-9bef4c4a8e40.51500<br>security.selinux=0x73797374656d5f753a6f626a6563745f723a6574635f72756e74696d655f743a733000<br>trusted.afr.dirty=0x000000000000000000000000<br>trusted.gfid=0x1f86b4328ec6424699aa48cc6d7b5da0<br>trusted.gfid2path.b48064c78d7a85c9=0x62653331383633382d653861302d346336642d393737642d3761393337616138343830362f66323863616263622d643136392d343166632d613633332d3962656634633461386534302e3531353030</div><div><br></div><div>[root@lease-05 ovirt-backbone-2]# getfattr -d -m . -e hex .glusterfs/1f/86/1f86b432-8ec6-4246-99aa-48cc6d7b5da0<br># file: .glusterfs/1f/86/1f86b432-8ec6-4246-99aa-48cc6d7b5da0<br>security.selinux=0x73797374656d5f753a6f626a6563745f723a6574635f72756e74696d655f743a733000<br>trusted.afr.dirty=0x000000000000000000000000<br>trusted.gfid=0x1f86b4328ec6424699aa48cc6d7b5da0<br>trusted.gfid2path.b48064c78d7a85c9=0x62653331383633382d653861302d346336642d393737642d3761393337616138343830362f66323863616263622d643136392d343166632d613633332d3962656634633461386534302e3531353030<br></div><div><br></div><div>[root@lease-05 ovirt-backbone-2]# stat .glusterfs/1f/86/1f86b432-8ec6-4246-99aa-48cc6d7b5da0<br>  File: ‘.glusterfs/1f/86/1f86b432-8ec6-4246-99aa-48cc6d7b5da0’<br>  Size: 0               Blocks: 0          IO Block: 4096   regular empty file<br>Device: fd01h/64769d    Inode: 537277306   Links: 2<br>Access: (0660/-rw-rw----)  Uid: (    0/    root)   Gid: (    0/    root)<br>Context: system_u:object_r:etc_runtime_t:s0<br>Access: 2018-12-17 21:43:36.361984810 +0000<br>Modify: 2018-12-17 21:43:36.361984810 +0000<br>Change: 2018-12-18 20:55:29.908647417 +0000<br> Birth: -</div><div><br></div><div>[root@lease-05 ovirt-backbone-2]# find . -inum 537277306<br>./.glusterfs/1f/86/1f86b432-8ec6-4246-99aa-48cc6d7b5da0<br>./.shard/f28cabcb-d169-41fc-a633-9bef4c4a8e40.51500</div><div><br></div><div>
#on the data nodes: <br></div><div><br></div><div>[root@lease-08 ~]# getfattr -n glusterfs.gfid.string /mnt/ovirt-backbone-2/b1c2c949-aef4-4aec-999b-b179efeef732/images/f6ac9660-a84e-469e-a17c-c6dbc538af4b/d6b09501-5b79-4c92-bf10-2ed3bda1b425<br>getfattr: Removing leading &#39;/&#39; from absolute path names<br># file: mnt/ovirt-backbone-2/b1c2c949-aef4-4aec-999b-b179efeef732/images/f6ac9660-a84e-469e-a17c-c6dbc538af4b/d6b09501-5b79-4c92-bf10-2ed3bda1b425<br>glusterfs.gfid.string=&quot;f28cabcb-d169-41fc-a633-9bef4c4a8e40&quot;</div><div><br></div><div>[root@lease-08 ovirt-backbone-2]# getfattr -d -m . -e hex .shard/f28cabcb-d169-41fc-a633-9bef4c4a8e40.51500<br># file: .shard/f28cabcb-d169-41fc-a633-9bef4c4a8e40.51500<br>security.selinux=0x73797374656d5f753a6f626a6563745f723a6574635f72756e74696d655f743a733000<br>trusted.afr.dirty=0x000000000000000000000000<br>trusted.gfid=0x1f86b4328ec6424699aa48cc6d7b5da0<br>trusted.gfid2path.b48064c78d7a85c9=0x62653331383633382d653861302d346336642d393737642d3761393337616138343830362f66323863616263622d643136392d343166632d613633332d3962656634633461386534302e3531353030<br></div><div><br></div><div>[root@lease-08 ovirt-backbone-2]# getfattr -d -m . -e hex .glusterfs/1f/86/1f86b432-8ec6-4246-99aa-48cc6d7b5da0<br># file: .glusterfs/1f/86/1f86b432-8ec6-4246-99aa-48cc6d7b5da0<br>security.selinux=0x73797374656d5f753a6f626a6563745f723a6574635f72756e74696d655f743a733000<br>trusted.afr.dirty=0x000000000000000000000000<br>trusted.gfid=0x1f86b4328ec6424699aa48cc6d7b5da0<br>trusted.gfid2path.b48064c78d7a85c9=0x62653331383633382d653861302d346336642d393737642d3761393337616138343830362f66323863616263622d643136392d343166632d613633332d3962656634633461386534302e3531353030<br></div><div><br></div><div>[root@lease-08 ovirt-backbone-2]# stat .glusterfs/1f/86/1f86b432-8ec6-4246-99aa-48cc6d7b5da0<br>  File: ‘.glusterfs/1f/86/1f86b432-8ec6-4246-99aa-48cc6d7b5da0’<br>  Size: 2166784         Blocks: 4128       IO Block: 4096   regular file<br>Device: fd03h/64771d    Inode: 12893624759  Links: 3<br>Access: (0660/-rw-rw----)  Uid: (    0/    root)   Gid: (    0/    root)<br>Context: system_u:object_r:etc_runtime_t:s0<br>Access: 2018-12-18 18:52:38.070776585 +0000<br>Modify: 2018-12-17 21:43:36.388054443 +0000<br>Change: 2018-12-18 21:01:47.810506528 +0000<br> Birth: -</div><div><br></div><div>[root@lease-08 ovirt-backbone-2]# find . -inum 12893624759<br>./.glusterfs/1f/86/1f86b432-8ec6-4246-99aa-48cc6d7b5da0<br>./.shard/f28cabcb-d169-41fc-a633-9bef4c4a8e40.51500</div><div><br></div><div>========================</div><div><br></div><div>[root@lease-11 ovirt-backbone-2]# getfattr -n glusterfs.gfid.string /mnt/ovirt-backbone-2/b1c2c949-aef4-4aec-999b-b179efeef732/images/f6ac9660-a84e-469e-a17c-c6dbc538af4b/d6b09501-5b79-4c92-bf10-2ed3bda1b425<br>getfattr: Removing leading &#39;/&#39; from absolute path names<br># file: mnt/ovirt-backbone-2/b1c2c949-aef4-4aec-999b-b179efeef732/images/f6ac9660-a84e-469e-a17c-c6dbc538af4b/d6b09501-5b79-4c92-bf10-2ed3bda1b425<br>glusterfs.gfid.string=&quot;f28cabcb-d169-41fc-a633-9bef4c4a8e40&quot;</div><div><br></div><div>[root@lease-11 ovirt-backbone-2]#  getfattr -d -m . -e hex .shard/f28cabcb-d169-41fc-a633-9bef4c4a8e40.51500<br># file: .shard/f28cabcb-d169-41fc-a633-9bef4c4a8e40.51500<br>security.selinux=0x73797374656d5f753a6f626a6563745f723a6574635f72756e74696d655f743a733000<br>trusted.afr.dirty=0x000000000000000000000000<br>trusted.gfid=0x1f86b4328ec6424699aa48cc6d7b5da0<br>trusted.gfid2path.b48064c78d7a85c9=0x62653331383633382d653861302d346336642d393737642d3761393337616138343830362f66323863616263622d643136392d343166632d613633332d3962656634633461386534302e3531353030</div><div><br></div><div>[root@lease-11 ovirt-backbone-2]# getfattr -d -m . -e hex .glusterfs/1f/86/1f86b432-8ec6-4246-99aa-48cc6d7b5da0<br># file: .glusterfs/1f/86/1f86b432-8ec6-4246-99aa-48cc6d7b5da0<br>security.selinux=0x73797374656d5f753a6f626a6563745f723a6574635f72756e74696d655f743a733000<br>trusted.afr.dirty=0x000000000000000000000000<br>trusted.gfid=0x1f86b4328ec6424699aa48cc6d7b5da0<br>trusted.gfid2path.b48064c78d7a85c9=0x62653331383633382d653861302d346336642d393737642d3761393337616138343830362f66323863616263622d643136392d343166632d613633332d3962656634633461386534302e3531353030</div><div><br></div><div>[root@lease-11 ovirt-backbone-2]# stat .glusterfs/1f/86/1f86b432-8ec6-4246-99aa-48cc6d7b5da0<br>  File: ‘.glusterfs/1f/86/1f86b432-8ec6-4246-99aa-48cc6d7b5da0’<br>  Size: 2166784         Blocks: 4128       IO Block: 4096   regular file<br>Device: fd03h/64771d    Inode: 12956094809  Links: 3<br>Access: (0660/-rw-rw----)  Uid: (    0/    root)   Gid: (    0/    root)<br>Context: system_u:object_r:etc_runtime_t:s0<br>Access: 2018-12-18 20:11:53.595208449 +0000<br>Modify: 2018-12-17 21:43:36.391580259 +0000<br>Change: 2018-12-18 19:19:25.888055392 +0000<br> Birth: -</div><div><br></div><div>[root@lease-11 ovirt-backbone-2]# find . -inum 12956094809<br>./.glusterfs/1f/86/1f86b432-8ec6-4246-99aa-48cc6d7b5da0<br>./.shard/f28cabcb-d169-41fc-a633-9bef4c4a8e40.51500</div><div><br></div><div>================</div><div><br></div><div>I don&#39;t really see any inconsistencies, except the dates on the stat. However this is only after i tried moving the file out of the volumes to force a heal, which does happen on the data nodes, but not on the arbiter node. Before that they were also the same.</div><div>I&#39;ve also compared the file 
./.shard/f28cabcb-d169-41fc-a633-9bef4c4a8e40.51500 on the 2 nodes and they are exactly the same.</div><div><br></div><div>Things i&#39;ve further tried;</div><div>- gluster v heal ovirt-backbone-2 full =&gt; gluster v heal ovirt-backbone-2 info reports 0 entries on all nodes</div><div><br></div>- stop each glusterd and glusterfsd, pause around 40sec and start them again on each node, 1 at a time, waiting for the heal to recover before moving to the next node<br></div><div dir="ltr"><br></div><div>- force a heal by stopping glusterd on a node and perform these steps;</div><div>mkdir /mnt/ovirt-backbone-2/trigger</div><div>rmdir /mnt/ovirt-backbone-2/trigger</div><div>setfattr -n trusted.non-existent-key -v abc /mnt/ovirt-backbone-2/<br></div><div>setfattr -x trusted.non-existent-key /mnt/ovirt-backbone-2/</div><div>start glusterd</div><div><br></div><div dir="ltr"><div>- gluster volume rebalance ovirt-backbone-2 start =&gt; success</div><div><br></div><div>Whats further interesting is that according the mount log, the volume is in split-brain;</div><div>[2018-12-18 10:06:04.606870] E [MSGID: 108008] [afr-read-txn.c:90:afr_read_txn_refresh_done] 0-ovirt-backbone-2-replicate-2: Failing FSTAT on gfid 2a57d87d-fe49-4034-919b-fdb79531bf68: split-brain observed. [Input/output error]<br>[2018-12-18 10:06:04.606908] E [MSGID: 133014] [shard.c:1248:shard_common_stat_cbk] 0-ovirt-backbone-2-shard: stat failed: 2a57d87d-fe49-4034-919b-fdb79531bf68 [Input/output error]<br>[2018-12-18 10:06:04.606927] W [fuse-bridge.c:871:fuse_attr_cbk] 0-glusterfs-fuse: 428090: FSTAT() /b1c2c949-aef4-4aec-999b-b179efeef732/dom_md/ids =&gt; -1 (Input/output error)<br>[2018-12-18 10:06:05.107729] E [MSGID: 108008] [afr-read-txn.c:90:afr_read_txn_refresh_done] 0-ovirt-backbone-2-replicate-2: Failing FSTAT on gfid 2a57d87d-fe49-4034-919b-fdb79531bf68: split-brain observed. [Input/output error]<br>[2018-12-18 10:06:05.107770] E [MSGID: 133014] [shard.c:1248:shard_common_stat_cbk] 0-ovirt-backbone-2-shard: stat failed: 2a57d87d-fe49-4034-919b-fdb79531bf68 [Input/output error]<br>[2018-12-18 10:06:05.107791] W [fuse-bridge.c:871:fuse_attr_cbk] 0-glusterfs-fuse: 428091: FSTAT() /b1c2c949-aef4-4aec-999b-b179efeef732/dom_md/ids =&gt; -1 (Input/output error)<br>[2018-12-18 10:06:05.537244] I [MSGID: 108006] [afr-common.c:5494:afr_local_init] 0-ovirt-backbone-2-replicate-1: no subvolumes up<br>[2018-12-18 10:06:05.538523] E [MSGID: 108008] [afr-read-txn.c:90:afr_read_txn_refresh_done] 0-ovirt-backbone-2-replicate-2: Failing STAT on gfid 00000000-0000-0000-0000-000000000001: split-brain observed. [Input/output error]<br>[2018-12-18 10:06:05.538685] I [MSGID: 108006] [afr-common.c:5494:afr_local_init] 0-ovirt-backbone-2-replicate-1: no subvolumes up<br>[2018-12-18 10:06:05.538794] I [MSGID: 108006] [afr-common.c:5494:afr_local_init] 0-ovirt-backbone-2-replicate-1: no subvolumes up<br>[2018-12-18 10:06:05.539342] I [MSGID: 109063] [dht-layout.c:716:dht_layout_normalize] 0-ovirt-backbone-2-dht: Found anomalies in /b1c2c949-aef4-4aec-999b-b179efeef732 (gfid = 8c8598ce-1a52-418e-a7b4-435fee34bae8). Holes=2 overlaps=0<br>[2018-12-18 10:06:05.539372] W [MSGID: 109005] [dht-selfheal.c:2158:dht_selfheal_directory] 0-ovirt-backbone-2-dht: Directory selfheal failed: 2 subvolumes down.Not fixing. path = /b1c2c949-aef4-4aec-999b-b179efeef732, gfid = 8c8598ce-1a52-418e-a7b4-435fee34bae8<br>[2018-12-18 10:06:05.539694] I [MSGID: 108006] [afr-common.c:5494:afr_local_init] 0-ovirt-backbone-2-replicate-1: no subvolumes up<br>[2018-12-18 10:06:05.540652] I [MSGID: 108006] [afr-common.c:5494:afr_local_init] 0-ovirt-backbone-2-replicate-1: no subvolumes up<br>[2018-12-18 10:06:05.608612] E [MSGID: 108008] [afr-read-txn.c:90:afr_read_txn_refresh_done] 0-ovirt-backbone-2-replicate-2: Failing FSTAT on gfid 2a57d87d-fe49-4034-919b-fdb79531bf68: split-brain observed. [Input/output error]<br>[2018-12-18 10:06:05.608657] E [MSGID: 133014] [shard.c:1248:shard_common_stat_cbk] 0-ovirt-backbone-2-shard: stat failed: 2a57d87d-fe49-4034-919b-fdb79531bf68 [Input/output error]<br>[2018-12-18 10:06:05.608672] W [fuse-bridge.c:871:fuse_attr_cbk] 0-glusterfs-fuse: 428096: FSTAT() /b1c2c949-aef4-4aec-999b-b179efeef732/dom_md/ids =&gt; -1 (Input/output error)<br>[2018-12-18 10:06:06.109339] E [MSGID: 108008] [afr-read-txn.c:90:afr_read_txn_refresh_done] 0-ovirt-backbone-2-replicate-2: Failing FSTAT on gfid 2a57d87d-fe49-4034-919b-fdb79531bf68: split-brain observed. [Input/output error]<br>[2018-12-18 10:06:06.109378] E [MSGID: 133014] [shard.c:1248:shard_common_stat_cbk] 0-ovirt-backbone-2-shard: stat failed: 2a57d87d-fe49-4034-919b-fdb79531bf68 [Input/output error]<br>[2018-12-18 10:06:06.109399] W [fuse-bridge.c:871:fuse_attr_cbk] 0-glusterfs-fuse: 428097: FSTAT() /b1c2c949-aef4-4aec-999b-b179efeef732/dom_md/ids =&gt; -1 (Input/output error)</div><div><br></div><div>#note i&#39;m able to see ; 
/b1c2c949-aef4-4aec-999b-b179efeef732/dom_md/ids <br></div><div>[root@lease-11 ovirt-backbone-2]# stat /mnt/ovirt-backbone-2/b1c2c949-aef4-4aec-999b-b179efeef732/dom_md/ids<br>  File: ‘/mnt/ovirt-backbone-2/b1c2c949-aef4-4aec-999b-b179efeef732/dom_md/ids’<br>  Size: 1048576         Blocks: 2048       IO Block: 131072 regular file<br>Device: 41h/65d Inode: 10492258721813610344  Links: 1<br>Access: (0660/-rw-rw----)  Uid: (   36/    vdsm)   Gid: (   36/     kvm)<br>Context: system_u:object_r:fusefs_t:s0<br>Access: 2018-12-19 20:07:39.917573869 +0000<br>Modify: 2018-12-19 20:07:39.928573917 +0000<br>Change: 2018-12-19 20:07:39.929573921 +0000<br> Birth: -<br></div><div><br></div><div>however checking: gluster v heal ovirt-backbone-2 info split-brain</div><div>reports no entries.</div><div><br></div><div>I&#39;ve also tried mounting the qemu image, and this works fine, i&#39;m able to see all contents;<br></div><div> losetup /dev/loop0 /mnt/ovirt-backbone-2/b1c2c949-aef4-4aec-999b-b179efeef732/images/f6ac9660-a84e-469e-a17c-c6dbc538af4b/d6b09501-5b79-4c92-bf10-2ed3bda1b425<br> kpartx -a /dev/loop0<br> vgscan<br> vgchange -ay slave-data</div><div> mkdir /mnt/slv01

</div><div> mount /dev/mapper/slave--data-lvol0 /mnt/slv01/<br></div><div><br></div><div>Possible causes for this issue;</div><div>1. the machine &quot;lease-11&quot; suffered from a faulty RAM module (ECC), which halted the machine and causes an invalid state. (this machine also hosts other volumes, with similar configurations, which report no issue)<br></div><div>2. after the RAM module was replaced, the VM using the backing qemu image, was restored from a backup (the backup was file based within the VM on a different directory). This is because some files were corrupted. The backup/recovery obviously causes extra IO, possible introducing race conditions? The machine did run for about 12h without issues, and in total for about 36h.<br></div><div>3. since only the client (maybe only gfapi?) reports errors, something is broken there?</div><div><br></div><div>The volume info;</div><div>root@lease-06 ~# gluster v info ovirt-backbone-2<br><br>Volume Name: ovirt-backbone-2<br>Type: Distributed-Replicate<br>Volume ID: 85702d35-62c8-4c8c-930d-46f455a8af28<br>Status: Started<br>Snapshot Count: 0<br>Number of Bricks: 3 x (2 + 1) = 9<br>Transport-type: tcp<br>Bricks:<br>Brick1: 10.32.9.7:/data/gfs/bricks/brick1/ovirt-backbone-2<br>Brick2: 10.32.9.3:/data/gfs/bricks/brick1/ovirt-backbone-2<br>Brick3: 10.32.9.4:/data/gfs/bricks/bricka/ovirt-backbone-2 (arbiter)<br>Brick4: 10.32.9.8:/data0/gfs/bricks/brick1/ovirt-backbone-2<br>Brick5: 10.32.9.21:/data0/gfs/bricks/brick1/ovirt-backbone-2<br>Brick6: 10.32.9.5:/data/gfs/bricks/bricka/ovirt-backbone-2 (arbiter)<br>Brick7: 10.32.9.9:/data0/gfs/bricks/brick1/ovirt-backbone-2<br>Brick8: 10.32.9.20:/data0/gfs/bricks/brick1/ovirt-backbone-2<br>Brick9: 10.32.9.6:/data/gfs/bricks/bricka/ovirt-backbone-2 (arbiter)<br>Options Reconfigured:<br>nfs.disable: on<br>transport.address-family: inet<br>performance.quick-read: off<br>performance.read-ahead: off<br>performance.io-cache: off<br>performance.low-prio-threads: 32<br>network.remote-dio: enable<br>cluster.eager-lock: enable<br>cluster.quorum-type: auto<br>cluster.server-quorum-type: server<br>cluster.data-self-heal-algorithm: full<br>cluster.locking-scheme: granular<br>cluster.shd-max-threads: 8<br>cluster.shd-wait-qlength: 10000<br>features.shard: on<br>user.cifs: off<br>storage.owner-uid: 36<br>storage.owner-gid: 36<br>features.shard-block-size: 64MB<br>performance.write-behind-window-size: 512MB<br>performance.cache-size: 384MB<br>cluster.brick-multiplex: on<br></div><div><br></div><div>The volume status;</div><div>root@lease-06 ~# gluster v status ovirt-backbone-2<br>Status of volume: ovirt-backbone-2<br>Gluster process                             TCP Port  RDMA Port  Online  Pid<br>------------------------------------------------------------------------------<br>Brick 10.32.9.7:/data/gfs/bricks/brick1/ovi<br>rt-backbone-2                               49152     0          Y       7727<br>Brick 10.32.9.3:/data/gfs/bricks/brick1/ovi<br>rt-backbone-2                               49152     0          Y       12620<br>Brick 10.32.9.4:/data/gfs/bricks/bricka/ovi<br>rt-backbone-2                               49152     0          Y       8794<br>Brick 10.32.9.8:/data0/gfs/bricks/brick1/ov<br>irt-backbone-2                              49161     0          Y       22333<br>Brick 10.32.9.21:/data0/gfs/bricks/brick1/o<br>virt-backbone-2                             49152     0          Y       15030<br>Brick 10.32.9.5:/data/gfs/bricks/bricka/ovi<br>rt-backbone-2                               49166     0          Y       24592<br>Brick 10.32.9.9:/data0/gfs/bricks/brick1/ov<br>irt-backbone-2                              49153     0          Y       20148<br>Brick 10.32.9.20:/data0/gfs/bricks/brick1/o<br>virt-backbone-2                             49154     0          Y       15413<br>Brick 10.32.9.6:/data/gfs/bricks/bricka/ovi<br>rt-backbone-2                               49152     0          Y       43120<br>Self-heal Daemon on localhost               N/A       N/A        Y       44587<br>Self-heal Daemon on 10.201.0.2              N/A       N/A        Y       8401<br>Self-heal Daemon on 10.201.0.5              N/A       N/A        Y       11038<br>Self-heal Daemon on 10.201.0.8              N/A       N/A        Y       9513<br>Self-heal Daemon on 10.32.9.4               N/A       N/A        Y       23736<br>Self-heal Daemon on 10.32.9.20              N/A       N/A        Y       2738<br>Self-heal Daemon on 10.32.9.3               N/A       N/A        Y       25598<br>Self-heal Daemon on 10.32.9.5               N/A       N/A        Y       511<br>Self-heal Daemon on 10.32.9.9               N/A       N/A        Y       23357<br>Self-heal Daemon on 10.32.9.8               N/A       N/A        Y       15225<br>Self-heal Daemon on 10.32.9.7               N/A       N/A        Y       25781<br>Self-heal Daemon on 10.32.9.21              N/A       N/A        Y       5034<br><br>Task Status of Volume ovirt-backbone-2<br>------------------------------------------------------------------------------<br>Task                 : Rebalance<br>ID                   : 6dfbac43-0125-4568-9ac3-a2c453faaa3d<br>Status               : completed</div><div><br></div><div>gluster version is @3.12.15 and cluster.op-version=31202<br></div><div><br></div><div>
========================

</div><div><br></div><div>It would be nice to know if it&#39;s possible to mark the files as not stale or if i should investigate other things?</div><div>Or should we consider this volume lost?</div><div>Also checking the code at; <a href="https://github.com/gluster/glusterfs/blob/master/xlators/features/shard/src/shard.c" target="_blank">https://github.com/gluster/glusterfs/blob/master/xlators/features/shard/src/shard.c</a> it seems the functions shifted quite some (line 
1724 vs. 2243), so maybe it&#39;s fixed in a future version?</div><div>Any thoughts are welcome.</div><div><br></div><div>Thanks Olaf<br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div>
</blockquote></div>
</blockquote></div>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a></blockquote></div></div>
</blockquote></div>
</blockquote></div></div>
</blockquote></div>