<div dir="ltr">Hi Rifat,<div><br></div><div>I suspect you are hitting <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1773856">https://bugzilla.redhat.com/show_bug.cgi?id=1773856</a>. This bug has been fixed in master and will be backported to release branches soon. </div><div><br></div><div>Although the bug says, &quot;with volume set operation when a node is down we see the issue&quot;, according to the RCA of the bug it can be hit when there is any kind of configuration change in volumes.</div><div><br></div><div>Hope this helps.</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Feb 28, 2020 at 11:52 PM Strahil Nikolov &lt;<a href="mailto:hunter86_bg@yahoo.com">hunter86_bg@yahoo.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On February 28, 2020 4:49:45 PM GMT+02:00, Rifat Ucal &lt;<a href="mailto:rucal@arcor.de" target="_blank">rucal@arcor.de</a>&gt; wrote:<br>
&gt;Hi Gluster Team,<br>
&gt;<br>
&gt;<br>
&gt;I am trying to implment gluster fs in podman containers, which is<br>
&gt;running except the problems described below.<br>
&gt;<br>
&gt;<br>
&gt;My observations:<br>
&gt;<br>
&gt;- The bricks on the server is gong offline when one of the podman<br>
&gt;container is restarted or the appropriate server is rebooted.<br>
&gt;<br>
&gt;- Althoug the status of the bricks are offline, the replication seems<br>
&gt;to be working, as data will be replicated.<br>
&gt;<br>
&gt;- I see that the replicated data will also be replicated on arbiter<br>
&gt;node, where I was expecting to see only meta data.<br>
&gt;<br>
&gt; <br>
&gt;<br>
&gt;My configuration.<br>
&gt;<br>
&gt;I created glusterfs for replication in 3 nodes on centos7 but in podman<br>
&gt;containers<br>
&gt;<br>
&gt;The containers in the first and second nodes should be normal<br>
&gt;replication and 3rd node arbiter node.<br>
&gt;<br>
&gt;After creation replication and enabling heal processes I can see also<br>
&gt;that 3rd node is marked as arbiter node.<br>
&gt;<br>
&gt;According to description of arbiter, the arbiter node should store only<br>
&gt;metadata but in my configuration the replicated data will be stored in<br>
&gt;all bricks including arbiter node.<br>
&gt;<br>
&gt; <br>
&gt;<br>
&gt;Questions:<br>
&gt;<br>
&gt;When rebooting one of the server or restarting one of the glusterfs<br>
&gt;container the restarted container is not going online until gluster<br>
&gt;volume is stopped and started again. Is it a solution inbetween to<br>
&gt;resolve this problem?<br>
&gt;<br>
&gt;-why Arbiter node stores all the data, allthough it should only have<br>
&gt;some metadata to restore the replicated data on other nodes. I would<br>
&gt;not have problem that replication is done in all three nodes. I just<br>
&gt;need to know <br>
&gt;<br>
&gt;- Can you give me feedback, whether some one experience or similar<br>
&gt;porblems with glusterfs implemented in podman containers?<br>
&gt;<br>
&gt;<br>
&gt;Here are my configurations:<br>
&gt;<br>
&gt;on all containers I have :CentOS Linux release 7.7.1908 glusterfs<br>
&gt;version 7.3 and systemctl is enabled for glusterd service<br>
&gt;<br>
&gt;<br>
&gt;My gluster volume creation:<br>
&gt;<br>
&gt;gluster volume create cgvol1 replica 2 arbiter 1 transport tcp<br>
&gt;avm1:/cbricks/brick1/data avm2:/cbricks/brick1/data<br>
&gt;dvm1:/cbricks/brick1/data force<br>
&gt;<br>
&gt;<br>
&gt;gluster peer status excuted on avm2:<br>
&gt;Number of Peers: 2<br>
&gt;<br>
&gt;Hostname: avm1<br>
&gt;Uuid: 5d1dc6a7-8f34-45a3-a7c9-c69c442b66dc<br>
&gt;State: Peer in Cluster (Connected)<br>
&gt;<br>
&gt;Hostname: dvm1<br>
&gt;Uuid: 310ffd58-28ab-43f1-88d3-1e381bd46ab3<br>
&gt;State: Peer in Cluster (Connected)<br>
&gt;<br>
&gt;<br>
&gt;gluster volume info<br>
&gt;<br>
&gt;Volume Name: cgvol1<br>
&gt;Type: Replicate<br>
&gt;Volume ID: da975178-b68f-410c-884c-a7f635e4381a<br>
&gt;Status: Started<br>
&gt;Snapshot Count: 0<br>
&gt;Number of Bricks: 1 x (2 + 1) = 3<br>
&gt;Transport-type: tcp<br>
&gt;Bricks:<br>
&gt;Brick1: arvm1:/cbricks/brick1/data<br>
&gt;Brick2: avm2:/cbricks/brick1/data<br>
&gt;Brick3: devm1:/cbricks/brick1/data (arbiter)<br>
&gt;Options Reconfigured:<br>
&gt;cluster.self-heal-daemon: on<br>
&gt;cluster.entry-self-heal: on<br>
&gt;cluster.metadata-self-heal: on<br>
&gt;cluster.data-self-heal: on<br>
&gt;transport.address-family: inet<br>
&gt;storage.fips-mode-rchecksum: on<br>
&gt;nfs.disable: on<br>
&gt;performance.client-io-threads: off<br>
&gt;<br>
&gt;<br>
&gt;gluster volume status<br>
&gt;Status of volume: cgvol1<br>
&gt;Gluster process TCP Port RDMA Port Online Pid<br>
&gt;<br>
&gt;------------------------------------------------------------------------------<br>
&gt;Brick avm1:/cbricks/brick1/data 49152 0 Y 516<br>
&gt;Brick avm2:/cbricks/brick1/data 49152 0 Y 353<br>
&gt;Brick dvm1:/cbricks/brick1/data 49152 0 Y 572<br>
&gt;Self-heal Daemon on localhost N/A N/A Y 537<br>
&gt;Self-heal Daemon on dvm1 N/A N/A Y 593<br>
&gt;Self-heal Daemon on avm2 N/A N/A Y 374<br>
&gt;<br>
&gt;Task Status of Volume cgvol1<br>
&gt;------------------------------------------------------------------------------<br>
&gt;There are no active volume tasks<br>
&gt;<br>
&gt;gluster volume heal cgvol1 info<br>
&gt;Brick avm1:/cbricks/brick1/data<br>
&gt;Status: Connected<br>
&gt;Number of entries: 0<br>
&gt;<br>
&gt;Brick avm2:/cbricks/brick1/data<br>
&gt;Status: Connected<br>
&gt;Number of entries: 0<br>
&gt;<br>
&gt;Brick dvm1:/cbricks/brick1/data<br>
&gt;Status: Connected<br>
&gt;Number of entries: 0<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;Best Regards,<br>
&gt;<br>
&gt;Rifat Ucal<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;&gt; Jorick Astrego &lt;<a href="mailto:jorick@netbulae.eu" target="_blank">jorick@netbulae.eu</a>&gt; hat am 14. Februar 2020 um 10:10<br>
&gt;geschrieben:<br>
&gt;&gt; <br>
&gt;&gt; <br>
&gt;&gt;     Hi,<br>
&gt;&gt; <br>
&gt;&gt;     It looks like you have a two node setup?<br>
&gt;&gt; <br>
&gt;&gt;     Then it&#39;s expected as with two nodes you don&#39;t have quorum and<br>
&gt;this can lead to split brains.<br>
&gt;&gt; <br>
&gt;&gt;     To have HA, add another node or an arbiter node.<br>
&gt;&gt; <br>
&gt;&gt;    <br>
&gt;<a href="https://docs.gluster.org/en/latest/Administrator%20Guide/arbiter-volumes-and-quorum/" rel="noreferrer" target="_blank">https://docs.gluster.org/en/latest/Administrator%20Guide/arbiter-volumes-and-quorum/</a><br>
&gt;&gt; <br>
&gt;&gt;     You can also modify the quorum but then you shouldn&#39;t be too<br>
&gt;attachted to the data you have on it.<br>
&gt;&gt; <br>
&gt;&gt;     Regards, Jorick<br>
&gt;&gt; <br>
&gt;&gt;     On 2/14/20 9:27 AM, Cloud Udupi wrote:<br>
&gt;&gt; <br>
&gt;&gt;         &gt; &gt;         Hi,<br>
&gt;&gt; &gt; <br>
&gt;&gt; &gt;         I am new to glusterfs. I have used this guide on<br>
&gt;CentOS-7.6. <br>
&gt;&gt; &gt;        <br>
&gt;<a href="https://microdevsys.com/wp/glusterfs-configuration-and-setup-w-nfs-ganesha-for-an-ha-nfs-cluster/" rel="noreferrer" target="_blank">https://microdevsys.com/wp/glusterfs-configuration-and-setup-w-nfs-ganesha-for-an-ha-nfs-cluster/</a><br>
&gt;&gt; &gt; <br>
&gt;&gt; &gt;         glusterfs —version<br>
&gt;&gt; &gt;         glusterfs 7.2<br>
&gt;&gt; &gt; <br>
&gt;&gt; &gt;         Firewall is disabled. Self heal is enabled.<br>
&gt;&gt; &gt;         Everything works fine until I reboot one of the servers.<br>
&gt;When the server reboots the brick doesn&#39;t come online.<br>
&gt;&gt; &gt; <br>
&gt;&gt; &gt;         gluster volume status<br>
&gt;&gt; &gt; <br>
&gt;&gt; &gt;         Status of volume: gv01<br>
&gt;&gt; &gt;         Gluster process                             TCP Port  RDMA<br>
&gt;Port  Online  Pid<br>
&gt;&gt; &gt;        <br>
&gt;------------------------------------------------------------------------------<br>
&gt;&gt; &gt;         Brick server1:/bricks/0/gv0                 N/A       N/A  <br>
&gt;     N       N/A  <br>
&gt;&gt; &gt;         Brick server2:/bricks/0/gv0                 49152     0    <br>
&gt;     Y       99870<br>
&gt;&gt; &gt;         Self-heal Daemon on localhost               N/A       N/A  <br>
&gt;     Y       109802<br>
&gt;&gt; &gt;         Self-heal Daemon on server1                 N/A       N/A  <br>
&gt;     Y       2142 <br>
&gt;&gt; &gt;          <br>
&gt;&gt; &gt;         Task Status of Volume gv01<br>
&gt;&gt; &gt;        <br>
&gt;------------------------------------------------------------------------------<br>
&gt;&gt; &gt;         There are no active volume tasks<br>
&gt;&gt; &gt; <br>
&gt;&gt; &gt;         gluster volume heal gv01<br>
&gt;&gt; &gt; <br>
&gt;&gt; &gt;         Launching heal operation to perform index self heal on<br>
&gt;volume gv01 has been unsuccessful:<br>
&gt;&gt; &gt;          <br>
&gt;&gt; &gt;         Glusterd Syncop Mgmt brick op &#39;Heal&#39; failed. Please check<br>
&gt;glustershd log file for details.<br>
&gt;&gt; &gt; <br>
&gt;&gt; &gt;         gluster volume heal gv01 info<br>
&gt;&gt; &gt; <br>
&gt;&gt; &gt;          gluster volume heal gv01 info<br>
&gt;&gt; &gt;         Brick server1:/bricks/0/gv0<br>
&gt;&gt; &gt;         Status: Transport endpoint is not connected<br>
&gt;&gt; &gt;          <br>
&gt;&gt; &gt;         Number of entries: -<br>
&gt;&gt; &gt; <br>
&gt;&gt; &gt;          <br>
&gt;&gt; &gt;         When I do &quot;gluster volume start gv01 force&quot; brick starts.<br>
&gt;&gt; &gt; <br>
&gt;&gt; &gt;         I want the brick to come online automatically after the<br>
&gt;reboot. I have attached log file.<br>
&gt;&gt; &gt;         Please help.<br>
&gt;&gt; &gt; <br>
&gt;&gt; &gt;         Regards,<br>
&gt;&gt; &gt;         Mark.<br>
&gt;&gt; &gt; <br>
&gt;&gt; &gt; <br>
&gt;&gt; &gt;         ________<br>
&gt;&gt; &gt; <br>
&gt;&gt; &gt;         Community Meeting Calendar:<br>
&gt;&gt; &gt; <br>
&gt;&gt; &gt;         APAC Schedule -<br>
&gt;&gt; &gt;         Every 2nd and 4th Tuesday at 11:30 AM IST<br>
&gt;&gt; &gt;         Bridge: <a href="https://bluejeans.com/441850968" rel="noreferrer" target="_blank">https://bluejeans.com/441850968</a><br>
&gt;&gt; &gt; <br>
&gt;&gt; &gt;         NA/EMEA Schedule -<br>
&gt;&gt; &gt;         Every 1st and 3rd Tuesday at 01:00 PM EDT<br>
&gt;&gt; &gt;         Bridge: <a href="https://bluejeans.com/441850968" rel="noreferrer" target="_blank">https://bluejeans.com/441850968</a><br>
&gt;&gt; &gt; <br>
&gt;&gt; &gt;         Gluster-users mailing list<br>
&gt;&gt; &gt;         <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a> mailto:<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
&gt;&gt; &gt;         <a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt; &gt; <br>
&gt;&gt; &gt;     &gt; <br>
&gt;&gt; <br>
&gt;&gt; <br>
&gt;&gt;     Met vriendelijke groet, With kind regards,<br>
&gt;&gt; <br>
&gt;&gt;     Jorick Astrego<br>
&gt;&gt; <br>
&gt;&gt;     Netbulae Virtualization Experts<br>
&gt;&gt; <br>
&gt;&gt;     ---------------------------------------------<br>
&gt;&gt;     Tel: 053 20 30 270       <a href="mailto:info@netbulae.eu" target="_blank">info@netbulae.eu</a>        Staalsteden 4-3A        KvK<br>
&gt;08198180<br>
&gt;&gt;     Fax: 053 20 30 271       <a href="http://www.netbulae.eu" rel="noreferrer" target="_blank">www.netbulae.eu</a>         7547 TA Enschede        BTW<br>
&gt;NL821234584B01<br>
&gt;&gt; <br>
&gt;&gt; <br>
&gt;&gt;     ---------------------------------------------<br>
&gt;&gt; <br>
&gt;&gt; <br>
&gt;<br>
&gt;<br>
&gt; <br>
&gt;<br>
&gt;&gt; ________<br>
&gt;&gt; <br>
&gt;&gt;     Community Meeting Calendar:<br>
&gt;&gt; <br>
&gt;&gt;     APAC Schedule -<br>
&gt;&gt;     Every 2nd and 4th Tuesday at 11:30 AM IST<br>
&gt;&gt;     Bridge: <a href="https://bluejeans.com/441850968" rel="noreferrer" target="_blank">https://bluejeans.com/441850968</a><br>
&gt;&gt; <br>
&gt;&gt;     NA/EMEA Schedule -<br>
&gt;&gt;     Every 1st and 3rd Tuesday at 01:00 PM EDT<br>
&gt;&gt;     Bridge: <a href="https://bluejeans.com/441850968" rel="noreferrer" target="_blank">https://bluejeans.com/441850968</a><br>
&gt;&gt; <br>
&gt;&gt;     Gluster-users mailing list<br>
&gt;&gt;     <a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
&gt;&gt;     <a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt; <br>
&gt;<br>
&gt;<br>
&gt; <br>
<br>
Hi Rifat,<br>
<br>
Can you reproduce the same behaviour on VMs or physical machines ?<br>
If yes, then it could be an issue in the gluster version you are using, otherwise it will be related to the containerization of gluster.<br>
<br>
Best Regards,<br>
Strahil Nikolov<br>
________<br>
<br>
<br>
<br>
Community Meeting Calendar:<br>
<br>
Schedule -<br>
Every Tuesday at 14:30 IST / 09:00 UTC<br>
Bridge: <a href="https://bluejeans.com/441850968" rel="noreferrer" target="_blank">https://bluejeans.com/441850968</a><br>
<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
</blockquote></div><br clear="all"><div><br></div>-- <br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div>Thanks,<br></div>Sanju<br></div></div>