<html><head></head><body><div class="ydp1aa50dd5yahoo-style-wrap" style="font-family:Helvetica Neue, Helvetica, Arial, sans-serif;font-size:16px;"><div></div>
        <div dir="ltr" data-setdir="false">Hi Strahil,</div><div dir="ltr" data-setdir="false"><br></div><div dir="ltr" data-setdir="false">Thanks for sharing the steps. I have tried all the steps mentioned except 6 and 9.</div><div dir="ltr" data-setdir="false"><br></div><div dir="ltr" data-setdir="false">Let me try them as well and see how it is responding.</div><div dir="ltr" data-setdir="false"><br></div><div dir="ltr" data-setdir="false">Thanks,</div><div dir="ltr" data-setdir="false">Ahemad</div><div><br></div>
        
        </div><div id="yahoo_quoted_2621931960" class="yahoo_quoted">
            <div style="font-family:'Helvetica Neue', Helvetica, Arial, sans-serif;font-size:13px;color:#26282a;">
                
                <div>
                    On Wednesday, 17 June, 2020, 02:51:48 pm IST, Strahil Nikolov &lt;hunter86_bg@yahoo.com&gt; wrote:
                </div>
                <div><br></div>
                <div><br></div>
                <div><div dir="ltr">Hi Ahemad,<br clear="none"><br clear="none">most probably the reason of the unexpected downtime lies&nbsp; somewhere else&nbsp; and you just observe&nbsp; symptoms.<br clear="none"><br clear="none">So,&nbsp; you have replica 3&nbsp; volume&nbsp; on 3&nbsp; separate hosts , right ?<br clear="none"><br clear="none">Here is what I think you should&nbsp; do on a TEST cluster (could be VMs&nbsp; even kn your laptop):<br clear="none">1.&nbsp; Create 1&nbsp; brick on each VM<br clear="none">2.&nbsp; Create the TSP<br clear="none">3.&nbsp; Create the replica 3&nbsp; volume<br clear="none">4. Enable &amp; start glusterfsd.service on all VMs<br clear="none">5. Connect another VM via fuse&nbsp; and use the mount like this one:<br clear="none"><br clear="none">mount&nbsp; -t glusterfs -o backup-volfile-servers=vm2:vm3 vm1:/volume1&nbsp; /mnt<br clear="none"><br clear="none">6. Now test hardware failure - power off VM1 ungracefully. The fuse client should recover in less than a minute - this is defined by the volume timeout<br clear="none">7. Power up vm1 and check the heal status<br clear="none">8. Once the heal is over you can proceed<br clear="none">9. Test planned maintenance - use the gluster script to kill all gluster processes&nbsp; on vm2. FUSE client should not hang and should not notice anything.<br clear="none">10. Start glusterd.service and then forcefully start the brick:<br clear="none">gluster volume start volume1&nbsp; force<br clear="none">Check status:<br clear="none">gluster volume status golume1 <br clear="none"><br clear="none">Wait for the heals to complete.<br clear="none">All bricks should be online.<br clear="none"><br clear="none">11. Now shutdown vm3 gracefully. The glusterfsd.service should kill all gluster processses and the FUSE client should never experience any issues.<br clear="none"><br clear="none">The only case&nbsp; where you can observe partial&nbsp; downtime with replica 3&nbsp; is when there were&nbsp; pending heals&nbsp; and&nbsp; one of the 2 good sources has failed/powerdown before the heal has completed.<br clear="none"><br clear="none">Usually there are 2 healing mechanisms:<br clear="none">1) When a FUSE client access a file that has some differences (2 bricks same file, 1 brick older version), it will try to correct the issues.<br clear="none">2) There is a daemon that crawls over the pending heals every 15min (I'm not sure, maybe even 10) and heals any 'blame's.<br clear="none"><br clear="none">You can use 'gluster golume heal volume1&nbsp; full' to initiate a full heal, but on large bricks ot could take a long time and is usually used after brick replacement/reset.<br clear="none"><br clear="none">Best Regards,<br clear="none">Strahil Nikolov<br clear="none"><div class="yqt1396103586" id="yqtfd25831"><br clear="none">На 17 юни 2020 г. 10:45:27 GMT+03:00, ahemad shaik &lt;<a shape="rect" ymailto="mailto:ahemad_shaik@yahoo.com" href="mailto:ahemad_shaik@yahoo.com">ahemad_shaik@yahoo.com</a>&gt; написа:<br clear="none">&gt; Thanks Karthik for the information. Let me try.<br clear="none">&gt;Thanks,Ahemad<br clear="none">&gt;On Wednesday, 17 June, 2020, 12:43:29 pm IST, Karthik Subrahmanya<br clear="none">&gt;&lt;<a shape="rect" ymailto="mailto:ksubrahm@redhat.com" href="mailto:ksubrahm@redhat.com">ksubrahm@redhat.com</a>&gt; wrote:&nbsp; <br clear="none">&gt; <br clear="none">&gt; Hi Ahemad,<br clear="none">&gt;Glad to hear that your problem is resolved. Thanks&nbsp;Strahil and Hubert<br clear="none">&gt;for your suggestions.<br clear="none">&gt;<br clear="none">&gt;On Wed, Jun 17, 2020 at 12:29 PM ahemad shaik &lt;<a shape="rect" ymailto="mailto:ahemad_shaik@yahoo.com" href="mailto:ahemad_shaik@yahoo.com">ahemad_shaik@yahoo.com</a>&gt;<br clear="none">&gt;wrote:<br clear="none">&gt;<br clear="none">&gt; Hi&nbsp;<br clear="none">&gt;I tried starting and enabling the glusterfsd service suggested by<br clear="none">&gt;Hubert and Strahil, I see that works when one of the&nbsp; gluster volume is<br clear="none">&gt;not available and client still able to access the mount point.<br clear="none">&gt;Thanks so much Strahil , Hubert and Karthik on your suggestion and for<br clear="none">&gt;the time.<br clear="none">&gt;can you please help on making data consistent in all nodes when we have<br clear="none">&gt;some 5 hours of down time and one of the server . how to achieve data<br clear="none">&gt;consistency in all 3 nodes.<br clear="none">&gt;When the node/brick which was down comes back up, gluster self heal<br clear="none">&gt;daemon (glustershd) will automatically do the syncing of the data to<br clear="none">&gt;the down brick and make it consistent with the good copies. You can<br clear="none">&gt;alternatively run the index heal command "gluster volume heal<br clear="none">&gt;&lt;vol-name&gt;" to trigger the heal manually and you can see the entries<br clear="none">&gt;needing heal and the progress of heal by running "gluster volume heal<br clear="none">&gt;&lt;vol-name&gt; info".<br clear="none">&gt;HTH,Karthik<br clear="none">&gt;<br clear="none">&gt;Any documentation on that end will be helpful.<br clear="none">&gt;Thanks,Ahemad<br clear="none">&gt;On Wednesday, 17 June, 2020, 12:03:06 pm IST, Karthik Subrahmanya<br clear="none">&gt;&lt;<a shape="rect" ymailto="mailto:ksubrahm@redhat.com" href="mailto:ksubrahm@redhat.com">ksubrahm@redhat.com</a>&gt; wrote:&nbsp; <br clear="none">&gt; <br clear="none">&gt; Hi Ahemad,<br clear="none">&gt;Sorry for a lot of back and forth on this. But we might need a few more<br clear="none">&gt;details to find the actual cause here.What version of gluster you are<br clear="none">&gt;running on server and client nodes?Also provide the statedump [1] of<br clear="none">&gt;the bricks and the client process when the hang is seen.<br clear="none">&gt;[1]&nbsp;<a shape="rect" href="https://docs.gluster.org/en/latest/Troubleshooting/statedump/" target="_blank">https://docs.gluster.org/en/latest/Troubleshooting/statedump/</a><br clear="none">&gt;Regards,Karthik<br clear="none">&gt;On Wed, Jun 17, 2020 at 9:25 AM <a shape="rect" ymailto="mailto:ahemad_shaik@yahoo.com" href="mailto:ahemad_shaik@yahoo.com">ahemad_shaik@yahoo.com</a><br clear="none">&gt;&lt;<a shape="rect" ymailto="mailto:ahemad_shaik@yahoo.com" href="mailto:ahemad_shaik@yahoo.com">ahemad_shaik@yahoo.com</a>&gt; wrote:<br clear="none">&gt;<br clear="none">&gt;I have a 3 replica gluster volume created in 3 nodes and when one node<br clear="none">&gt;is down due to some issue and the clients not able access volume. This<br clear="none">&gt;was the issue. I have fixed the server and it is back. There was<br clear="none">&gt;downtime at client. I just want to avoid the downtime since it is 3<br clear="none">&gt;replica.<br clear="none">&gt;I am testing the high availability now by making one of the brick<br clear="none">&gt;server rebooting or shut down manually. I just want to make volume<br clear="none">&gt;accessible always by client. That is the reason we went for replica<br clear="none">&gt;volume.<br clear="none">&gt;So I just would like to know how to make the client volume high<br clear="none">&gt;available even some VM or node which is having gluster volume goes down<br clear="none">&gt;unexpectedly had down time of 10 hours.<br clear="none">&gt;<br clear="none">&gt;<br clear="none">&gt;Glusterfsd service is used to stop which is disabled in my cluster and<br clear="none">&gt;I see one more service running gluserd.&nbsp;<br clear="none">&gt;Will starting glusterfsd service in all 3 replica nodes will help in<br clear="none">&gt;achieving what I am trying.<br clear="none">&gt;Hope I am clear.<br clear="none">&gt;Thanks,Ahemad<br clear="none">&gt;<br clear="none">&gt;<br clear="none">&gt;Thanks,Ahemad<br clear="none">&gt;<br clear="none">&gt; <br clear="none">&gt; <br clear="none">&gt;On Tue, Jun 16, 2020 at 23:12, Strahil Nikolov&lt;<a shape="rect" ymailto="mailto:hunter86_bg@yahoo.com" href="mailto:hunter86_bg@yahoo.com">hunter86_bg@yahoo.com</a>&gt;<br clear="none">&gt;wrote:&nbsp;  In my cluster ,&nbsp; the service is enabled and running.<br clear="none">&gt;<br clear="none">&gt;What actually&nbsp; is your problem&nbsp; ?<br clear="none">&gt;When a gluster brick process dies unexpectedly - all fuse clients will<br clear="none">&gt;be waiting for the timeout .<br clear="none">&gt;The service glusterfsd is ensuring that during system shutdown ,&nbsp; the<br clear="none">&gt;brick procesees will be shutdown in such way that all native clients&nbsp;<br clear="none">&gt;won't 'hang' and wait for the timeout, but will directly choose&nbsp;<br clear="none">&gt;another brick.<br clear="none">&gt;<br clear="none">&gt;The same happens when you manually run the kill script&nbsp; -&nbsp; all gluster<br clear="none">&gt;processes&nbsp; shutdown and all clients are&nbsp; redirected to another brick.<br clear="none">&gt;<br clear="none">&gt;Keep in mind that fuse mounts will&nbsp; also be killed&nbsp; both by the script<br clear="none">&gt;and the glusterfsd service.<br clear="none">&gt;<br clear="none">&gt;Best Regards,<br clear="none">&gt;Strahil Nikolov<br clear="none">&gt;<br clear="none">&gt;На 16 юни 2020 г. 19:48:32 GMT+03:00, ahemad shaik<br clear="none">&gt;&lt;<a shape="rect" ymailto="mailto:ahemad_shaik@yahoo.com" href="mailto:ahemad_shaik@yahoo.com">ahemad_shaik@yahoo.com</a>&gt; написа:<br clear="none">&gt;&gt; Hi Strahil,<br clear="none">&gt;&gt;I have the gluster setup on centos 7 cluster.I see glusterfsd service<br clear="none">&gt;&gt;and it is in inactive state.<br clear="none">&gt;&gt;systemctl status glusterfsd.service● glusterfsd.service - GlusterFS<br clear="none">&gt;&gt;brick processes (stopping only)&nbsp; &nbsp;Loaded: loaded<br clear="none">&gt;&gt;(/usr/lib/systemd/system/glusterfsd.service; disabled; vendor preset:<br clear="none">&gt;&gt;disabled)&nbsp; &nbsp;Active: inactive (dead)<br clear="none">&gt;&gt;<br clear="none">&gt;&gt;so you mean starting this service in all the nodes where gluster<br clear="none">&gt;&gt;volumes are created, will solve the issue ?<br clear="none">&gt;&gt;<br clear="none">&gt;&gt;Thanks,Ahemad<br clear="none">&gt;&gt;<br clear="none">&gt;&gt;<br clear="none">&gt;&gt;On Tuesday, 16 June, 2020, 10:12:22 pm IST, Strahil Nikolov<br clear="none">&gt;&gt;&lt;<a shape="rect" ymailto="mailto:hunter86_bg@yahoo.com" href="mailto:hunter86_bg@yahoo.com">hunter86_bg@yahoo.com</a>&gt; wrote:&nbsp; <br clear="none">&gt;&gt; <br clear="none">&gt;&gt; Hi ahemad,<br clear="none">&gt;&gt;<br clear="none">&gt;&gt;the&nbsp; script&nbsp; kills&nbsp; all gluster&nbsp; processes,&nbsp; so the clients won't<br clear="none">&gt;wait&nbsp;<br clear="none">&gt;&gt;for the timeout before&nbsp; switching to another node in the TSP.<br clear="none">&gt;&gt;<br clear="none">&gt;&gt;In CentOS/RHEL,&nbsp; there&nbsp; is a&nbsp; systemd&nbsp; service called<br clear="none">&gt;&gt;'glusterfsd.service' that&nbsp; is taking care on shutdown to kill all<br clear="none">&gt;&gt;processes,&nbsp; so clients won't hung.<br clear="none">&gt;&gt;<br clear="none">&gt;&gt;systemctl cat glusterfsd.service --no-pager<br clear="none">&gt;&gt;# /usr/lib/systemd/system/glusterfsd.service<br clear="none">&gt;&gt;[Unit]<br clear="none">&gt;&gt;Description=GlusterFS brick processes (stopping only)<br clear="none">&gt;&gt;After=network.target glusterd.service<br clear="none">&gt;&gt;<br clear="none">&gt;&gt;[Service]<br clear="none">&gt;&gt;Type=oneshot<br clear="none">&gt;&gt;# glusterd starts the glusterfsd processed on-demand<br clear="none">&gt;&gt;# /bin/true will mark this service as started, RemainAfterExit keeps<br clear="none">&gt;it<br clear="none">&gt;&gt;active<br clear="none">&gt;&gt;ExecStart=/bin/true<br clear="none">&gt;&gt;RemainAfterExit=yes<br clear="none">&gt;&gt;# if there are no glusterfsd processes, a stop/reload should not give<br clear="none">&gt;&gt;an error<br clear="none">&gt;&gt;ExecStop=/bin/sh -c "/bin/killall --wait glusterfsd || /bin/true"<br clear="none">&gt;&gt;ExecReload=/bin/sh -c "/bin/killall -HUP glusterfsd || /bin/true"<br clear="none">&gt;&gt;<br clear="none">&gt;&gt;[Install]<br clear="none">&gt;&gt;WantedBy=multi-user.target<br clear="none">&gt;&gt;<br clear="none">&gt;&gt;Best Regards,<br clear="none">&gt;&gt;Strahil&nbsp; Nikolov<br clear="none">&gt;&gt;<br clear="none">&gt;&gt;На 16 юни 2020 г. 18:41:59 GMT+03:00, ahemad shaik<br clear="none">&gt;&gt;&lt;<a shape="rect" ymailto="mailto:ahemad_shaik@yahoo.com" href="mailto:ahemad_shaik@yahoo.com">ahemad_shaik@yahoo.com</a>&gt; написа:<br clear="none">&gt;&gt;&gt; Hi,&nbsp;<br clear="none">&gt;&gt;&gt;I see there is a script file in below mentioned path in all nodes<br clear="none">&gt;&gt;using<br clear="none">&gt;&gt;&gt;which gluster volume<br clear="none">&gt;&gt;&gt;created./usr/share/glusterfs/scripts/stop-all-gluster-processes.sh<br clear="none">&gt;&gt;&gt;I need to create a system service and when ever there is some server<br clear="none">&gt;&gt;&gt;down, we need to call this script or we need to have it run always it<br clear="none">&gt;&gt;&gt;will take care when some node is down to make sure that client will<br clear="none">&gt;&gt;not<br clear="none">&gt;&gt;&gt;have any issues in accessing mount point ?<br clear="none">&gt;&gt;&gt;can you please share any documentation on how to use this.That will<br clear="none">&gt;be<br clear="none">&gt;&gt;&gt;great help.<br clear="none">&gt;&gt;&gt;Thanks,Ahemad<br clear="none">&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;On Tuesday, 16 June, 2020, 08:59:31 pm IST, Strahil Nikolov<br clear="none">&gt;&gt;&gt;&lt;<a shape="rect" ymailto="mailto:hunter86_bg@yahoo.com" href="mailto:hunter86_bg@yahoo.com">hunter86_bg@yahoo.com</a>&gt; wrote:&nbsp; <br clear="none">&gt;&gt;&gt; <br clear="none">&gt;&gt;&gt; Hi Ahemad,<br clear="none">&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;You can simplify it&nbsp; by creating a systemd service that&nbsp; will&nbsp; call&nbsp;<br clear="none">&gt;&gt;&gt;the script.<br clear="none">&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;It was&nbsp; already mentioned&nbsp; in a previous thread&nbsp; (with example),&nbsp; so&nbsp;<br clear="none">&gt;&gt;&gt;you can just use&nbsp; it.<br clear="none">&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;Best Regards,<br clear="none">&gt;&gt;&gt;Strahil&nbsp; Nikolov<br clear="none">&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;На 16 юни 2020 г. 16:02:07 GMT+03:00, Hu Bert<br clear="none">&gt;&lt;<a shape="rect" ymailto="mailto:revirii@googlemail.com" href="mailto:revirii@googlemail.com">revirii@googlemail.com</a>&gt;<br clear="none">&gt;&gt;&gt;написа:<br clear="none">&gt;&gt;&gt;&gt;Hi,<br clear="none">&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;if you simply reboot or shutdown one of the gluster nodes, there<br clear="none">&gt;&gt;might<br clear="none">&gt;&gt;&gt;&gt;be a (short or medium) unavailability of the volume on the nodes. To<br clear="none">&gt;&gt;&gt;&gt;avoid this there's script:<br clear="none">&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;/usr/share/glusterfs/scripts/stop-all-gluster-processes.sh (path may<br clear="none">&gt;&gt;&gt;&gt;be different depending on distribution)<br clear="none">&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;If i remember correctly: this notifies the clients that this node is<br clear="none">&gt;&gt;&gt;&gt;going to be unavailable (please correct me if the details are<br clear="none">&gt;wrong).<br clear="none">&gt;&gt;&gt;&gt;If i do reboots of one gluster node, i always call this script and<br clear="none">&gt;&gt;&gt;&gt;never have seen unavailability issues on the clients.<br clear="none">&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;Regards,<br clear="none">&gt;&gt;&gt;&gt;Hubert<br clear="none">&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;Am Mo., 15. Juni 2020 um 19:36 Uhr schrieb ahemad shaik<br clear="none">&gt;&gt;&gt;&gt;&lt;<a shape="rect" ymailto="mailto:ahemad_shaik@yahoo.com" href="mailto:ahemad_shaik@yahoo.com">ahemad_shaik@yahoo.com</a>&gt;:<br clear="none">&gt;&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;&gt; Hi There,<br clear="none">&gt;&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;&gt; I have created 3 replica gluster volume with 3 bricks from 3<br clear="none">&gt;nodes.<br clear="none">&gt;&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;&gt; "gluster volume create glustervol replica 3 transport tcp<br clear="none">&gt;&gt;&gt;node1:/data<br clear="none">&gt;&gt;&gt;&gt;node2:/data node3:/data force"<br clear="none">&gt;&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;&gt; mounted on client node using below command.<br clear="none">&gt;&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;&gt; "mount -t glusterfs node4:/glustervol&nbsp; &nbsp; /mnt/"<br clear="none">&gt;&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;&gt; when any of the node (either node1,node2 or node3) goes down,<br clear="none">&gt;&gt;&gt;gluster<br clear="none">&gt;&gt;&gt;&gt;mount/volume (/mnt) not accessible at client (node4).<br clear="none">&gt;&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;&gt; purpose of replicated volume is high availability but not able to<br clear="none">&gt;&gt;&gt;&gt;achieve it.<br clear="none">&gt;&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;&gt; Is it a bug or i am missing anything.<br clear="none">&gt;&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;&gt; Any suggestions will be great help!!!<br clear="none">&gt;&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;&gt; kindly suggest.<br clear="none">&gt;&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;&gt; Thanks,<br clear="none">&gt;&gt;&gt;&gt;&gt; Ahemad<br clear="none">&gt;&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;&gt; ________<br clear="none">&gt;&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;&gt; Community Meeting Calendar:<br clear="none">&gt;&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;&gt; Schedule -<br clear="none">&gt;&gt;&gt;&gt;&gt; Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br clear="none">&gt;&gt;&gt;&gt;&gt; Bridge: <a shape="rect" href="https://bluejeans.com/441850968" target="_blank">https://bluejeans.com/441850968</a><br clear="none">&gt;&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;&gt; Gluster-users mailing list<br clear="none">&gt;&gt;&gt;&gt;&gt; <a shape="rect" ymailto="mailto:Gluster-users@gluster.org" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br clear="none">&gt;&gt;&gt;&gt;&gt; <a shape="rect" href="https://lists.gluster.org/mailman/listinfo/gluster-users" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br clear="none">&gt;&gt;&gt;&gt;________<br clear="none">&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;Community Meeting Calendar:<br clear="none">&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;Schedule -<br clear="none">&gt;&gt;&gt;&gt;Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br clear="none">&gt;&gt;&gt;&gt;Bridge: <a shape="rect" href="https://bluejeans.com/441850968" target="_blank">https://bluejeans.com/441850968</a><br clear="none">&gt;&gt;&gt;&gt;<br clear="none">&gt;&gt;&gt;&gt;Gluster-users mailing list<br clear="none">&gt;&gt;&gt;&gt;<a shape="rect" ymailto="mailto:Gluster-users@gluster.org" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br clear="none">&gt;&gt;&gt;&gt;<a shape="rect" href="https://lists.gluster.org/mailman/listinfo/gluster-users " target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users </a>&nbsp;&nbsp;  <br clear="none">&gt;________<br clear="none">&gt;<br clear="none">&gt;<br clear="none">&gt;<br clear="none">&gt;Community Meeting Calendar:<br clear="none">&gt;<br clear="none">&gt;Schedule -<br clear="none">&gt;Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br clear="none">&gt;Bridge: <a shape="rect" href="https://bluejeans.com/441850968" target="_blank">https://bluejeans.com/441850968</a><br clear="none">&gt;<br clear="none">&gt;Gluster-users mailing list<br clear="none">&gt;<a shape="rect" ymailto="mailto:Gluster-users@gluster.org" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br clear="none">&gt;<a shape="rect" href="https://lists.gluster.org/mailman/listinfo/gluster-users" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br clear="none">&gt;<br clear="none">&gt;&nbsp; <br clear="none">&gt;&nbsp; </div></div></div>
            </div>
        </div></body></html>