<html><head><meta http-equiv="Content-Type" content="text/html charset=us-ascii"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;" class="">Hi community,<div class=""><br class=""></div><div class="">I have a few issues with my GlusterFS. &nbsp;Below is my gluster configuration:</div><div class=""><br class=""></div><div class=""><b class=""><u class="">Configuration:</u></b></div><div class="">3 x storage nodes</div><div class="">Replica of 3</div><div class="">zfs for the bricks</div><div class="">Pacemaker and corosync&nbsp;</div><div class=""><br class=""></div><div class=""><div class="">&nbsp;node1:/root=&gt; gluster --version</div><div class="">glusterfs 3.7.11 built on Apr 27 2016 14:09:22</div><div class="">Repository revision: <a href="git://git.gluster.com/glusterfs.git" class="">git://git.gluster.com/glusterfs.git</a></div><div class="">Copyright (c) 2006-2011 Gluster Inc. &lt;<a href="http://www.gluster.com" class="">http://www.gluster.com</a>&gt;</div><div class="">GlusterFS comes with ABSOLUTELY NO WARRANTY.</div><div class="">You may redistribute copies of GlusterFS under the terms of the GNU General Public License.</div></div><div class=""><br class=""></div><div class=""><div class="">node1:/root =&gt; gluster vol info vol1</div><div class="">Volume Name: vol1</div><div class="">Type: Replicate</div><div class="">Volume ID: 3a74d652-69cb-449c-a8a9-88d790a4d4c1</div><div class="">Status: Started</div><div class="">Number of Bricks: 1 x 3 = 3</div><div class="">Transport-type: tcp</div><div class="">Bricks:</div><div class="">Brick1: node1:/zfsvol/brick01/vol1</div><div class="">Brick2: node2:/zfsvol/brick01/vol1</div><div class="">Brick3: node3:/zfsvol/brick01/vol1</div><div class="">Options Reconfigured:</div><div class="">storage.build-pgfid: on</div><div class="">nfs.export-volumes: on</div><div class="">features.quota-deem-statfs: on</div><div class="">features.inode-quota: on</div><div class="">features.quota: on</div><div class="">performance.readdir-ahead: on</div><div class="">nfs.disable: off</div><div class="">nfs.acl: off</div><div class="">nfs.rpc-auth-allow: 127.0.0.1,17.158.0.0/15</div><div class="">nfs.addr-namelookup: off</div><div class="">nfs.drc: off</div></div><div class=""><br class=""></div><div class=""><b class=""><u class="">Issue:</u></b></div><div class="">1. The client keep getting the following error messages:</div><div class="">nfs: server nfs001 not responding, still trying</div><div class=""><div class="">nfs: server&nbsp;nfs001&nbsp;not responding, still trying</div><div class="">nfs: server nfs001 not responding, still trying</div><div class="">nfs: server&nbsp;nfs001&nbsp;not responding, still trying</div><div class="">nfs: server&nbsp;nfs001&nbsp;not responding, still trying</div></div><div class=""><div class="">nfs: server&nbsp;nfs001&nbsp;OK</div><div class="">nfs: server&nbsp;nfs001&nbsp;OK</div><div class="">nfs: server&nbsp;nfs001&nbsp;OK</div><div class="">nfs: server&nbsp;nfs001&nbsp;OK</div><div class="">nfs: server nfs001&nbsp;OK</div></div><div class="">2. vi on file taking up to 3 minutes to view or hang sometime.</div><div class="">3. Can mount native Glusterfs NFS but could not mount via FUSE. df getting hang after mounting FUSE.</div><div class="">4. The used size of the brick on node2 show different than the other node (node 1 &amp; node3) after it gets rebooted. The used capacity on node2 is showing a lot less than node1 &amp; node3.</div><div class=""><br class=""></div><div class=""><div class="">node1:/root =&gt; df -h</div><div class="">Filesystem &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Size &nbsp;Used Avail Use% Mounted on</div><div class="">zfsvol/brick01 &nbsp; &nbsp; &nbsp; &nbsp;5.1T &nbsp;<b class=""><font color="#ff4013" class="">2.3T</font></b> &nbsp;2.9T &nbsp;44% /zfsvol/brick01</div><div class="">localhost:/vol1 &nbsp; &nbsp;5.2T &nbsp;2.4T &nbsp;2.8T &nbsp;46% /vol1</div></div><div class=""><br class=""></div><div class=""><div class="">node2:/root =&gt; df -h &nbsp;(this node got rebooted)</div><div class="">Filesystem &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Size &nbsp;Used Avail Use% Mounted on</div><div class="">zfsvol/brick01 &nbsp; &nbsp; &nbsp; &nbsp;4.0T &nbsp;<b class=""><font color="#ff4013" class="">686G</font></b> &nbsp;3.3T &nbsp;17% /zfsvol/brick01</div><div class="">localhost:/gvol001 &nbsp; &nbsp;5.2T &nbsp;2.4T &nbsp;2.8T &nbsp;46% /vol1</div></div><div class=""><br class=""></div><div class=""><div class="">node3:/root =&gt; df -h</div><div class="">Filesystem &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;Size &nbsp;Used Avail Use% Mounted on</div><div class="">zfsvol/brick01 &nbsp; &nbsp; &nbsp; &nbsp;5.2T &nbsp;<b class=""><font color="#ff4013" class="">2.4T</font></b> &nbsp;2.8T &nbsp;46% /zfsvol/brick01</div><div class="">localhost:/vol1 &nbsp; &nbsp;5.2T &nbsp;2.4T &nbsp;2.8T &nbsp;46% /vol1</div></div><div class=""><br class=""></div><div class="">Any idea?</div><div class=""><br class=""></div><div class="">Thanks,</div><div class="">~ Vic Le</div><div class=""><br class=""></div></body></html>