No, it's not normal.<div id="yMail_cursorElementTracker_1630992395546">Go to the virt2 and in /var/log/gluster directory you will find 'bricks' . Check the logs in bricks for more information.</div><div id="yMail_cursorElementTracker_1630992459641"><br></div><div id="yMail_cursorElementTracker_1630992459852">Best Regards,</div><div id="yMail_cursorElementTracker_1630992463011">Strahil Nikolov</div><div id="yMail_cursorElementTracker_1630992452434"> <br> <blockquote style="margin: 0 0 20px 0;"> <div style="font-family:Roboto, sans-serif; color:#6D00F6;"> <div>On Tue, Sep 7, 2021 at 1:13, Dario Lesca</div><div><d.lesca@solinos.it> wrote:</div> </div> <div style="padding: 10px 0 0 20px; margin: 10px 0 0 0; border-left: 1px solid #6D00F6;"> <div dir="ltr">Hello everybody!<br></div><div dir="ltr">I'm a novice with gluster. I have setup my first cluster with two<br></div><div dir="ltr">nodes <br></div><div dir="ltr"><br></div><div dir="ltr">This is the current volume info:<br></div><div dir="ltr"><br></div><div dir="ltr">   [<a ymailto="mailto:root@s-virt1" href="mailto:root@s-virt1">root@s-virt1</a> ~]# gluster volume info gfsvol1<br></div><div dir="ltr">   Volume Name: gfsvol1<br></div><div dir="ltr">   Type: Replicate<br></div><div dir="ltr">   Volume ID: 5bad4a23-58cc-44d7-8195-88409720b941<br></div><div dir="ltr">   Status: Started<br></div><div dir="ltr">   Snapshot Count: 0<br></div><div dir="ltr">   Number of Bricks: 1 x 2 = 2<br></div><div dir="ltr">   Transport-type: tcp<br></div><div dir="ltr">   Bricks:<br></div><div dir="ltr">   Brick1: virt1.local:/gfsvol1/brick1<br></div><div dir="ltr">   Brick2: virt2.local:/gfsvol1/brick1<br></div><div dir="ltr">   Options Reconfigured:<br></div><div dir="ltr">   performance.client-io-threads: off<br></div><div dir="ltr">   nfs.disable: on<br></div><div dir="ltr">   transport.address-family: inet<br></div><div dir="ltr">   storage.fips-mode-rchecksum: on<br></div><div dir="ltr">   cluster.granular-entry-heal: on<br></div><div dir="ltr">   storage.owner-uid: 107<br></div><div dir="ltr">   storage.owner-gid: 107<br></div><div dir="ltr">   server.allow-insecure: on<br></div><div dir="ltr"><br></div><div dir="ltr">For now all seem work fine.<br></div><div dir="ltr"><br></div><div dir="ltr">I have mount the gfs volume on all two nodes and use the VM into it<br></div><div dir="ltr"><br></div><div dir="ltr">But today I noticed that the second node (virt2) is offline:<br></div><div dir="ltr"><br></div><div dir="ltr">   [<a ymailto="mailto:root@s-virt1" href="mailto:root@s-virt1">root@s-virt1</a> ~]# gluster volume status<br></div><div dir="ltr">   Status of volume: gfsvol1<br></div><div dir="ltr">   Gluster process                             TCP Port  RDMA Port  Online  Pid<br></div><div dir="ltr">   ------------------------------------------------------------------------------<br></div><div dir="ltr">   Brick virt1.local:/gfsvol1/brick1           49152     0          Y       3090 <br></div><div dir="ltr">   Brick virt2.local:/gfsvol1/brick1           N/A       N/A        N       N/A  <br></div><div dir="ltr">   Self-heal Daemon on localhost               N/A       N/A        Y       3105 <br></div><div dir="ltr">   Self-heal Daemon on virt2.local             N/A       N/A        Y       3140 <br></div><div dir="ltr">    <br></div><div dir="ltr">   Task Status of Volume gfsvol1<br></div><div dir="ltr">   ------------------------------------------------------------------------------<br></div><div dir="ltr">   There are no active volume tasks<br></div><div dir="ltr">   <br></div><div dir="ltr">   [<a ymailto="mailto:root@s-virt1" href="mailto:root@s-virt1">root@s-virt1</a> ~]# gluster volume status gfsvol1 detail<br></div><div dir="ltr">   Status of volume: gfsvol1<br></div><div dir="ltr">   ------------------------------------------------------------------------------<br></div><div dir="ltr">   Brick                : Brick virt1.local:/gfsvol1/brick1<br></div><div dir="ltr">   TCP Port             : 49152               <br></div><div dir="ltr">   RDMA Port            : 0                   <br></div><div dir="ltr">   Online               : Y                   <br></div><div dir="ltr">   Pid                  : 3090                <br></div><div dir="ltr">   File System          : xfs                 <br></div><div dir="ltr">   Device               : /dev/mapper/rl-gfsvol1<br></div><div dir="ltr">   Mount Options        : rw,seclabel,relatime,attr2,inode64,logbufs=8,logbsize=32k,sunit=128,swidth=128,noquota<br></div><div dir="ltr">   Inode Size           : 512                 <br></div><div dir="ltr">   Disk Space Free      : 146.4GB             <br></div><div dir="ltr">   Total Disk Space     : 999.9GB             <br></div><div dir="ltr">   Inode Count          : 307030856           <br></div><div dir="ltr">   Free Inodes          : 307026149           <br></div><div dir="ltr">   ------------------------------------------------------------------------------<br></div><div dir="ltr">   Brick                : Brick virt2.local:/gfsvol1/brick1<br></div><div dir="ltr">   TCP Port             : N/A                 <br></div><div dir="ltr">   RDMA Port            : N/A                 <br></div><div dir="ltr">   Online               : N                   <br></div><div dir="ltr">   Pid                  : N/A                 <br></div><div dir="ltr">   File System          : xfs                 <br></div><div dir="ltr">   Device               : /dev/mapper/rl-gfsvol1<br></div><div dir="ltr">   Mount Options        : rw,seclabel,relatime,attr2,inode64,logbufs=8,logbsize=32k,sunit=128,swidth=128,noquota<br></div><div dir="ltr">   Inode Size           : 512                 <br></div><div dir="ltr">   Disk Space Free      : 146.4GB             <br></div><div dir="ltr">   Total Disk Space     : 999.9GB             <br></div><div dir="ltr">   Inode Count          : 307052016           <br></div><div dir="ltr">   Free Inodes          : 307047307<br></div><div dir="ltr">   <br></div><div dir="ltr">What does it mean?<br></div><div dir="ltr">What's wrong?<br></div><div dir="ltr">Is this normal or I missing some setting?<br></div><div dir="ltr"><br></div><div dir="ltr">If you need more information let me know<br></div><div dir="ltr"><br></div><div dir="ltr">Many thanks for your help<br></div><div dir="ltr"><br></div><div dir="ltr">-- <br></div><div dir="ltr">Dario Lesca<br></div><div dir="ltr">(inviato dal mio Linux Fedora 34 Workstation)<br></div><div dir="ltr"><br></div><div dir="ltr"><br></div><div dir="ltr">________<br></div><div dir="ltr"><br></div><div dir="ltr"><br></div><div dir="ltr"><br></div><div dir="ltr">Community Meeting Calendar:<br></div><div dir="ltr"><br></div><div dir="ltr">Schedule -<br></div><div dir="ltr">Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br></div><div dir="ltr">Bridge: <a href="https://meet.google.com/cpu-eiue-hvk" target="_blank">https://meet.google.com/cpu-eiue-hvk</a><br></div><div dir="ltr">Gluster-users mailing list<br></div><div dir="ltr"><a ymailto="mailto:Gluster-users@gluster.org" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br></div><div dir="ltr"><a href="https://lists.gluster.org/mailman/listinfo/gluster-users" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br></div> </div> </blockquote></div>