<div dir="ltr">Hello everyone,<div><br></div><div>I am using the following entry on a CentOS server.</div><div><br></div><div>gluster01.home:/videos /data2/plex/videos glusterfs _netdev 0 0<br>gluster01.home:/photos /data2/plex/photos glusterfs _netdev 0 0<br></div><div><br></div><div>I am able to use sudo mount -a to mount the volumes without any problems. When I reboot my server, nothing is mounted.</div><div><br></div><div>I can see errors in /var/log/glusterfs/data2-plex-photos.log:</div><div><br></div><div>...</div><div>[2020-01-24 01:24:18.302191] I [glusterfsd.c:2594:daemonize] 0-glusterfs: Pid of current running process is 3679<br>[2020-01-24 01:24:18.310017] E [MSGID: 101075] [common-utils.c:505:gf_resolve_ip6] 0-resolver: getaddrinfo failed (family:2) (Name or service not known)<br>[2020-01-24 01:24:18.310046] E [name.c:266:af_inet_client_get_remote_sockaddr] 0-glusterfs: DNS resolution failed on host gluster01.home<br>[2020-01-24 01:24:18.310187] I [MSGID: 101190] [event-epoll.c:682:event_dispatch_epoll_worker] 0-epoll: Started thread with index 0<br></div><div>...</div><div><br></div><div>I am able to to nslookup on gluster01 and gluster01.home without problems, so &quot;DNS resolution failed&quot; is confusing to me. What happens here?</div><div><br></div><div>Output of my volumes.</div><div><br></div><div>sudo gluster volume status<br>Status of volume: documents<br>Gluster process                             TCP Port  RDMA Port  Online  Pid<br>------------------------------------------------------------------------------<br>Brick gluster01.home:/data/documents        49152     0          Y       5658<br>Brick gluster02.home:/data/documents        49152     0          Y       5340<br>Brick gluster03.home:/data/documents        49152     0          Y       5305<br>Self-heal Daemon on localhost               N/A       N/A        Y       5679<br>Self-heal Daemon on gluster03.home          N/A       N/A        Y       5326<br>Self-heal Daemon on gluster02.home          N/A       N/A        Y       5361<br><br>Task Status of Volume documents<br>------------------------------------------------------------------------------<br>There are no active volume tasks<br><br>Status of volume: photos<br>Gluster process                             TCP Port  RDMA Port  Online  Pid<br>------------------------------------------------------------------------------<br>Brick gluster01.home:/data/photos           49153     0          Y       5779<br>Brick gluster02.home:/data/photos           49153     0          Y       5401<br>Brick gluster03.home:/data/photos           49153     0          Y       5366<br>Self-heal Daemon on localhost               N/A       N/A        Y       5679<br>Self-heal Daemon on gluster03.home          N/A       N/A        Y       5326<br>Self-heal Daemon on gluster02.home          N/A       N/A        Y       5361<br><br>Task Status of Volume photos<br>------------------------------------------------------------------------------<br>There are no active volume tasks<br><br>Status of volume: videos<br>Gluster process                             TCP Port  RDMA Port  Online  Pid<br>------------------------------------------------------------------------------<br>Brick gluster01.home:/data/videos           49154     0          Y       5883<br>Brick gluster02.home:/data/videos           49154     0          Y       5452<br>Brick gluster03.home:/data/videos           49154     0          Y       5416<br>Self-heal Daemon on localhost               N/A       N/A        Y       5679<br>Self-heal Daemon on gluster03.home          N/A       N/A        Y       5326<br>Self-heal Daemon on gluster02.home          N/A       N/A        Y       5361<br><br>Task Status of Volume videos<br>------------------------------------------------------------------------------<br>There are no active volume tasks<br></div><div><br></div><div>On the server (Ubuntu) following versions are installed.</div><div><br></div><div>glusterfs-client/bionic,now 7.2-ubuntu1~bionic1 armhf [installed,automatic]<br>glusterfs-common/bionic,now 7.2-ubuntu1~bionic1 armhf [installed,automatic]<br>glusterfs-server/bionic,now 7.2-ubuntu1~bionic1 armhf [installed]<br></div><div><br></div><div>On the client (CentOS) following versions are installed.</div><div><br></div><div>sudo rpm -qa | grep gluster<br>glusterfs-client-xlators-7.2-1.el7.x86_64<br>glusterfs-cli-7.2-1.el7.x86_64<br>glusterfs-libs-7.2-1.el7.x86_64<br>glusterfs-7.2-1.el7.x86_64<br>glusterfs-api-7.2-1.el7.x86_64<br>libvirt-daemon-driver-storage-gluster-4.5.0-23.el7_7.3.x86_64<br>centos-release-gluster7-1.0-1.el7.centos.noarch<br>glusterfs-fuse-7.2-1.el7.x86_64<br></div><div><br></div><div>I tried to disable IPv6 on the client voa sysctl with following parameters.</div><div><br></div><div>net.ipv6.conf.all.disable_ipv6 = 1<br>net.ipv6.conf.default.disable_ipv6 = 1<br></div><div><br></div><div>That did not help.</div><div><br></div><div>Volumes are configured with inet.</div><div><br></div><div>sudo gluster volume info videos<br><br>Volume Name: videos<br>Type: Replicate<br>Volume ID: 8fddde82-66b3-447f-8860-ed3768c51876<br>Status: Started<br>Snapshot Count: 0<br>Number of Bricks: 1 x 3 = 3<br>Transport-type: tcp<br>Bricks:<br>Brick1: gluster01.home:/data/videos<br>Brick2: gluster02.home:/data/videos<br>Brick3: gluster03.home:/data/videos<br>Options Reconfigured:<br>features.ctime: on<br>transport.address-family: inet<br>nfs.disable: on<br>performance.client-io-threads: off<br></div><div><br></div><div>I tried turning off ctime but that did not work either.</div><div><br></div><div>Any ideas? How do I do this correctly?</div><div><br></div><div>Cheers</div><div>Sherry</div></div>