<div>Hi Hari,<br></div><div>Sorry for not providing you more details from the start. Here below you will find all the relevant log entries and info. Regarding the quota.conf file I have found one for my volume but it is a binary file. Is it supposed to be binary or text?<br></div><div>Regards,<br></div><div>M.<br></div><div><br></div><div>*** gluster volume info myvolume ***<br></div><div><br></div><div>Volume Name: myvolume<br></div><div>Type: Replicate<br></div><div>Volume ID: e7a40a1b-45c9-4d3c-bb19-0c59b4eceec5<br></div><div>Status: Started<br></div><div>Snapshot Count: 0<br></div><div>Number of Bricks: 1 x (2 + 1) = 3<br></div><div>Transport-type: tcp<br></div><div>Bricks:<br></div><div>Brick1: gfs1a.domain.local:/data/myvolume/brick<br></div><div>Brick2: gfs1b.domain.local:/data/myvolume/brick<br></div><div>Brick3: gfs1c.domain.local:/srv/glusterfs/myvolume/brick (arbiter)<br></div><div>Options Reconfigured:<br></div><div>server.event-threads: 4<br></div><div>client.event-threads: 4<br></div><div>performance.readdir-ahead: on<br></div><div>nfs.disable: on<br></div><div>features.quota: on<br></div><div>features.inode-quota: on<br></div><div>features.quota-deem-statfs: on<br></div><div>transport.address-family: inet<br></div><div><br></div><div><br></div><div>*** /var/log/glusterfs/glusterd.log ***<br></div><div><br></div><div>[2018-02-13 08:16:09.929568] E [MSGID: 101042] [compat.c:569:gf_umount_lazy] 0-management: Lazy unmount of /var/run/gluster/myvolume_quota_list/<br></div><div>[2018-02-13 08:16:28.596527] I [MSGID: 106499] [glusterd-handler.c:4363:__glusterd_handle_status_volume] 0-management: Received status volume req for volume myvolume<br></div><div>[2018-02-13 08:16:28.601097] I [MSGID: 106419] [glusterd-utils.c:6110:glusterd_add_inode_size_to_dict] 0-management: the brick on data/myvolume (zfs) uses dynamic inode sizes<br></div><div><br></div><div><br></div><div>*** /var/log/glusterfs/cmd_history.log ***<br></div><div><br></div><div>[2018-02-13 08:16:28.605478]&nbsp; : volume status myvolume detail : SUCCESS<br></div><div><br></div><div><br></div><div>*** /var/log/glusterfs/quota-mount-myvolume.log ***<br></div><div><br></div><div>[2018-02-13 08:16:09.934117] I [MSGID: 100030] [glusterfsd.c:2503:main] 0-/usr/sbin/glusterfs: Started running /usr/sbin/glusterfs version 3.10.7 (args: /usr/sbin/glusterfs --volfile-server localhost --volfile-id myvolume -l /var/log/glusterfs/quota-mount-myvolume.log -p /var/run/gluster/myvolume_quota_list.pid --client-pid -5 /var/run/gluster/myvolume_quota_list/)<br></div><div>[2018-02-13 08:16:09.940432] I [MSGID: 101190] [event-epoll.c:629:event_dispatch_epoll_worker] 0-epoll: Started thread with index 1<br></div><div>[2018-02-13 08:16:09.940491] E [socket.c:2327:socket_connect_finish] 0-glusterfs: connection to ::1:24007 failed (Connection refused); disconnecting socket<br></div><div>[2018-02-13 08:16:09.940519] I [glusterfsd-mgmt.c:2134:mgmt_rpc_notify] 0-glusterfsd-mgmt: disconnected from remote-host: localhost<br></div><div>[2018-02-13 08:16:13.943827] I [afr.c:94:fix_quorum_options] 0-myvolume-replicate-0: reindeer: incoming qtype = none<br></div><div>[2018-02-13 08:16:13.943857] I [afr.c:116:fix_quorum_options] 0-myvolume-replicate-0: reindeer: quorum_count = 2147483647<br></div><div>[2018-02-13 08:16:13.945194] I [MSGID: 101190] [event-epoll.c:629:event_dispatch_epoll_worker] 0-epoll: Started thread with index 2<br></div><div>[2018-02-13 08:16:13.945237] I [MSGID: 101190] [event-epoll.c:629:event_dispatch_epoll_worker] 0-epoll: Started thread with index 4<br></div><div>[2018-02-13 08:16:13.945247] I [MSGID: 101190] [event-epoll.c:629:event_dispatch_epoll_worker] 0-epoll: Started thread with index 3<br></div><div>[2018-02-13 08:16:13.945941] W [MSGID: 101174] [graph.c:361:_log_if_unknown_option] 0-myvolume-readdir-ahead: option 'parallel-readdir' is not recognized<br></div><div>[2018-02-13 08:16:13.946342] I [MSGID: 114020] [client.c:2352:notify] 0-myvolume-client-0: parent translators are ready, attempting connect on transport<br></div><div>[2018-02-13 08:16:13.946789] I [MSGID: 114020] [client.c:2352:notify] 0-myvolume-client-1: parent translators are ready, attempting connect on transport<br></div><div>[2018-02-13 08:16:13.947151] I [rpc-clnt.c:2000:rpc_clnt_reconfig] 0-myvolume-client-0: changing port to 49153 (from 0)<br></div><div>[2018-02-13 08:16:13.947846] I [MSGID: 114057] [client-handshake.c:1451:select_server_supported_programs] 0-myvolume-client-0: Using Program GlusterFS 3.3, Num (1298437), Version (330)<br></div><div>[2018-02-13 08:16:13.948073] I [MSGID: 114020] [client.c:2352:notify] 0-myvolume-client-2: parent translators are ready, attempting connect on transport<br></div><div>[2018-02-13 08:16:13.948579] I [rpc-clnt.c:2000:rpc_clnt_reconfig] 0-myvolume-client-1: changing port to 49154 (from 0)<br></div><div>[2018-02-13 08:16:13.948699] I [MSGID: 114046] [client-handshake.c:1216:client_setvolume_cbk] 0-myvolume-client-0: Connected to myvolume-client-0, attached to remote volume '/data/myvolume/brick'.<br></div><div>[2018-02-13 08:16:13.948747] I [MSGID: 114047] [client-handshake.c:1227:client_setvolume_cbk] 0-myvolume-client-0: Server and Client lk-version numbers are not same, reopening the fds<br></div><div>[2018-02-13 08:16:13.948842] I [MSGID: 108005] [afr-common.c:4813:afr_notify] 0-myvolume-replicate-0: Subvolume 'myvolume-client-0' came back up; going online.<br></div><div>Final graph:<br></div><div>+------------------------------------------------------------------------------+<br></div><div>&nbsp; 1: volume myvolume-client-0<br></div><div>&nbsp; 2:&nbsp;&nbsp;&nbsp;&nbsp; type protocol/client<br></div><div>&nbsp; 3:&nbsp;&nbsp;&nbsp;&nbsp; option opversion 31004<br></div><div>&nbsp; 4:&nbsp;&nbsp;&nbsp;&nbsp; option clnt-lk-version 1<br></div><div>&nbsp; 5:&nbsp;&nbsp;&nbsp;&nbsp; option volfile-checksum 0<br></div><div>&nbsp; 6:&nbsp;&nbsp;&nbsp;&nbsp; option volfile-key myvolume<br></div><div>&nbsp; 7:&nbsp;&nbsp;&nbsp;&nbsp; option client-version 3.10.7<br></div><div>&nbsp; 8:&nbsp;&nbsp;&nbsp;&nbsp; option process-uuid gfs1a-14348-2018/02/13-08:16:09:933625-myvolume-client-0-0-0<br></div><div>&nbsp; 9:&nbsp;&nbsp;&nbsp;&nbsp; option fops-version 1298437<br></div><div>10:&nbsp;&nbsp;&nbsp;&nbsp; option ping-timeout 42<br></div><div>11:&nbsp;&nbsp;&nbsp;&nbsp; option remote-host gfs1a.domain.local<br></div><div>12:&nbsp;&nbsp;&nbsp;&nbsp; option remote-subvolume /data/myvolume/brick<br></div><div>13:&nbsp;&nbsp;&nbsp;&nbsp; option transport-type socket<br></div><div>14:&nbsp;&nbsp;&nbsp;&nbsp; option transport.address-family inet<br></div><div>15:&nbsp;&nbsp;&nbsp;&nbsp; option username bea3e634-e174-4bb3-a1d6-25b09d03b536<br></div><div>16:&nbsp;&nbsp;&nbsp;&nbsp; option password 3a6f98bd-795e-4ec4-adfe-42c61ccfa0a6<br></div><div>17:&nbsp;&nbsp;&nbsp;&nbsp; option event-threads 4<br></div><div>18:&nbsp;&nbsp;&nbsp;&nbsp; option transport.tcp-user-timeout 0<br></div><div>19:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-time 20<br></div><div>20:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-interval 2<br></div><div>21:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-count 9<br></div><div>[2018-02-13 08:16:13.949147] I [MSGID: 114035] [client-handshake.c:202:client_set_lk_version_cbk] 0-myvolume-client-0: Server lk version = 1<br></div><div>22:&nbsp;&nbsp;&nbsp;&nbsp; option send-gids true<br></div><div>23: end-volume<br></div><div>24:&nbsp;<br></div><div>25: volume myvolume-client-1<br></div><div>26:&nbsp;&nbsp;&nbsp;&nbsp; type protocol/client<br></div><div>27:&nbsp;&nbsp;&nbsp;&nbsp; option ping-timeout 42<br></div><div>28:&nbsp;&nbsp;&nbsp;&nbsp; option remote-host gfs1b.domain.local<br></div><div>29:&nbsp;&nbsp;&nbsp;&nbsp; option remote-subvolume /data/myvolume/brick<br></div><div>30:&nbsp;&nbsp;&nbsp;&nbsp; option transport-type socket<br></div><div>31:&nbsp;&nbsp;&nbsp;&nbsp; option transport.address-family inet<br></div><div>32:&nbsp;&nbsp;&nbsp;&nbsp; option username bea3e634-e174-4bb3-a1d6-25b09d03b536<br></div><div>33:&nbsp;&nbsp;&nbsp;&nbsp; option password 3a6f98bd-795e-4ec4-adfe-42c61ccfa0a6<br></div><div>34:&nbsp;&nbsp;&nbsp;&nbsp; option event-threads 4<br></div><div>35:&nbsp;&nbsp;&nbsp;&nbsp; option transport.tcp-user-timeout 0<br></div><div>36:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-time 20<br></div><div>37:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-interval 2<br></div><div>38:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-count 9<br></div><div>39:&nbsp;&nbsp;&nbsp;&nbsp; option send-gids true<br></div><div>40: end-volume<br></div><div>41:&nbsp;<br></div><div>42: volume myvolume-client-2<br></div><div>43:&nbsp;&nbsp;&nbsp;&nbsp; type protocol/client<br></div><div>44:&nbsp;&nbsp;&nbsp;&nbsp; option ping-timeout 42<br></div><div>45:&nbsp;&nbsp;&nbsp;&nbsp; option remote-host gfs1c.domain.local<br></div><div>46:&nbsp;&nbsp;&nbsp;&nbsp; option remote-subvolume /srv/glusterfs/myvolume/brick<br></div><div>47:&nbsp;&nbsp;&nbsp;&nbsp; option transport-type socket<br></div><div>48:&nbsp;&nbsp;&nbsp;&nbsp; option transport.address-family inet<br></div><div>49:&nbsp;&nbsp;&nbsp;&nbsp; option username bea3e634-e174-4bb3-a1d6-25b09d03b536<br></div><div>50:&nbsp;&nbsp;&nbsp;&nbsp; option password 3a6f98bd-795e-4ec4-adfe-42c61ccfa0a6<br></div><div>51:&nbsp;&nbsp;&nbsp;&nbsp; option event-threads 4<br></div><div>52:&nbsp;&nbsp;&nbsp;&nbsp; option transport.tcp-user-timeout 0<br></div><div>53:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-time 20<br></div><div>54:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-interval 2<br></div><div>55:&nbsp;&nbsp;&nbsp;&nbsp; option transport.socket.keepalive-count 9<br></div><div>56:&nbsp;&nbsp;&nbsp;&nbsp; option send-gids true<br></div><div>57: end-volume<br></div><div>58:&nbsp;<br></div><div>59: volume myvolume-replicate-0<br></div><div>60:&nbsp;&nbsp;&nbsp;&nbsp; type cluster/replicate<br></div><div>61:&nbsp;&nbsp;&nbsp;&nbsp; option afr-pending-xattr myvolume-client-0,myvolume-client-1,myvolume-client-2<br></div><div>62:&nbsp;&nbsp;&nbsp;&nbsp; option arbiter-count 1<br></div><div>63:&nbsp;&nbsp;&nbsp;&nbsp; option use-compound-fops off<br></div><div>64:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes myvolume-client-0 myvolume-client-1 myvolume-client-2<br></div><div>65: end-volume<br></div><div>[2018-02-13 08:16:13.949442] I [rpc-clnt.c:2000:rpc_clnt_reconfig] 0-myvolume-client-2: changing port to 49153 (from 0)<br></div><div>66:&nbsp;<br></div><div>67: volume myvolume-dht<br></div><div>68:&nbsp;&nbsp;&nbsp;&nbsp; type cluster/distribute<br></div><div>69:&nbsp;&nbsp;&nbsp;&nbsp; option lock-migration off<br></div><div>70:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes myvolume-replicate-0<br></div><div>71: end-volume<br></div><div>72:&nbsp;<br></div><div>73: volume myvolume-write-behind<br></div><div>74:&nbsp;&nbsp;&nbsp;&nbsp; type performance/write-behind<br></div><div>75:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes myvolume-dht<br></div><div>76: end-volume<br></div><div>77:&nbsp;<br></div><div>78: volume myvolume-read-ahead<br></div><div>79:&nbsp;&nbsp;&nbsp;&nbsp; type performance/read-ahead<br></div><div>80:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes myvolume-write-behind<br></div><div>81: end-volume<br></div><div>82:&nbsp;<br></div><div>83: volume myvolume-readdir-ahead<br></div><div>84:&nbsp;&nbsp;&nbsp;&nbsp; type performance/readdir-ahead<br></div><div>85:&nbsp;&nbsp;&nbsp;&nbsp; option parallel-readdir off<br></div><div>86:&nbsp;&nbsp;&nbsp;&nbsp; option rda-request-size 131072<br></div><div>87:&nbsp;&nbsp;&nbsp;&nbsp; option rda-cache-limit 10MB<br></div><div>88:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes myvolume-read-ahead<br></div><div>89: end-volume<br></div><div>90:&nbsp;<br></div><div>91: volume myvolume-io-cache<br></div><div>92:&nbsp;&nbsp;&nbsp;&nbsp; type performance/io-cache<br></div><div>93:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes myvolume-readdir-ahead<br></div><div>94: end-volume<br></div><div>95:&nbsp;<br></div><div>96: volume myvolume-quick-read<br></div><div>97:&nbsp;&nbsp;&nbsp;&nbsp; type performance/quick-read<br></div><div>98:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes myvolume-io-cache<br></div><div>99: end-volume<br></div><div>100:&nbsp;<br></div><div>101: volume myvolume-open-behind<br></div><div>102:&nbsp;&nbsp;&nbsp;&nbsp; type performance/open-behind<br></div><div>103:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes myvolume-quick-read<br></div><div>104: end-volume<br></div><div>105:&nbsp;<br></div><div>106: volume myvolume-md-cache<br></div><div>107:&nbsp;&nbsp;&nbsp;&nbsp; type performance/md-cache<br></div><div>108:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes myvolume-open-behind<br></div><div>109: end-volume<br></div><div>110:&nbsp;<br></div><div>111: volume myvolume<br></div><div>112:&nbsp;&nbsp;&nbsp;&nbsp; type debug/io-stats<br></div><div>113:&nbsp;&nbsp;&nbsp;&nbsp; option log-level INFO<br></div><div>114:&nbsp;&nbsp;&nbsp;&nbsp; option latency-measurement off<br></div><div>115:&nbsp;&nbsp;&nbsp;&nbsp; option count-fop-hits off<br></div><div>116:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes myvolume-md-cache<br></div><div>117: end-volume<br></div><div>118:&nbsp;<br></div><div>119: volume meta-autoload<br></div><div>120:&nbsp;&nbsp;&nbsp;&nbsp; type meta<br></div><div>121:&nbsp;&nbsp;&nbsp;&nbsp; subvolumes myvolume<br></div><div>122: end-volume<br></div><div>123:&nbsp;<br></div><div>+------------------------------------------------------------------------------+<br></div><div>[2018-02-13 08:16:13.949813] I [MSGID: 114057] [client-handshake.c:1451:select_server_supported_programs] 0-myvolume-client-1: Using Program GlusterFS 3.3, Num (1298437), Version (330)<br></div><div>[2018-02-13 08:16:13.950686] I [MSGID: 114057] [client-handshake.c:1451:select_server_supported_programs] 0-myvolume-client-2: Using Program GlusterFS 3.3, Num (1298437), Version (330)<br></div><div>[2018-02-13 08:16:13.950698] I [MSGID: 114046] [client-handshake.c:1216:client_setvolume_cbk] 0-myvolume-client-1: Connected to myvolume-client-1, attached to remote volume '/data/myvolume/brick'.<br></div><div>[2018-02-13 08:16:13.950759] I [MSGID: 114047] [client-handshake.c:1227:client_setvolume_cbk] 0-myvolume-client-1: Server and Client lk-version numbers are not same, reopening the fds<br></div><div>[2018-02-13 08:16:13.951009] I [MSGID: 114035] [client-handshake.c:202:client_set_lk_version_cbk] 0-myvolume-client-1: Server lk version = 1<br></div><div>[2018-02-13 08:16:13.951320] I [MSGID: 114046] [client-handshake.c:1216:client_setvolume_cbk] 0-myvolume-client-2: Connected to myvolume-client-2, attached to remote volume '/srv/glusterfs/myvolume/brick'.<br></div><div>[2018-02-13 08:16:13.951348] I [MSGID: 114047] [client-handshake.c:1227:client_setvolume_cbk] 0-myvolume-client-2: Server and Client lk-version numbers are not same, reopening the fds<br></div><div>[2018-02-13 08:16:13.952626] I [MSGID: 114035] [client-handshake.c:202:client_set_lk_version_cbk] 0-myvolume-client-2: Server lk version = 1<br></div><div>[2018-02-13 08:16:13.952704] I [fuse-bridge.c:4138:fuse_init] 0-glusterfs-fuse: FUSE inited with protocol versions: glusterfs 7.24 kernel 7.23<br></div><div>[2018-02-13 08:16:13.952742] I [fuse-bridge.c:4823:fuse_graph_sync] 0-fuse: switched to graph 0<br></div><div>[2018-02-13 08:16:13.954337] I [MSGID: 108031] [afr-common.c:2357:afr_local_discovery_cbk] 0-myvolume-replicate-0: selecting local read_child myvolume-client-0<br></div><div>[2018-02-13 08:16:14.020681] I [fuse-bridge.c:5081:fuse_thread_proc] 0-fuse: unmounting /var/run/gluster/myvolume_quota_list/<br></div><div>[2018-02-13 08:16:14.020981] W [glusterfsd.c:1360:cleanup_and_exit] (--&gt;/lib/x86_64-linux-gnu/libpthread.so.0(+0x8064) [0x7f92aaeef064] --&gt;/usr/sbin/glusterfs(glusterfs_sigwaiter+0xe5) [0x55d8ddb85f75] --&gt;/usr/sbin/glusterfs(cleanup_and_exit+0x57) [0x55d8ddb85d97] ) 0-: received signum (15), shutting down<br></div><div>[2018-02-13 08:16:14.021017] I [fuse-bridge.c:5804:fini] 0-fuse: Unmounting '/var/run/gluster/myvolume_quota_list/'.<br></div><div><br></div><div><br></div><div>*** /var/log/glusterfs/quotad.log ***<br></div><div><br></div><div>[2018-02-13 08:16:14.023519] W [MSGID: 108027] [afr-common.c:2718:afr_discover_done] 0-myvolume-replicate-0: no read subvols for (null)<br></div><div>[2018-02-13 08:16:14.064410] W [dict.c:599:dict_unref] (--&gt;/usr/lib/x86_64-linux-gnu/glusterfs/3.10.7/xlator/features/quotad.so(+0x1f3d) [0x7f63153e7f3d] --&gt;/usr/lib/x86_64-linux-gnu/glusterfs/3.10.7/xlator/features/quotad.so(+0x2d72) [0x7f63153e8d72] --&gt;/usr/lib/x86_64-linux-gnu/libglusterfs.so.0(dict_unref+0xc0) [0x7f631b9bd870] ) 0-dict: dict is NULL [Invalid argument]<br></div><div>[2018-02-13 08:16:14.074683] W [dict.c:599:dict_unref] (--&gt;/usr/lib/x86_64-linux-gnu/glusterfs/3.10.7/xlator/features/quotad.so(+0x1f3d) [0x7f63153e7f3d] --&gt;/usr/lib/x86_64-linux-gnu/glusterfs/3.10.7/xlator/features/quotad.so(+0x2d72) [0x7f63153e8d72] --&gt;/usr/lib/x86_64-linux-gnu/libglusterfs.so.0(dict_unref+0xc0) [0x7f631b9bd870] ) 0-dict: dict is NULL [Invalid argument]<br></div><div>[2018-02-13 08:16:14.082040] W [dict.c:599:dict_unref] (--&gt;/usr/lib/x86_64-linux-gnu/glusterfs/3.10.7/xlator/features/quotad.so(+0x1f3d) [0x7f63153e7f3d] --&gt;/usr/lib/x86_64-linux-gnu/glusterfs/3.10.7/xlator/features/quotad.so(+0x2d72) [0x7f63153e8d72] --&gt;/usr/lib/x86_64-linux-gnu/libglusterfs.so.0(dict_unref+0xc0) [0x7f631b9bd870] ) 0-dict: dict is NULL [Invalid argument]<br></div><div>[2018-02-13 08:16:14.086950] W [dict.c:599:dict_unref] (--&gt;/usr/lib/x86_64-linux-gnu/glusterfs/3.10.7/xlator/features/quotad.so(+0x1f3d) [0x7f63153e7f3d] --&gt;/usr/lib/x86_64-linux-gnu/glusterfs/3.10.7/xlator/features/quotad.so(+0x2d72) [0x7f63153e8d72] --&gt;/usr/lib/x86_64-linux-gnu/libglusterfs.so.0(dict_unref+0xc0) [0x7f631b9bd870] ) 0-dict: dict is NULL [Invalid argument]<br></div><div>[2018-02-13 08:16:14.087939] W [dict.c:599:dict_unref] (--&gt;/usr/lib/x86_64-linux-gnu/glusterfs/3.10.7/xlator/features/quotad.so(+0x1f3d) [0x7f63153e7f3d] --&gt;/usr/lib/x86_64-linux-gnu/glusterfs/3.10.7/xlator/features/quotad.so(+0x2d72) [0x7f63153e8d72] --&gt;/usr/lib/x86_64-linux-gnu/libglusterfs.so.0(dict_unref+0xc0) [0x7f631b9bd870] ) 0-dict: dict is NULL [Invalid argument]<br></div><div>[2018-02-13 08:16:14.089775] W [dict.c:599:dict_unref] (--&gt;/usr/lib/x86_64-linux-gnu/glusterfs/3.10.7/xlator/features/quotad.so(+0x1f3d) [0x7f63153e7f3d] --&gt;/usr/lib/x86_64-linux-gnu/glusterfs/3.10.7/xlator/features/quotad.so(+0x2d72) [0x7f63153e8d72] --&gt;/usr/lib/x86_64-linux-gnu/libglusterfs.so.0(dict_unref+0xc0) [0x7f631b9bd870] ) 0-dict: dict is NULL [Invalid argument]<br></div><div>[2018-02-13 08:16:14.092937] W [dict.c:599:dict_unref] (--&gt;/usr/lib/x86_64-linux-gnu/glusterfs/3.10.7/xlator/features/quotad.so(+0x1f3d) [0x7f63153e7f3d] --&gt;/usr/lib/x86_64-linux-gnu/glusterfs/3.10.7/xlator/features/quotad.so(+0x2d72) [0x7f63153e8d72] --&gt;/usr/lib/x86_64-linux-gnu/libglusterfs.so.0(dict_unref+0xc0) [0x7f631b9bd870] ) 0-dict: dict is NULL [Invalid argument]<br></div><div>The message "W [MSGID: 108027] [afr-common.c:2718:afr_discover_done] 0-myvolume-replicate-0: no read subvols for (null)" repeated 34 times between [2018-02-13 08:16:14.023519] and [2018-02-13 08:17:26.560943]<br></div><div><br></div><div><br></div><div>*** /var/log/glusterfs/cli.log ***<br></div><div><br></div><div>[2018-02-13 08:16:14.064404] E [cli-cmd-volume.c:1674:cli_cmd_quota_handle_list_all] 0-cli: Failed to get quota limits for 3df709ee-641d-46a2-bd61-889583e3033c<br></div><div>[2018-02-13 08:16:14.074693] E [cli-cmd-volume.c:1674:cli_cmd_quota_handle_list_all] 0-cli: Failed to get quota limits for a27818fe-0248-40fe-bb23-d43d61010478<br></div><div>[2018-02-13 08:16:14.082067] E [cli-cmd-volume.c:1674:cli_cmd_quota_handle_list_all] 0-cli: Failed to get quota limits for daf97388-bcec-4cc0-a8ef-5b93f05b30f6<br></div><div>[2018-02-13 08:16:14.086929] E [cli-cmd-volume.c:1674:cli_cmd_quota_handle_list_all] 0-cli: Failed to get quota limits for 3c768b36-2625-4509-87ef-fe5214cb9b01<br></div><div>[2018-02-13 08:16:14.087905] E [cli-cmd-volume.c:1674:cli_cmd_quota_handle_list_all] 0-cli: Failed to get quota limits for f8cf47d4-4f54-43c5-ab0d-75b45b4677a3<br></div><div>[2018-02-13 08:16:14.089788] E [cli-cmd-volume.c:1674:cli_cmd_quota_handle_list_all] 0-cli: Failed to get quota limits for b4c81a39-2152-45c5-95d3-b796d88226fe<br></div><div>[2018-02-13 08:16:14.092919] E [cli-cmd-volume.c:1674:cli_cmd_quota_handle_list_all] 0-cli: Failed to get quota limits for 16ac4cde-a5d4-451f-adcc-422a542fea24<br></div><div>[2018-02-13 08:16:14.092980] I [input.c:31:cli_batch] 0-: Exiting with: 0<br></div><div><br></div><div><br></div><div>*** /var/log/glusterfs/bricks/data-myvolume-brick.log ***<br></div><div><br></div><div>[2018-02-13 08:16:13.948065] I [addr.c:182:gf_auth] 0-/data/myvolume/brick: allowed = "*", received addr = "127.0.0.1"<br></div><div>[2018-02-13 08:16:13.948105] I [login.c:76:gf_auth] 0-auth/login: allowed user names: bea3e634-e174-4bb3-a1d6-25b09d03b536<br></div><div>[2018-02-13 08:16:13.948125] I [MSGID: 115029] [server-handshake.c:695:server_setvolume] 0-myvolume-server: accepted client from gfs1a-14348-2018/02/13-08:16:09:933625-myvolume-client-0-0-0 (version: 3.10.7)<br></div><div>[2018-02-13 08:16:14.022257] I [MSGID: 115036] [server.c:559:server_rpc_notify] 0-myvolume-server: disconnecting connection from gfs1a-14348-2018/02/13-08:16:09:933625-myvolume-client-0-0-0<br></div><div>[2018-02-13 08:16:14.022465] I [MSGID: 101055] [client_t.c:436:gf_client_unref] 0-myvolume-server: Shutting down connection gfs1a-14348-2018/02/13-08:16:09:933625-myvolume-client-0-0-0<br></div><div><br></div><div><br></div><div><br></div><div>-------- Original Message --------<br></div><div> On February 13, 2018 12:47 AM, Hari Gowtham &lt;hgowtham@redhat.com&gt; wrote:<br></div><div> <br></div><blockquote type="cite" class="protonmail_quote"><div dir="auto"><div>Hi,<br></div><div><br></div><div>Can you provide more information like, the volume configuration,  quota.conf file and the log files.<br></div><div><br></div><div>On Sat, Feb 10, 2018 at 1:05 AM, mabi &lt;<a href="mailto:mabi@protonmail.ch">mabi@protonmail.ch</a>&gt; wrote:<br></div><div>&gt; Hello,<br></div><div>&gt;<br></div><div>&gt; I am running GlusterFS 3.10.7 and just noticed by doing a "gluster volume quota &lt;volname&gt; list" that my quotas on that volume are broken. The command returns no output and no errors but by looking in /var/log/glusterfs.cli I found the following errors:<br></div><div>&gt;<br></div><div>&gt; [2018-02-09 19:31:24.242324] E [cli-cmd-volume.c:1674:cli_cmd_quota_handle_list_all] 0-cli: Failed to get quota limits for 3df709ee-641d-46a2-bd61-889583e3033c<br></div><div>&gt; [2018-02-09 19:31:24.249790] E [cli-cmd-volume.c:1674:cli_cmd_quota_handle_list_all] 0-cli: Failed to get quota limits for a27818fe-0248-40fe-bb23-d43d61010478<br></div><div>&gt; [2018-02-09 19:31:24.252378] E [cli-cmd-volume.c:1674:cli_cmd_quota_handle_list_all] 0-cli: Failed to get quota limits for daf97388-bcec-4cc0-a8ef-5b93f05b30f6<br></div><div>&gt; [2018-02-09 19:31:24.256775] E [cli-cmd-volume.c:1674:cli_cmd_quota_handle_list_all] 0-cli: Failed to get quota limits for 3c768b36-2625-4509-87ef-fe5214cb9b01<br></div><div>&gt; [2018-02-09 19:31:24.257434] E [cli-cmd-volume.c:1674:cli_cmd_quota_handle_list_all] 0-cli: Failed to get quota limits for f8cf47d4-4f54-43c5-ab0d-75b45b4677a3<br></div><div>&gt; [2018-02-09 19:31:24.259126] E [cli-cmd-volume.c:1674:cli_cmd_quota_handle_list_all] 0-cli: Failed to get quota limits for b4c81a39-2152-45c5-95d3-b796d88226fe<br></div><div>&gt; [2018-02-09 19:31:24.261664] E [cli-cmd-volume.c:1674:cli_cmd_quota_handle_list_all] 0-cli: Failed to get quota limits for 16ac4cde-a5d4-451f-adcc-422a542fea24<br></div><div>&gt; [2018-02-09 19:31:24.261719] I [input.c:31:cli_batch] 0-: Exiting with: 0<br></div><div>&gt;<br></div><div>&gt; How can I fix my quota on that volume again? I had around 30 quotas set on different directories of that volume.<br></div><div>&gt;<br></div><div>&gt; Thanks in advance.<br></div><div>&gt;<br></div><div>&gt; Regards,<br></div><div>&gt; M.<br></div><div>&gt; _______________________________________________<br></div><div>&gt; Gluster-users mailing list<br></div><div>&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br></div><div>&gt; <a href="http://lists.gluster.org/mailman/listinfo/gluster-users">http://lists.gluster.org/mailman/listinfo/gluster-users</a><br></div><div><br></div><div><br></div><div><br></div><div>-- <br></div><div>Regards,<br></div><div>Hari Gowtham.<br></div></div></blockquote><div><br></div>