<div dir="ltr"><br><br><div class="gmail_quote"><div dir="ltr">On Fri, Aug 31, 2018 at 1:18 PM Hu Bert &lt;<a href="mailto:revirii@googlemail.com">revirii@googlemail.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Pranith,<br>
<br>
i just wanted to ask if you were able to get any feedback from your<br>
colleagues :-)<br></blockquote><div><br></div><div>Sorry, I didn&#39;t get a chance to. I am working on a customer issue which is taking away cycles from any other work. Let me get back to you once I get time this week.<br></div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
btw.: we migrated some stuff (static resources, small files) to a nfs<br>
server that we actually wanted to replace by glusterfs. Load and cpu<br>
usage has gone down a bit, but still is asymmetric on the 3 gluster<br>
servers.<br>
<br>
<br>
2018-08-28 9:24 GMT+02:00 Hu Bert &lt;<a href="mailto:revirii@googlemail.com" target="_blank">revirii@googlemail.com</a>&gt;:<br>
&gt; Hm, i noticed that in the shared.log (volume log file) on gluster11<br>
&gt; and gluster12 (but not on gluster13) i now see these warnings:<br>
&gt;<br>
&gt; [2018-08-28 07:18:57.224367] W [MSGID: 109011]<br>
&gt; [dht-layout.c:186:dht_layout_search] 0-shared-dht: no subvolume for<br>
&gt; hash (value) = 3054593291<br>
&gt; [2018-08-28 07:19:17.733625] W [MSGID: 109011]<br>
&gt; [dht-layout.c:186:dht_layout_search] 0-shared-dht: no subvolume for<br>
&gt; hash (value) = 2595205890<br>
&gt; [2018-08-28 07:19:27.950355] W [MSGID: 109011]<br>
&gt; [dht-layout.c:186:dht_layout_search] 0-shared-dht: no subvolume for<br>
&gt; hash (value) = 3105728076<br>
&gt; [2018-08-28 07:19:42.519010] W [MSGID: 109011]<br>
&gt; [dht-layout.c:186:dht_layout_search] 0-shared-dht: no subvolume for<br>
&gt; hash (value) = 3740415196<br>
&gt; [2018-08-28 07:19:48.194774] W [MSGID: 109011]<br>
&gt; [dht-layout.c:186:dht_layout_search] 0-shared-dht: no subvolume for<br>
&gt; hash (value) = 2922795043<br>
&gt; [2018-08-28 07:19:52.506135] W [MSGID: 109011]<br>
&gt; [dht-layout.c:186:dht_layout_search] 0-shared-dht: no subvolume for<br>
&gt; hash (value) = 2841655539<br>
&gt; [2018-08-28 07:19:55.466352] W [MSGID: 109011]<br>
&gt; [dht-layout.c:186:dht_layout_search] 0-shared-dht: no subvolume for<br>
&gt; hash (value) = 3049465001<br>
&gt;<br>
&gt; Don&#39;t know if that could be related.<br>
&gt;<br>
&gt;<br>
&gt; 2018-08-28 8:54 GMT+02:00 Hu Bert &lt;<a href="mailto:revirii@googlemail.com" target="_blank">revirii@googlemail.com</a>&gt;:<br>
&gt;&gt; a little update after about 2 hours of uptime: still/again high cpu<br>
&gt;&gt; usage by one brick processes. server load &gt;30.<br>
&gt;&gt;<br>
&gt;&gt; gluster11: high cpu; brick /gluster/bricksdd1/; no hdd exchange so far<br>
&gt;&gt; gluster12: normal cpu; brick /gluster/bricksdd1_new/; hdd change /dev/sdd<br>
&gt;&gt; gluster13: high cpu; brick /gluster/bricksdd1_new/; hdd change /dev/sdd<br>
&gt;&gt;<br>
&gt;&gt; The process for brick bricksdd1 consumes almost all 12 cores.<br>
&gt;&gt; Interestingly there are more threads for the bricksdd1 process than<br>
&gt;&gt; for the other bricks. Counted with &quot;ps huH p &lt;PID_OF_U_PROCESS&gt; | wc<br>
&gt;&gt; -l&quot;<br>
&gt;&gt;<br>
&gt;&gt; gluster11:<br>
&gt;&gt; bricksda1 59 threads, bricksdb1 65 threads, bricksdc1 68 threads,<br>
&gt;&gt; bricksdd1 85 threads<br>
&gt;&gt; gluster12:<br>
&gt;&gt; bricksda1 65 threads, bricksdb1 60 threads, bricksdc1 61 threads,<br>
&gt;&gt; bricksdd1_new 58 threads<br>
&gt;&gt; gluster13:<br>
&gt;&gt; bricksda1 61 threads, bricksdb1 60 threads, bricksdc1 61 threads,<br>
&gt;&gt; bricksdd1_new 82 threads<br>
&gt;&gt;<br>
&gt;&gt; Don&#39;t know if that could be relevant.<br>
&gt;&gt;<br>
&gt;&gt; 2018-08-28 7:04 GMT+02:00 Hu Bert &lt;<a href="mailto:revirii@googlemail.com" target="_blank">revirii@googlemail.com</a>&gt;:<br>
&gt;&gt;&gt; Good Morning,<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; today i update + rebooted all gluster servers, kernel update to<br>
&gt;&gt;&gt; 4.9.0-8 and gluster to 3.12.13. Reboots went fine, but on one of the<br>
&gt;&gt;&gt; gluster servers (gluster13) one of the bricks did come up at the<br>
&gt;&gt;&gt; beginning but then lost connection.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; OK:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Status of volume: shared<br>
&gt;&gt;&gt; Gluster process                             TCP Port  RDMA Port  Online  Pid<br>
&gt;&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt;&gt; [...]<br>
&gt;&gt;&gt; Brick gluster11:/gluster/bricksdd1/shared             49155     0<br>
&gt;&gt;&gt;     Y       2506<br>
&gt;&gt;&gt; Brick gluster12:/gluster/bricksdd1_new/shared    49155     0<br>
&gt;&gt;&gt; Y       2097<br>
&gt;&gt;&gt; Brick gluster13:/gluster/bricksdd1_new/shared    49155     0<br>
&gt;&gt;&gt; Y       2136<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Lost connection:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Brick gluster11:/gluster/bricksdd1/shared              49155     0<br>
&gt;&gt;&gt;      Y       2506<br>
&gt;&gt;&gt; Brick gluster12:/gluster/bricksdd1_new/shared     49155     0<br>
&gt;&gt;&gt; Y       2097<br>
&gt;&gt;&gt; Brick gluster13:/gluster/bricksdd1_new/shared     N/A       N/A<br>
&gt;&gt;&gt; N       N/A<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; gluster volume heal shared info:<br>
&gt;&gt;&gt; Brick gluster13:/gluster/bricksdd1_new/shared<br>
&gt;&gt;&gt; Status: Transport endpoint is not connected<br>
&gt;&gt;&gt; Number of entries: -<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; reboot was at 06:15:39; brick then worked for a short period, but then<br>
&gt;&gt;&gt; somehow disconnected.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; from gluster13:/var/log/glusterfs/glusterd.log:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; [2018-08-28 04:27:36.944608] I [MSGID: 106005]<br>
&gt;&gt;&gt; [glusterd-handler.c:6071:__glusterd_brick_rpc_notify] 0-management:<br>
&gt;&gt;&gt; Brick gluster13:/gluster/bricksdd1_new/shared has disconnected from<br>
&gt;&gt;&gt; glusterd.<br>
&gt;&gt;&gt; [2018-08-28 04:28:57.869666] I<br>
&gt;&gt;&gt; [glusterd-utils.c:6056:glusterd_brick_start] 0-management: starting a<br>
&gt;&gt;&gt; fresh brick process for brick /gluster/bricksdd1_new/shared<br>
&gt;&gt;&gt; [2018-08-28 04:35:20.732666] I [MSGID: 106143]<br>
&gt;&gt;&gt; [glusterd-pmap.c:295:pmap_registry_bind] 0-pmap: adding brick<br>
&gt;&gt;&gt; /gluster/bricksdd1_new/shared on port 49157<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; After &#39;gluster volume start shared force&#39; (then with new port 49157):<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Brick gluster11:/gluster/bricksdd1/shared               49155     0<br>
&gt;&gt;&gt;       Y       2506<br>
&gt;&gt;&gt; Brick gluster12:/gluster/bricksdd1_new/shared      49155     0<br>
&gt;&gt;&gt;  Y       2097<br>
&gt;&gt;&gt; Brick gluster13:/gluster/bricksdd1_new/shared      49157     0<br>
&gt;&gt;&gt;  Y       3994<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; from /var/log/syslog:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Aug 28 06:27:36 gluster13 gluster-bricksdd1_new-shared[2136]: pending frames:<br>
&gt;&gt;&gt; Aug 28 06:27:36 gluster13 gluster-bricksdd1_new-shared[2136]: frame :<br>
&gt;&gt;&gt; type(0) op(0)<br>
&gt;&gt;&gt; Aug 28 06:27:36 gluster13 gluster-bricksdd1_new-shared[2136]: frame :<br>
&gt;&gt;&gt; type(0) op(0)<br>
&gt;&gt;&gt; Aug 28 06:27:36 gluster13 gluster-bricksdd1_new-shared[2136]:<br>
&gt;&gt;&gt; patchset: git://<a href="http://git.gluster.org/glusterfs.git" rel="noreferrer" target="_blank">git.gluster.org/glusterfs.git</a><br>
&gt;&gt;&gt; Aug 28 06:27:36 gluster13 gluster-bricksdd1_new-shared[2136]: signal<br>
&gt;&gt;&gt; received: 11<br>
&gt;&gt;&gt; Aug 28 06:27:36 gluster13 gluster-bricksdd1_new-shared[2136]: time of crash:<br>
&gt;&gt;&gt; Aug 28 06:27:36 gluster13 gluster-bricksdd1_new-shared[2136]:<br>
&gt;&gt;&gt; 2018-08-28 04:27:36<br>
&gt;&gt;&gt; Aug 28 06:27:36 gluster13 gluster-bricksdd1_new-shared[2136]:<br>
&gt;&gt;&gt; configuration details:<br>
&gt;&gt;&gt; Aug 28 06:27:36 gluster13 gluster-bricksdd1_new-shared[2136]: argp 1<br>
&gt;&gt;&gt; Aug 28 06:27:36 gluster13 gluster-bricksdd1_new-shared[2136]: backtrace 1<br>
&gt;&gt;&gt; Aug 28 06:27:36 gluster13 gluster-bricksdd1_new-shared[2136]: dlfcn 1<br>
&gt;&gt;&gt; Aug 28 06:27:36 gluster13 gluster-bricksdd1_new-shared[2136]: libpthread 1<br>
&gt;&gt;&gt; Aug 28 06:27:36 gluster13 gluster-bricksdd1_new-shared[2136]: llistxattr 1<br>
&gt;&gt;&gt; Aug 28 06:27:36 gluster13 gluster-bricksdd1_new-shared[2136]: setfsid 1<br>
&gt;&gt;&gt; Aug 28 06:27:36 gluster13 gluster-bricksdd1_new-shared[2136]: spinlock 1<br>
&gt;&gt;&gt; Aug 28 06:27:36 gluster13 gluster-bricksdd1_new-shared[2136]: epoll.h 1<br>
&gt;&gt;&gt; Aug 28 06:27:36 gluster13 gluster-bricksdd1_new-shared[2136]: xattr.h 1<br>
&gt;&gt;&gt; Aug 28 06:27:36 gluster13 gluster-bricksdd1_new-shared[2136]: st_atim.tv_nsec 1<br>
&gt;&gt;&gt; Aug 28 06:27:36 gluster13 gluster-bricksdd1_new-shared[2136]:<br>
&gt;&gt;&gt; package-string: glusterfs 3.12.13<br>
&gt;&gt;&gt; Aug 28 06:27:36 gluster13 gluster-bricksdd1_new-shared[2136]: ---------<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; There are some errors+warnings in the shared.log (volume logfile), but<br>
&gt;&gt;&gt; no error message telling me why<br>
&gt;&gt;&gt; gluster13:/gluster/bricksdd1_new/shared has disconnected.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Well... at the moment load is ok, all 3 servers at about 15 (but i<br>
&gt;&gt;&gt; think it will go up when more users will cause more traffic -&gt; more<br>
&gt;&gt;&gt; work on servers), &#39;gluster volume heal shared info&#39; shows no entries,<br>
&gt;&gt;&gt; status:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Status of volume: shared<br>
&gt;&gt;&gt; Gluster process                             TCP Port  RDMA Port  Online  Pid<br>
&gt;&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt;&gt; Brick gluster11:/gluster/bricksda1/shared   49152     0          Y       2482<br>
&gt;&gt;&gt; Brick gluster12:/gluster/bricksda1/shared   49152     0          Y       2088<br>
&gt;&gt;&gt; Brick gluster13:/gluster/bricksda1/shared   49152     0          Y       2115<br>
&gt;&gt;&gt; Brick gluster11:/gluster/bricksdb1/shared   49153     0          Y       2489<br>
&gt;&gt;&gt; Brick gluster12:/gluster/bricksdb1/shared   49153     0          Y       2094<br>
&gt;&gt;&gt; Brick gluster13:/gluster/bricksdb1/shared   49153     0          Y       2116<br>
&gt;&gt;&gt; Brick gluster11:/gluster/bricksdc1/shared   49154     0          Y       2497<br>
&gt;&gt;&gt; Brick gluster12:/gluster/bricksdc1/shared   49154     0          Y       2095<br>
&gt;&gt;&gt; Brick gluster13:/gluster/bricksdc1/shared   49154     0          Y       2127<br>
&gt;&gt;&gt; Brick gluster11:/gluster/bricksdd1/shared   49155     0          Y       2506<br>
&gt;&gt;&gt; Brick gluster12:/gluster/bricksdd1_new/shared     49155     0<br>
&gt;&gt;&gt; Y       2097<br>
&gt;&gt;&gt; Brick gluster13:/gluster/bricksdd1_new/shared     49157     0<br>
&gt;&gt;&gt; Y       3994<br>
&gt;&gt;&gt; Self-heal Daemon on localhost               N/A       N/A        Y       4868<br>
&gt;&gt;&gt; Self-heal Daemon on gluster12               N/A       N/A        Y       3813<br>
&gt;&gt;&gt; Self-heal Daemon on gluster11               N/A       N/A        Y       5762<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Task Status of Volume shared<br>
&gt;&gt;&gt; ------------------------------------------------------------------------------<br>
&gt;&gt;&gt; There are no active volume tasks<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Very strange. Thanks for reading if you&#39;ve reached this line :-)<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; 2018-08-23 13:58 GMT+02:00 Pranith Kumar Karampuri &lt;<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a>&gt;:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; On Wed, Aug 22, 2018 at 12:01 PM Hu Bert &lt;<a href="mailto:revirii@googlemail.com" target="_blank">revirii@googlemail.com</a>&gt; wrote:<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Just an addition: in general there are no log messages in<br>
&gt;&gt;&gt;&gt;&gt; /var/log/glusterfs/ (if you don&#39;t all &#39;gluster volume ...&#39;), but on<br>
&gt;&gt;&gt;&gt;&gt; the node with the lowest load i see in cli.log.1:<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; [2018-08-22 06:20:43.291055] I [socket.c:2474:socket_event_handler]<br>
&gt;&gt;&gt;&gt;&gt; 0-transport: EPOLLERR - disconnecting now<br>
&gt;&gt;&gt;&gt;&gt; [2018-08-22 06:20:46.291327] I [socket.c:2474:socket_event_handler]<br>
&gt;&gt;&gt;&gt;&gt; 0-transport: EPOLLERR - disconnecting now<br>
&gt;&gt;&gt;&gt;&gt; [2018-08-22 06:20:49.291575] I [socket.c:2474:socket_event_handler]<br>
&gt;&gt;&gt;&gt;&gt; 0-transport: EPOLLERR - disconnecting now<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; every 3 seconds. Looks like this bug:<br>
&gt;&gt;&gt;&gt;&gt; <a href="https://bugzilla.redhat.com/show_bug.cgi?id=1484885" rel="noreferrer" target="_blank">https://bugzilla.redhat.com/show_bug.cgi?id=1484885</a> - but that shoud<br>
&gt;&gt;&gt;&gt;&gt; have been fixed in the 3.12.x release, and network is fine.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; +Milind Changire<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; In cli.log there are only these entries:<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; [2018-08-22 06:19:23.428520] I [cli.c:765:main] 0-cli: Started running<br>
&gt;&gt;&gt;&gt;&gt; gluster with version 3.12.12<br>
&gt;&gt;&gt;&gt;&gt; [2018-08-22 06:19:23.800895] I [MSGID: 101190]<br>
&gt;&gt;&gt;&gt;&gt; [event-epoll.c:613:event_dispatch_epoll_worker] 0-epoll: Started<br>
&gt;&gt;&gt;&gt;&gt; thread with index 1<br>
&gt;&gt;&gt;&gt;&gt; [2018-08-22 06:19:23.800978] I [socket.c:2474:socket_event_handler]<br>
&gt;&gt;&gt;&gt;&gt; 0-transport: EPOLLERR - disconnecting now<br>
&gt;&gt;&gt;&gt;&gt; [2018-08-22 06:19:23.809366] I [input.c:31:cli_batch] 0-: Exiting with: 0<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Just wondered if this could related anyhow.<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; 2018-08-21 8:17 GMT+02:00 Pranith Kumar Karampuri &lt;<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a>&gt;:<br>
&gt;&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt; On Tue, Aug 21, 2018 at 11:40 AM Hu Bert &lt;<a href="mailto:revirii@googlemail.com" target="_blank">revirii@googlemail.com</a>&gt; wrote:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; Good morning :-)<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; gluster11:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; ls -l /gluster/bricksdd1/shared/.glusterfs/indices/xattrop/<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; total 0<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; ---------- 1 root root 0 Aug 14 06:14<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; xattrop-006b65d8-9e81-4886-b380-89168ea079bd<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; gluster12:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; ls -l /gluster/bricksdd1_new/shared/.glusterfs/indices/xattrop/<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; total 0<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; ---------- 1 root root 0 Jul 17 11:24<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; xattrop-c7c6f765-ce17-4361-95fb-2fd7f31c7b82<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; gluster13:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; ls -l /gluster/bricksdd1_new/shared/.glusterfs/indices/xattrop/<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; total 0<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; ---------- 1 root root 0 Aug 16 07:54<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; xattrop-16b696a0-4214-4999-b277-0917c76c983e<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; And here&#39;s the output of &#39;perf ...&#39; which ran almost a minute - file<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; grew pretty fast to a size of 17 GB and system load went up heavily.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; Had to wait a while until load dropped :-)<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; fyi - load at the moment:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; load gluster11: ~90<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; load gluster12: ~10<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; load gluster13: ~50<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; perf record --call-graph=dwarf -p 7897 -o<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; /tmp/perf.gluster11.bricksdd1.out<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; [ perf record: Woken up 9837 times to write data ]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; Warning:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; Processed 2137218 events and lost 33446 chunks!<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; Check IO/CPU overload!<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; [ perf record: Captured and wrote 16576.374 MB<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; /tmp/perf.gluster11.bricksdd1.out (2047760 samples) ]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; Here&#39;s an excerpt.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.93%     0.00%  glusteriotwr0    [unknown]              [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; 0xffffffffffffffff<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.89%     0.00%  glusteriotwr28   [unknown]              [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; 0xffffffffffffffff<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.86%     0.00%  glusteriotwr15   [unknown]              [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; 0xffffffffffffffff<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.85%     0.00%  glusteriotwr63   [unknown]              [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; 0xffffffffffffffff<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.83%     0.01%  glusteriotwr0    [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; entry_SYSCALL_64_after_swapgs<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.82%     0.00%  glusteriotwr38   [unknown]              [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; 0xffffffffffffffff<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.82%     0.01%  glusteriotwr28   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; entry_SYSCALL_64_after_swapgs<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.82%     0.00%  glusteriotwr0    [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; do_syscall_64<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.81%     0.00%  glusteriotwr28   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; do_syscall_64<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.81%     0.00%  glusteriotwr15   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; entry_SYSCALL_64_after_swapgs<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.81%     0.00%  glusteriotwr36   [unknown]              [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; 0xffffffffffffffff<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.80%     0.00%  glusteriotwr15   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; do_syscall_64<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.78%     0.01%  glusteriotwr63   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; entry_SYSCALL_64_after_swapgs<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.77%     0.00%  glusteriotwr63   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; do_syscall_64<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.75%     0.01%  glusteriotwr38   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; entry_SYSCALL_64_after_swapgs<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.75%     0.00%  glusteriotwr38   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; do_syscall_64<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.74%     0.00%  glusteriotwr17   [unknown]              [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; 0xffffffffffffffff<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.74%     0.00%  glusteriotwr44   [unknown]              [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; 0xffffffffffffffff<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.73%     0.00%  glusteriotwr6    [unknown]              [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; 0xffffffffffffffff<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.73%     0.00%  glusteriotwr37   [unknown]              [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; 0xffffffffffffffff<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.73%     0.01%  glusteriotwr36   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; entry_SYSCALL_64_after_swapgs<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.72%     0.00%  glusteriotwr34   [unknown]              [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; 0xffffffffffffffff<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.72%     0.00%  glusteriotwr36   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; do_syscall_64<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.71%     0.00%  glusteriotwr45   [unknown]              [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; 0xffffffffffffffff<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.70%     0.00%  glusteriotwr7    [unknown]              [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; 0xffffffffffffffff<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.68%     0.00%  glusteriotwr15   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; sys_getdents<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.68%     0.00%  glusteriotwr15   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; filldir<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.68%     0.00%  glusteriotwr15   <a href="http://libc-2.24.so" rel="noreferrer" target="_blank">libc-2.24.so</a>           [.]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; 0xffff80c60db8ef2b<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.68%     0.00%  glusteriotwr15   <a href="http://libc-2.24.so" rel="noreferrer" target="_blank">libc-2.24.so</a>           [.]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; readdir64<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.68%     0.00%  glusteriotwr15   index.so               [.]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; 0xffff80c6192a1888<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.68%     0.00%  glusteriotwr15   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; iterate_dir<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.68%     0.00%  glusteriotwr15   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; ext4_htree_fill_tree<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; +    1.68%     0.00%  glusteriotwr15   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; ext4_readdir<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; Or do you want to download the file /tmp/perf.gluster11.bricksdd1.out<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; and examine it yourself? If so i could send you a link.<br>
&gt;&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt; Thank you! yes a link would be great. I am not as good with kernel side<br>
&gt;&gt;&gt;&gt;&gt; &gt; of<br>
&gt;&gt;&gt;&gt;&gt; &gt; things. So I will have to show this information to someone else who<br>
&gt;&gt;&gt;&gt;&gt; &gt; knows<br>
&gt;&gt;&gt;&gt;&gt; &gt; these things so expect delay in response.<br>
&gt;&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; 2018-08-21 7:13 GMT+02:00 Pranith Kumar Karampuri<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &lt;<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a>&gt;:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt; On Tue, Aug 21, 2018 at 10:13 AM Pranith Kumar Karampuri<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt; &lt;<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a>&gt; wrote:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt; On Mon, Aug 20, 2018 at 3:20 PM Hu Bert &lt;<a href="mailto:revirii@googlemail.com" target="_blank">revirii@googlemail.com</a>&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt; wrote:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; Regarding hardware the machines are identical. Intel Xeon E5-1650<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; v3<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; Hexa-Core; 64 GB DDR4 ECC; Dell PERC H330 8 Port SAS/SATA 12 GBit/s<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; RAID Controller; operating system running on a raid1, then 4 disks<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; (JBOD) as bricks.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; Ok, i ran perf for a few seconds.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; ------------------------<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; perf record --call-graph=dwarf -p 7897 -o<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; /tmp/perf.gluster11.bricksdd1.out<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; ^C[ perf record: Woken up 378 times to write data ]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; Warning:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; Processed 83690 events and lost 96 chunks!<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; Check IO/CPU overload!<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; [ perf record: Captured and wrote 423.087 MB<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; /tmp/perf.gluster11.bricksdd1.out (51744 samples) ]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; ------------------------<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; I copied a couple of lines:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; +    8.10%     0.00%  glusteriotwr22   [unknown]              [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; 0xffffffffffffffff<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; +    8.10%     0.00%  glusteriotwr22   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; iterate_dir<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; +    8.10%     0.00%  glusteriotwr22   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; sys_getdents<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; +    8.10%     0.00%  glusteriotwr22   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; filldir<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; +    8.10%     0.00%  glusteriotwr22   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; do_syscall_64<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; +    8.10%     0.00%  glusteriotwr22   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; entry_SYSCALL_64_after_swapgs<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; +    8.10%     0.00%  glusteriotwr22   <a href="http://libc-2.24.so" rel="noreferrer" target="_blank">libc-2.24.so</a>           [.]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; 0xffff80c60db8ef2b<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; +    8.10%     0.00%  glusteriotwr22   <a href="http://libc-2.24.so" rel="noreferrer" target="_blank">libc-2.24.so</a>           [.]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; readdir64<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; +    8.10%     0.00%  glusteriotwr22   index.so               [.]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; 0xffff80c6192a1888<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; +    8.10%     0.04%  glusteriotwr22   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; ext4_htree_fill_tree<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; +    8.10%     0.00%  glusteriotwr22   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; ext4_readdir<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; +    7.95%     0.12%  glusteriotwr22   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; htree_dirblock_to_tree<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; +    5.78%     0.96%  glusteriotwr22   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; __ext4_read_dirblock<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; +    4.80%     0.02%  glusteriotwr22   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; ext4_bread<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; +    4.78%     0.04%  glusteriotwr22   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; ext4_getblk<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; +    4.72%     0.02%  glusteriotwr22   [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; __getblk_gfp<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; +    4.57%     0.00%  glusteriotwr3    [unknown]              [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; 0xffffffffffffffff<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; +    4.55%     0.00%  glusteriotwr3    [kernel.kallsyms]      [k]<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; do_syscall_64<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; Do you need different or additional information?<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt; This looks like there are lot of readdirs going on which is<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt; different<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt; from<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt; what we observed earlier, how many seconds did you do perf record<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt; for?<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt; Will<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt; it be possible for you to do this for some more time? may be a<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt; minute?<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt; Just<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt; want to be sure that the data actually represents what we are<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt; observing.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt; I found one code path which on lookup does readdirs. Could you give<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt; me<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt; the<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt; output of ls -l &lt;brick-path&gt;/.glusterfs/indices/xattrop on all the<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt; three<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt; bricks? It can probably give a correlation to see if it is indeed the<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt; same<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt; issue or not.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; 2018-08-20 11:20 GMT+02:00 Pranith Kumar Karampuri<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &lt;<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a>&gt;:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; Even the brick which doesn&#39;t have high CPU seems to have same<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; number<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; of<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; lookups, so that&#39;s not it.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; Is there any difference at all between the machines which have<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; high<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; CPU<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; vs<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; low CPU?<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; I think the only other thing I would do is to install perf tools<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; and<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; try to<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; figure out the call-graph which is leading to so much CPU<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; This affects performance of the brick I think, so you may have to<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; do<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; it<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; quickly and for less time.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; perf record --call-graph=dwarf -p   &lt;brick-pid&gt; -o<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; &lt;/path/to/output&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; then<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; perf report -i &lt;/path/to/output/given/in/the/previous/command&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; On Mon, Aug 20, 2018 at 2:40 PM Hu Bert &lt;<a href="mailto:revirii@googlemail.com" target="_blank">revirii@googlemail.com</a>&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; wrote:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; gluster volume heal shared info | grep -i number<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; Number of entries: 0<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; Number of entries: 0<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; Number of entries: 0<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; Number of entries: 0<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; Number of entries: 0<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; Number of entries: 0<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; Number of entries: 0<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; Number of entries: 0<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; Number of entries: 0<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; Number of entries: 0<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; Number of entries: 0<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; Number of entries: 0<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; Looks good to me.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; 2018-08-20 10:51 GMT+02:00 Pranith Kumar Karampuri<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &lt;<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a>&gt;:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; There are a lot of Lookup operations in the system. But I am<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; not<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; able to<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; find why. Could you check the output of<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; # gluster volume heal &lt;volname&gt; info | grep -i number<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; it should print all zeros.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; On Fri, Aug 17, 2018 at 1:49 PM Hu Bert<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; &lt;<a href="mailto:revirii@googlemail.com" target="_blank">revirii@googlemail.com</a>&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; wrote:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; I don&#39;t know what you exactly mean with workload, but the<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; main<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; function of the volume is storing (incl. writing, reading)<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; images<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; (from hundreds of bytes up to 30 MBs, overall ~7TB). The work<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; is<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; done<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; by apache tomcat servers writing to / reading from the<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; volume.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; Besides<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; images there are some text files and binaries that are stored<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; on<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; the<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; volume and get updated regularly (every x hours); we&#39;ll try<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; to<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; migrate<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; the latter ones to local storage asap.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; Interestingly it&#39;s only one process (and its threads) of the<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; same<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; brick on 2 of the gluster servers that consumes the CPU.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; gluster11: bricksdd1; not healed; full CPU<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; gluster12: bricksdd1; got healed; normal CPU<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; gluster13: bricksdd1; got healed; full CPU<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; Besides: performance during heal (e.g. gluster12, bricksdd1)<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; was<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; way<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; better than it is now. I&#39;ve attached 2 pngs showing the<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; differing<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; cpu<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; usage of last week before/after heal.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; 2018-08-17 9:30 GMT+02:00 Pranith Kumar Karampuri<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &lt;<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a>&gt;:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt; There seems to be too many lookup operations compared to<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt; any<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt; other<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt; operations. What is the workload on the volume?<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt; On Fri, Aug 17, 2018 at 12:47 PM Hu Bert<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt; &lt;<a href="mailto:revirii@googlemail.com" target="_blank">revirii@googlemail.com</a>&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt; wrote:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; i hope i did get it right.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; gluster volume profile shared start<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; wait 10 minutes<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; gluster volume profile shared info<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; gluster volume profile shared stop<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; If that&#39;s ok, i&#39;ve attached the output of the info<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; command.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; 2018-08-17 8:31 GMT+02:00 Pranith Kumar Karampuri<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &lt;<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a>&gt;:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Please do volume profile also for around 10 minutes when<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; CPU%<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; is<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; high.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; On Fri, Aug 17, 2018 at 11:56 AM Pranith Kumar Karampuri<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; &lt;<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a>&gt; wrote:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; As per the output, all io-threads are using a lot of<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; CPU.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; It<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; is<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; better<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; to<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; check what the volume profile is to see what is leading<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; to<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; so<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; much<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; work<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; for<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; io-threads. Please follow the documentation at<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; <a href="https://gluster.readthedocs.io/en/latest/Administrator%20Guide/Monitoring%20Workload/" rel="noreferrer" target="_blank">https://gluster.readthedocs.io/en/latest/Administrator%20Guide/Monitoring%20Workload/</a><br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; section: &quot;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; Running GlusterFS Volume Profile Command&quot;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; and attach output of  &quot;gluster volume profile info&quot;,<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; On Fri, Aug 17, 2018 at 11:24 AM Hu Bert<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &lt;<a href="mailto:revirii@googlemail.com" target="_blank">revirii@googlemail.com</a>&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; wrote:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; Good morning,<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; i ran the command during 100% CPU usage and attached<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; the<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; file.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; Hopefully it helps.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; 2018-08-17 7:33 GMT+02:00 Pranith Kumar Karampuri<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &lt;<a href="mailto:pkarampu@redhat.com" target="_blank">pkarampu@redhat.com</a>&gt;:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; Could you do the following on one of the nodes where<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; you<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; are<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; observing<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; high<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; CPU usage and attach that file to this thread? We<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; can<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; find<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; what<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; threads/processes are leading to high usage. Do this<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; for<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; say<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; 10<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; minutes<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; when<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; you see the ~100% CPU.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; top -bHd 5 &gt; /tmp/top.${HOSTNAME}.txt<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; On Wed, Aug 15, 2018 at 2:37 PM Hu Bert<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; &lt;<a href="mailto:revirii@googlemail.com" target="_blank">revirii@googlemail.com</a>&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; wrote:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; Hello again :-)<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; The self heal must have finished as there are no<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; log<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; entries<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; in<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; glustershd.log files anymore. According to munin<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; disk<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; latency<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; (average<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; io wait) has gone down to 100 ms, and disk<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; utilization<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; has<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; gone<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; down<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; to ~60% - both on all servers and hard disks.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; But now system load on 2 servers (which were in the<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; good<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; state)<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; fluctuates between 60 and 100; the server with the<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; formerly<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; failed<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; disk has a load of 20-30.I&#39;ve uploaded some munin<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; graphics of<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; the<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; cpu<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; usage:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; <a href="https://abload.de/img/gluster11_cpu31d3a.png" rel="noreferrer" target="_blank">https://abload.de/img/gluster11_cpu31d3a.png</a><br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; <a href="https://abload.de/img/gluster12_cpu8sem7.png" rel="noreferrer" target="_blank">https://abload.de/img/gluster12_cpu8sem7.png</a><br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; <a href="https://abload.de/img/gluster13_cpud7eni.png" rel="noreferrer" target="_blank">https://abload.de/img/gluster13_cpud7eni.png</a><br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; This can&#39;t be normal. 2 of the servers under heavy<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; load<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; and<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; one<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; not<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; that much. Does anyone have an explanation of this<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; strange<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; behaviour?<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; Thx :-)<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; 2018-08-14 9:37 GMT+02:00 Hu Bert<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &lt;<a href="mailto:revirii@googlemail.com" target="_blank">revirii@googlemail.com</a>&gt;:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; Hi there,<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; well, it seems the heal has finally finished.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; Couldn&#39;t<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; see/find<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; any<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; related log message; is there such a message in a<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; specific<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; log<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; file?<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; But i see the same behaviour when the last heal<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; finished:<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; all<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; CPU<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; cores are consumed by brick processes; not only<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; by<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; the<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; formerly<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; failed<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; bricksdd1, but by all 4 brick processes (and<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; their<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; threads).<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; Load<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; goes<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; up to &gt; 100 on the 2 servers with the not-failed<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; brick,<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; and<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; glustershd.log gets filled with a lot of entries.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; Load<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; on<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; the<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; server<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; with the then failed brick not that high, but<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; still<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; ~60.<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; Is this behaviour normal? Is there some post-heal<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; after<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; a<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; heal<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; has<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; finished?<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; thx in advance :-)<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; --<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; Pranith<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; --<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; Pranith<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; --<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;&gt; &gt; Pranith<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt; --<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;&gt; &gt; Pranith<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; --<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;&gt; &gt; Pranith<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; --<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;&gt; &gt; Pranith<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt; --<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;&gt; Pranith<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt; --<br>
&gt;&gt;&gt;&gt;&gt; &gt;&gt; &gt; Pranith<br>
&gt;&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt;<br>
&gt;&gt;&gt;&gt;&gt; &gt; --<br>
&gt;&gt;&gt;&gt;&gt; &gt; Pranith<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; --<br>
&gt;&gt;&gt;&gt; Pranith<br>
</blockquote></div><br clear="all"><br>-- <br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr">Pranith<br></div></div></div>