<div dir="auto">Hi Strahil,<div dir="auto"><br></div><div dir="auto">Finally i can add new brick and removed the old one, now i have enough storage capacity :)</div><div dir="auto"><br></div><div dir="auto">Thank you for your direction Strahil, Happy holiday!</div><div dir="auto"><br></div><div dir="auto"><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Dec 26, 2020, 00:40 Strahil Nikolov &lt;<a href="mailto:hunter86_bg@yahoo.com">hunter86_bg@yahoo.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Bambang,<br>
<br>
&gt; /dev/sdc1 /usr/local/mariadb/columnstore/gluster2 xfs defaults 1 2 (<br>
&gt; add to /etc/fstab)<br>
Add &#39;noatime&#39; or &#39;relatime&#39; in order to reduce additional I/O that is<br>
used to update access time for the files on the bricks themselves.<br>
Also, you can use &#39;inode64&#39; as a mount option.<br>
<br>
&gt; command for dbroot1 volume<br>
&gt; gluster volume add-brick dbroot1<br>
&gt; 10.1.1.60:/usr/local/mariadb/columnstore/gluster2/brick3<br>
&gt; gluster volume add-brick dbroot1<br>
&gt; 10.1.1.61:/usr/local/mariadb/columnstore/gluster2/brick3<br>
You need to add the bricks in replica set (which means &#39;replica 2&#39; -&gt; 2<br>
bricks at a time).<br>
So it should be like:<br>
gluster volume add-brick dbroot1<br>
10.1.1.60:/usr/local/mariadb/columnstore/gluster2/brick3<br>
10.1.1.61:/usr/local/mariadb/columnstore/gluster2/brick3<br>
<br>
&gt; gluster volume status dbroot1 &lt;to check status&gt;<br>
&gt; gluster volume remove-brick dbroot1<br>
&gt; 10.1.1.60:/usr/local/mariadb/columnstore/gluster1/brick1 start<br>
&gt; gluster volume remove-brick dbroot1<br>
&gt; 10.1.1.61:/usr/local/mariadb/columnstore/gluster1/brick1 start<br>
Removal of bricks is also done in replica sets (which means &#39;replica 2&#39;<br>
-&gt; 2 bricks at a time).<br>
So it should be:<br>
gluster volume remove-brick dbroot1<br>
10.1.1.60:/usr/local/mariadb/columnstore/gluster1/brick1<br>
10.1.1.61:/usr/local/mariadb/columnstore/gluster1/brick1 start<br>
<br>
&gt; gluster volume remove-brick dbroot1<br>
&gt; 10.1.1.60:/usr/local/mariadb/columnstore/gluster1/brick1 statusĀ  &lt;to<br>
&gt; check status&gt;<br>
&gt; gluster volume remove-brick dbroot1<br>
&gt; 10.1.1.61:/usr/local/mariadb/columnstore/gluster1/brick1 statusĀ  &lt;to<br>
&gt; check status&gt;<br>
Status should be checked with the same command used for start:<br>
gluster volume remove-brick dbroot1<br>
10.1.1.60:/usr/local/mariadb/columnstore/gluster1/brick1<br>
10.1.1.61:/usr/local/mariadb/columnstore/gluster1/brick1 status<br>
<br>
&gt; gluster volume remove-brick dbroot1<br>
&gt; 10.1.1.60:/usr/local/mariadb/columnstore/gluster1/brick1 commit<br>
&gt; gluster volume remove-brick dbroot1<br>
&gt; 10.1.1.60:/usr/local/mariadb/columnstore/gluster1/brick1 commit<br>
Same for commit:<br>
gluster volume remove-brick dbroot1<br>
10.1.1.60:/usr/local/mariadb/columnstore/gluster1/brick1<br>
10.1.1.61:/usr/local/mariadb/columnstore/gluster1/brick1 commit<br>
&gt; <br>
<br>
Repeat for dbroot2 just like for dbroot1.<br>
<br>
&gt; <br>
&gt; The above commands need to execute on one server only? for example in<br>
&gt; 10.1.1.60, or need to execute on both server (10.1.1.60 and<br>
&gt; 10.1.1.61)?<br>
Yes, any node in the cluster.<br>
<br>
P.S.: If you which , you can leave the old disks and just do a<br>
rebalance :)<br>
<br>
Happy hollidays to all!<br>
<br>
Best Regards,<br>
Strahil Nikolov<br>
<br>
</blockquote></div>