<div dir="auto">Thank you, Strahil -<div dir="auto"> I was pointed to --mode=script option that works perfectly for me.</div><div dir="auto"><br></div><div dir="auto">As for snapshots - am spoiled with ZFS that has much better reporting and tools to work with snapshots. Will do some internal monitoring and checks around snapshots. Was hoping am just missing something.</div><div dir="auto"><br></div><div dir="auto">Thanks,</div><div dir="auto"><br></div><div dir="auto">Fil</div><div dir="auto"><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Jun 27, 2019, 1:53 AM Strahil &lt;<a href="mailto:hunter86_bg@yahoo.com">hunter86_bg@yahoo.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><p dir="ltr">If it expects a single word like &#39;y&#39; or &#39;yes&#39; , then you can try:<br>
echo &#39;yes&#39; | gluster snapshot delete  $(/my/script/to/find/oldest/snapshot)</p>
<p dir="ltr">Of course, you should put some logic in order to find the oldest snapshot, bit that won&#39;t be hard as date &amp; time of creation should be in the name.</p>
<p dir="ltr">About the situation with the LVM, it is expected that the user takes care of that, as thin LVs can be overcommitted.</p>
<p dir="ltr">For example my arbiter has 20 GB thin LV pool and I have 4 20GB LVs inside that pool.<br>
As long as I don&#39;t exhaust the pool&#39;s storage - I&#39;m fine. </p>
<p dir="ltr">You shouldb&#39;t expect that LVM will play the monitoring role here - either put some kind of monitoring, or create your own solution to monitor that fact.</p>
<p dir="ltr">Best Regards,<br>
Strahil Nikolov</p>
<div class="m_-2065473170333708137quote">On Jun 26, 2019 15:41, Dmitry Filonov &lt;<a href="mailto:filonov@hkl.hms.harvard.edu" target="_blank" rel="noreferrer">filonov@hkl.hms.harvard.edu</a>&gt; wrote:<br type="attribution"><blockquote class="m_-2065473170333708137quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>Hi, <br></div><div> am really new to gluster and have couple question that I hope will be really easy to answer. Just couldn&#39;t find anything on that myself. <br></div><div><br></div><div>I did set up replica 3 gluster over 3 nodes with 2TB SSD in each node. <br></div><div>To have snapshot functionality I have created thin pool of the size of VG (1.82TB) and then 1.75TB thin LVM inside on each of the bricks. <br></div><div>It worked just fine until I scheduled creating hourly and daily snapshots on that gluster volume. In less than 2 days my thin volume got full and crashed. <br></div><div>Not refused creating new snapshots, but just died as LVM couldn&#39;t perform any operations there anymore. <br></div><div>So my first question is how to prevent this from happening. I could create smaller thin LVM, but I still have no control how much space I would need for snapshots. I was hoping to see some warnings and errors while creeating snapshots, but not failed LVM/Gluster. <br><br></div><div>The second question is related but not that important. Is there a way to schedule snapshot removal in cron? gluster snapshot delete requires interactive confirmation and I don&#39;t see any flag to auto-confirm snapshot removal. <br></div><div><br></div><div>Thank you, <br></div><div><br></div><div>Fil<br></div><div><div><div dir="ltr"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><br></div><div dir="ltr">--</div><div dir="ltr">Dmitry Filonov<div>Linux Administrator</div><div>SBGrid Core | <span style="font-size:12.8px">Harvard Medical School</span></div><div>250 Longwood Ave, SGM-114</div><div>Boston, MA 02115</div></div></div></div></div></div></div></div></div></div></div></div></div></div>
</blockquote></div></blockquote></div>