<div dir="ltr">Hi,<div><br></div><div>This is the expected behaviour for a distribute volume. Files that hash to a brick that is down will not be created. This is to prevent issues in case the file already exists on that brick.</div><div><br></div><div>To prevent this, please use distribute-replicate volumes.</div><div><br></div><div>Regards,</div><div>Nithya</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, 8 Aug 2019 at 13:17, Nux! &lt;<a href="mailto:nux@li.nux.ro">nux@li.nux.ro</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Sorry, I meant to say distributed, not replicated!<br>
I&#39;m on 6.4 from CentOs7 SIG.<br>
<br>
I was hoping the volume might still be fully usable write-wise, with <br>
files going on the remaining bricks, but it doesn&#39;t seem to be the case.<br>
<br>
---<br>
Sent from the Delta quadrant using Borg technology!<br>
<br>
On 2019-08-08 06:54, Ravishankar N wrote:<br>
&gt; On 07/08/19 9:53 PM, Nux! wrote:<br>
&gt;&gt; Hello,<br>
&gt;&gt; <br>
&gt;&gt; I&#39;m testing a replicated volume with 3 bricks. I&#39;ve killed a brick, <br>
&gt;&gt; but the volume is still mounted and can see the files from the bricks <br>
&gt;&gt; that are still online and can do operations on them.<br>
&gt;&gt; What I cannot do is create new files in the volume, e.g.:<br>
&gt;&gt; <br>
&gt;&gt; dd: failed to open ‘test1000’: Transport endpoint is not connected<br>
&gt;&gt; <br>
&gt;&gt; <br>
&gt;&gt; Is there a way to make this volume continue to work while one of the <br>
&gt;&gt; bricks is offline? There is still space available in the remaining <br>
&gt;&gt; bricks, shouldn&#39;t it try to use it?<br>
&gt; <br>
&gt; If 2 bricks are online and the clients are connected to them, writes<br>
&gt; should work.  Unless the brick that was down was the only good copy,<br>
&gt; i.e. the only one that successfully witnessed all previous writes.<br>
&gt; What version of gluster are you using? Check the mount log for more<br>
&gt; details.<br>
&gt; <br>
&gt;&gt; <br>
&gt;&gt; Regards<br>
&gt;&gt; <br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a></blockquote></div>