<div dir="ltr"><div><div><div><div><div>Status: We have a 3 node gluster cluster (proxmox based)<br></div>- gluster 3.8.12<br></div><div>- Replica 3<br></div>- VM Hosting Only<br></div>- Sharded Storage<br><br></div>Or I should say we *had* a 3 node cluster, one node died today. Possibly I can recover it, in whcih case no issues, we just let it heal itself. For now its running happily on 2 nodes with no data loss - gluster for teh win!<br><br></div>But its looking like I might have to replace the node with a new server in which case I won&#39;t try anything fancy with trying reuse the existing data on the failed node disks, I&#39;d rather let it resync the 3.2TB over the weekend.<br clear="all"><div><div><div><div><div><div><div><br></div><div>In which case what is the best way to replace the old failed node? the new node would have a new hostname and ip.<br><br></div><div>Failed node is vna. Lets call the new node vnd<br></div><div><br></div><div>I&#39;m thinking the following:<br><br><pre><span style="font-family:monospace,monospace"><code>gluster volume remove-brick datastore4 replica 2 vna.proxmox.softlog:/tank/vmdata/datastore4 force<br><br></code></span><span style="font-family:monospace,monospace"><code><span style="font-family:monospace,monospace"><code>gluster volume add-brick datastore4 replica 3 vnd.proxmox.softlog:/tank/vmdata/datastore4</code></span><br><br><br></code></span></pre><pre><span style="font-family:monospace,monospace"><code>Would that be all that is required?<br><br></code></span></pre><pre><span style="font-family:monospace,monospace"><code>Existing setup below:<br><br>gluster v info <br> <br>Volume Name: datastore4<br>Type: Replicate<br>Volume ID: 0ba131ef-311d-4bb1-be46-596e83b2f6ce<br>Status: Started<br>Snapshot Count: 0<br>Number of Bricks: 1 x 3 = 3<br>Transport-type: tcp<br>Bricks:<br>Brick1: vnb.proxmox.softlog:/tank/vmdata/datastore4<br>Brick2: vng.proxmox.softlog:/tank/vmdata/datastore4<br>Brick3: vna.proxmox.softlog:/tank/vmdata/datastore4<br>Options Reconfigured:<br>cluster.locking-scheme: granular<br>cluster.granular-entry-heal: yes<br>features.shard-block-size: 64MB<br>network.remote-dio: enable<br>cluster.eager-lock: enable<br>performance.io-cache: off<br>performance.read-ahead: off<br>performance.quick-read: off<br>performance.stat-prefetch: on<br>performance.strict-write-ordering: off<br>nfs.enable-ino32: off<br>nfs.addr-namelookup: off<br>nfs.disable: on<br>cluster.server-quorum-type: server<br>cluster.quorum-type: auto<br>features.shard: on<br>cluster.data-self-heal: on<br>performance.readdir-ahead: on<br>performance.low-prio-threads: 32<br>user.cifs: off<br>performance.flush-behind: on<br><br><br></code></span></pre></div><div><br>-- <br><div class="gmail_signature">Lindsay</div>
</div></div></div></div></div></div></div></div>