<div dir="ltr"><div>Dear Gluster Community,</div><div><br></div><div>this morning I had an interesting observation. On my 2 Node Gluster v5.5 System with 3 Replica1 volumes (volume1, volume2, test) I had duplicated brick processes (See output of ps aux in attached file duplicate_bricks.txt) for each of the volumes. Additionally there is a fs-ss volume which I use instead of gluster_shared_storage but this volume was not effected.<br></div><div><br></div><div>After doing some research I found a hint in glusterd.log . It seems to be that after a restart glusterd couldn&#39;t found the pid files for the freshly created brick processes and create new brick processes. One can see in the brick logs that for all the volumes that two brick processes were created just one after another.</div><div><br></div><div>Result: Two brick processes for each of the volumes volume1, volume2 and test. <br></div><div>&quot;gluster vo status&quot; shows that the pid number was mapped to the wrong port number for hydmedia and impax<br></div><div><br></div><div>But beside of that the volume was working correctly. I resolve that issue with a workaround. Kill all brick processes and restart glusterd. After that everything is fine.</div><div><br></div><div>Is this a bug in glusterd? You can find all relevant informations attached below<br></div><div><br></div><div>Regards</div><div>David Spisla<br></div></div>