<html>
  <head>
    <meta http-equiv="Content-Type" content="text/html; charset=utf-8">
  </head>
  <body text="#000000" bgcolor="#FFFFFF">
    Some additional info:<br>
    I read somewhere that there has been a problem when the directory
    structures are too deep.<br>
    On my file servers there is a depth of 9-10 directories, is this
    still a problem?<br>
    <br>
    The error I find in the error log is:<br>
    performing entry selfheal on 70764b1d-a022-4489-b7e1-df6073765d66<br>
    remote operation failed. Path: (null)
    (00000000-0000-0000-0000-000000000000) [No data available]<br>
    <br>
    If I look in .glusterfs at the gfid on both machines I see that some
    files are missing on the second server.<br>
    But the content of .glusterfs matches what is stored in file
    structure, so there is not miss match there.<br>
    <br>
    I have written a script that makes an ls on all files in the
    structure on a client.<br>
    This triggers a heal and the servers are busy working.<br>
    I am not done yet as this takes a while.<br>
    But this is not the way you are supposed to heal, right?<br>
    <br>
    Best regarards<br>
    Marcus<br>
    <br>
    <br>
    <br>
    <div class="moz-cite-prefix">On 02/05/17 11:12, Marcus wrote:<br>
    </div>
    <blockquote type="cite"
      cite="mid:da2ceffc-d81d-417c-0101-fbdf8282f6cc@slu.se">Hi all!
      <br>
      <br>
      I have setup a replicated gluster cluster on two identical
      machines with replica 2.
      <br>
      I run CentOs 7 and gluster version 3.8.11.
      <br>
      <br>
      I started out with creating a distributed single node gluster
      brick.
      <br>
      When I created the brick there was already about 11TB data in
      directory before I created the brick.
      <br>
      We used the distributed brick for a couple of weeks before I had
      the other server.
      <br>
      I configured the second server and and created replicated bricks
      where the second server was empty on data.
      <br>
      gluster volume add-brick vol replica 2 transport tcp
      192.168.1.2:/vol
      <br>
      gluster volume add-brick vol2 replica 2 transport tcp
      192.168.1.2:/vol2
      <br>
      <br>
      Everything went fine and files started to replicate and second
      server started to be populated with data.
      <br>
      <br>
      Now two weeks later they are still out of sync.....second server
      is still missing data.
      <br>
      If I run: gluster volume heal vol info
      <br>
      There is still thousands of files that need sync from first
      server.
      <br>
      Most of the files are shown as a gfid number and not file names.
      <br>
      <br>
      I have tried to run: gluster volume heal vol
      <br>
      and: gluster volume heal vol full
      <br>
      It reports back that it starts successfully.
      <br>
      <br>
      I have rebooted both machines.
      <br>
      Still same status.
      <br>
      <br>
      If I go to a client and use ls on specific files that are not in
      sync they become synchronized.
      <br>
      As in:
      <br>
      ls /mymount/mydir/file1
      <br>
      ls /mymount/mydir/file2
      <br>
      <br>
      Both file1 and file2 gets synchronized.
      <br>
      But I can not do that on thousands of files, right?
      <br>
      <br>
      How do I get these bricks synchronized and up and running as exact
      replicas?
      <br>
      <br>
      Many thanks in advance!
      <br>
      <br>
      Best regards
      <br>
      Marcus
      <br>
      _______________________________________________
      <br>
      Gluster-users mailing list
      <br>
      <a class="moz-txt-link-abbreviated" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>
      <br>
      <a class="moz-txt-link-freetext" href="http://lists.gluster.org/mailman/listinfo/gluster-users">http://lists.gluster.org/mailman/listinfo/gluster-users</a>
      <br>
    </blockquote>
    <br>
    <div class="moz-signature">-- <br>
      <hr> <b>Marcus Pedersén</b><br>
      <i>System administrator</i><br>
      <br>
      <table border="0">
        <tbody>
          <tr>
            <td> <br>
              <b>Interbull Centre</b><br>
              Department of Animal Breeding &amp; Genetics — SLU<br>
              Box 7023, SE-750 07<br>
              Uppsala, Sweden<br>
              <br>
              Visiting address:<br>
              Room 55614, Ulls väg 26, Ultuna<br>
              Uppsala<br>
              Sweden<br>
              <br>
              Tel: +46-(0)18-67 1962<br>
            </td>
            <td valign="top"> <img
                src="cid:part1.F30B2551.28F12B54@slu.se" alt="Interbull
                Logo"><br>
            </td>
          </tr>
        </tbody>
      </table>
      <br>
      <img src="cid:part2.8B082C47.8EA2736F@slu.se" alt="ISO
        certification logo"> </div>
  </body>
</html>