<html>
  <head>
    <meta content="text/html; charset=windows-1252"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <p><br>
    </p>
    <br>
    <div class="moz-cite-prefix">On 02/23/2017 11:12 PM, Joseph
      Lorenzini wrote:<br>
    </div>
    <blockquote
cite="mid:CAMvD0VKhN=C3pTyhUAfVpq49W6Oja45tCBA0NnePHOTzFQvM7g@mail.gmail.com"
      type="cite">
      <div dir="ltr">Hi all,
        <div><br>
        </div>
        <div>I have a simple replicated volume with a replica count of
          3. To ensure any file changes (create/delete/modify) are
          replicated to all bricks, I have this setting in my client
          configuration.</div>
        <div>
          <p class="gmail-p1"><span class="gmail-s1"> volume
              gv0-replicate-0<br>
            </span>    type cluster/replicate <br>
                subvolumes gv0-client-0 gv0-client-1 gv0-client-2<br>
            end-volume</p>
          <p class="gmail-p1">And that works as expected. My question is
            how one could detect if this was not happening which could
            poise a severe problem with data consistency and
            replication. For example, those settings could be omitted
            from the client config and then the client will only write
            data to one brick and all kinds of terrible things will
            start happening. I have not found a way the gluster volume
            cli to detect when that kind of problem is occurring. For
            example gluster volume heal &lt;volname&gt; info does not
            detect this problem. </p>
          <p class="gmail-p1">Is there any programmatic way to detect
            when this problem is occurring?<br>
          </p>
        </div>
      </div>
    </blockquote>
    <br>
    I couldn't understand how you will end up in this situation. There
    is only one possibility (assuming there is no bug :) ), ie you
    changed the client graph in a way that there is only one subvolume
    to replica server.<br>
    <br>
    To check that the simply way is, there is a xlator called meta,
    which provides meta data information through mount point, similiar
    to linux proc file system. So you can check the active graph through
    meta and see the number of subvolumes for replica xlator<br>
    <br>
    for example : the directory   &lt;mount
    point&gt;/.meta/graphs/active/&lt;volname&gt;-replicate-0/subvolumes
    will have entries for each replica clients , so in your case you
    should see 3 directories.<br>
    <br>
    <br>
    Let me know if this helps.<br>
    <br>
    Regards<br>
    Rafi KC<br>
    <br>
    <br>
    <blockquote
cite="mid:CAMvD0VKhN=C3pTyhUAfVpq49W6Oja45tCBA0NnePHOTzFQvM7g@mail.gmail.com"
      type="cite">
      <div dir="ltr">
        <div>
          <p class="gmail-p1">Thanks,<br>
            Joe</p>
        </div>
        <div><br>
        </div>
        <div><br>
        </div>
      </div>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">_______________________________________________
Gluster-users mailing list
<a class="moz-txt-link-abbreviated" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>
<a class="moz-txt-link-freetext" href="http://lists.gluster.org/mailman/listinfo/gluster-users">http://lists.gluster.org/mailman/listinfo/gluster-users</a></pre>
    </blockquote>
    <br>
  </body>
</html>