<div dir="ltr">Hi Diego,<div><br></div><div>Just to clarify, so did you do an offline upgrade with an existing cluster (3.6.x =&gt; 3.10.x)?</div><div>Thanks.</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Aug 25, 2017 at 8:42 PM, Diego Remolina <span dir="ltr">&lt;<a href="mailto:dijuremo@gmail.com" target="_blank">dijuremo@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">I was never able to go from 3.6.x to 3.7.x without downtime. Then<br>
3.7.x did not work well for me, so I stuck with 3.6.x until recently.<br>
I went from 3.6.x to 3.10.x but downtime was scheduled.<br>
<span class="HOEnZb"><font color="#888888"><br>
Diego<br>
</font></span><div class="HOEnZb"><div class="h5"><br>
On Fri, Aug 25, 2017 at 8:25 AM, Yong Tseng &lt;<a href="mailto:yongtw123@gmail.com">yongtw123@gmail.com</a>&gt; wrote:<br>
&gt; Hi Diego,<br>
&gt;<br>
&gt; Thanks for the information. I tried only setting &#39;allow-insecure on&#39; but<br>
&gt; nada.<br>
&gt; The sentence &quot;If you are using GlusterFS version 3.4.x or below, you can<br>
&gt; upgrade it to following&quot; in documentation is surely misleading.<br>
&gt; So would you suggest creating a new 3.10 cluster from scratch then rsync(?)<br>
&gt; the data from old cluster to the new?<br>
&gt;<br>
&gt;<br>
&gt; On Fri, Aug 25, 2017 at 7:53 PM, Diego Remolina &lt;<a href="mailto:dijuremo@gmail.com">dijuremo@gmail.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; You cannot do a rolling upgrade from 3.6.x to 3.10.x You will need<br>
&gt;&gt; downtime.<br>
&gt;&gt;<br>
&gt;&gt; Even 3.6 to 3.7 was not possible... see some references to it below:<br>
&gt;&gt;<br>
&gt;&gt; <a href="https://marc.info/?l=gluster-users&amp;m=145136214452772&amp;w=2" rel="noreferrer" target="_blank">https://marc.info/?l=gluster-<wbr>users&amp;m=145136214452772&amp;w=2</a><br>
&gt;&gt; <a href="https://gluster.readthedocs.io/en/latest/release-notes/3.7.1/" rel="noreferrer" target="_blank">https://gluster.readthedocs.<wbr>io/en/latest/release-notes/3.<wbr>7.1/</a><br>
&gt;&gt;<br>
&gt;&gt; # gluster volume set &lt;volname&gt; server.allow-insecure on Edit<br>
&gt;&gt; /etc/glusterfs/glusterd.vol to contain this line: option<br>
&gt;&gt; rpc-auth-allow-insecure on<br>
&gt;&gt;<br>
&gt;&gt; Post 1, restarting the volume would be necessary:<br>
&gt;&gt;<br>
&gt;&gt; # gluster volume stop &lt;volname&gt;<br>
&gt;&gt; # gluster volume start &lt;volname&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; HTH,<br>
&gt;&gt;<br>
&gt;&gt; Diego<br>
&gt;&gt;<br>
&gt;&gt; On Fri, Aug 25, 2017 at 7:46 AM, Yong Tseng &lt;<a href="mailto:yongtw123@gmail.com">yongtw123@gmail.com</a>&gt; wrote:<br>
&gt;&gt; &gt; Hi all,<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; I&#39;m currently in process of upgrading a replicated cluster (1 x 4) from<br>
&gt;&gt; &gt; 3.6.3 to 3.10.5. The nodes run CentOS 6. However after upgrading the<br>
&gt;&gt; &gt; first<br>
&gt;&gt; &gt; node, the said node fails to connect to other peers (as seen via<br>
&gt;&gt; &gt; &#39;gluster<br>
&gt;&gt; &gt; peer status&#39;), but somehow other non-upgraded peers can still see the<br>
&gt;&gt; &gt; upgraded peer as connected.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Writes to the Gluster volume via local mounts of non-upgraded peers are<br>
&gt;&gt; &gt; replicated to the upgraded peer, but I can&#39;t write via the upgraded peer<br>
&gt;&gt; &gt; as<br>
&gt;&gt; &gt; the local mount seems forced to read-only.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Launching heal operations from non-upgraded peers will output &#39;Commit<br>
&gt;&gt; &gt; failed<br>
&gt;&gt; &gt; on &lt;upgraded peer IP&gt;. Please check log for details&#39;.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; In addition, during upgrade process there were warning messages about my<br>
&gt;&gt; &gt; old<br>
&gt;&gt; &gt; vol files renamed with .rpmsave extension. I tried starting Gluster with<br>
&gt;&gt; &gt; my<br>
&gt;&gt; &gt; old vol files but the problem persisted. I tried generating new vol<br>
&gt;&gt; &gt; files<br>
&gt;&gt; &gt; with &#39;glusterd --xlator-option &quot;*.upgrade=on&quot; -N&#39;, still no avail.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Also I checked the brick log it had several messages about &quot;failed to<br>
&gt;&gt; &gt; get<br>
&gt;&gt; &gt; client opversion&quot;. I don&#39;t know if this is pertinent. Could it be that<br>
&gt;&gt; &gt; the<br>
&gt;&gt; &gt; upgraded node cannot connect to older nodes but still can receive<br>
&gt;&gt; &gt; instructions from them?<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Below are command outputs; some data are masked.<br>
&gt;&gt; &gt; I&#39;d provide more information if required.<br>
&gt;&gt; &gt; Thanks in advance.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; ===&gt; &#39;gluster volume status&#39; ran on non-upgraded peers<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Status of volume: gsnfs<br>
&gt;&gt; &gt; Gluster process                                         Port    Online<br>
&gt;&gt; &gt; Pid<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; ------------------------------<wbr>------------------------------<wbr>------------------<br>
&gt;&gt; &gt; Brick gs-nfs01:/ftpdata                                 49154   Y<br>
&gt;&gt; &gt; 2931<br>
&gt;&gt; &gt; Brick gs-nfs02:/ftpdata                                 49152   Y<br>
&gt;&gt; &gt; 29875<br>
&gt;&gt; &gt; Brick gs-nfs03:/ftpdata                                 49153   Y<br>
&gt;&gt; &gt; 6987<br>
&gt;&gt; &gt; Brick gs-nfs04:/ftpdata                                 49153   Y<br>
&gt;&gt; &gt; 24768<br>
&gt;&gt; &gt; Self-heal Daemon on localhost                           N/A     Y<br>
&gt;&gt; &gt; 2938<br>
&gt;&gt; &gt; Self-heal Daemon on gs-nfs04                            N/A     Y<br>
&gt;&gt; &gt; 24788<br>
&gt;&gt; &gt; Self-heal Daemon on gs-nfs03                            N/A     Y<br>
&gt;&gt; &gt; 7007<br>
&gt;&gt; &gt; Self-heal Daemon on &lt;IP&gt;                      N/A     Y       29866<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Task Status of Volume gsnfs<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; ------------------------------<wbr>------------------------------<wbr>------------------<br>
&gt;&gt; &gt; There are no active volume tasks<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; ===&gt; &#39;gluster volume status&#39; on upgraded peer<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Gluster process                             TCP Port  RDMA Port  Online<br>
&gt;&gt; &gt; Pid<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; ------------------------------<wbr>------------------------------<wbr>------------------<br>
&gt;&gt; &gt; Brick gs-nfs02:/ftpdata                     49152     0          Y<br>
&gt;&gt; &gt; 29875<br>
&gt;&gt; &gt; Self-heal Daemon on localhost               N/A       N/A        Y<br>
&gt;&gt; &gt; 29866<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Task Status of Volume gsnfs<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; ------------------------------<wbr>------------------------------<wbr>------------------<br>
&gt;&gt; &gt; There are no active volume tasks<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; ===&gt; &#39;gluster peer status&#39; on non-upgraded peer<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Number of Peers: 3<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Hostname: gs-nfs03<br>
&gt;&gt; &gt; Uuid: 4c1544e6-550d-481a-95af-<wbr>2a1da32d10ad<br>
&gt;&gt; &gt; State: Peer in Cluster (Connected)<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Hostname: &lt;IP&gt;<br>
&gt;&gt; &gt; Uuid: 17d554fd-9181-4b53-9521-<wbr>55acf69ac35f<br>
&gt;&gt; &gt; State: Peer in Cluster (Connected)<br>
&gt;&gt; &gt; Other names:<br>
&gt;&gt; &gt; gs-nfs02<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Hostname: gs-nfs04<br>
&gt;&gt; &gt; Uuid: c6d165e6-d222-414c-b57a-<wbr>97c64f06c5e9<br>
&gt;&gt; &gt; State: Peer in Cluster (Connected)<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; ===&gt; &#39;gluster peer status&#39; on upgraded peer<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Number of Peers: 3<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Hostname: gs-nfs03<br>
&gt;&gt; &gt; Uuid: 4c1544e6-550d-481a-95af-<wbr>2a1da32d10ad<br>
&gt;&gt; &gt; State: Peer in Cluster (Disconnected)<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Hostname: gs-nfs01<br>
&gt;&gt; &gt; Uuid: 90d3ed27-61ac-4ad3-93a9-<wbr>3c2b68f41ecf<br>
&gt;&gt; &gt; State: Peer in Cluster (Disconnected)<br>
&gt;&gt; &gt; Other names:<br>
&gt;&gt; &gt; &lt;IP&gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Hostname: gs-nfs04<br>
&gt;&gt; &gt; Uuid: c6d165e6-d222-414c-b57a-<wbr>97c64f06c5e9<br>
&gt;&gt; &gt; State: Peer in Cluster (Disconnected)<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; --<br>
&gt;&gt; &gt; - Yong<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; ______________________________<wbr>_________________<br>
&gt;&gt; &gt; Gluster-users mailing list<br>
&gt;&gt; &gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt; &gt; <a href="http://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer" target="_blank">http://lists.gluster.org/<wbr>mailman/listinfo/gluster-users</a><br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; --<br>
&gt; - Yong<br>
</div></div></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature" data-smartmail="gmail_signature">- Yong<br></div>
</div>