<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Nov 9, 2020, 17:17 Strahil Nikolov &lt;<a href="mailto:hunter86_bg@yahoo.com">hunter86_bg@yahoo.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Alex,<br>
<br>
I have been playing arround with the NFS Ganesha on EL8 and I was surprised that the solution deploys the cluster with a &#39;portblock&#39; resource which is relying on IPTABLES, when the default is NFTABLES... Also, some selinux issues came up.<br>
I think that Ganesha with Pacemaker integration is quite good and reliable and will ensure that your NFS clients will remain operational.<br></blockquote></div></div><div dir="auto">Sounds similar with how one configures iscsi with pacemaker, where one uses portblock to ease the transition of clients in the event of migration. </div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
Also, it&#39;s worth noting that RHEL support only corosync/pacemaker setup .</blockquote></div></div><div dir="auto">I will run the all setup to make all steps clear in my mind. I was confused from the following commands which were not recognized (using Debian 10)</div><div dir="auto"><pre><code>gluster nfs-ganesha enable</code></pre><pre><code><pre><code>gluster volume set &lt;volname&gt; ganesha.enable on</code></pre></code></pre><pre><code>I might be missing some step.</code></pre></div><div dir="auto"><br></div><div dir="auto"></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
Best Regards,<br>
Strahil Nikolov<br>
<br>
<br>
<br>
<br>
<br>
<br>
В понеделник, 9 ноември 2020 г., 10:08:44 Гринуич+2, Alex K &lt;<a href="mailto:rightkicktech@gmail.com" target="_blank" rel="noreferrer">rightkicktech@gmail.com</a>&gt; написа: <br>
<br>
<br>
<br>
<br>
<br>
Hi all, <br>
<br>
I would like to export gluster volume (which is a replica 3) with NFS so as to use for persistent container storage. I can directly use gluster storage plugin from docker containers though it seems that this approach uses FUSE mount. I have read that nfs-ganesha i using libgfapi which provides better performance thus trying to use NFS through it. <br>
<br>
I am just starting with nfs-ganesha and following the doc<br>
<a href="https://docs.gluster.org/en/latest/Administrator%20Guide/NFS-Ganesha%20GlusterFS%20Integration/" rel="noreferrer noreferrer" target="_blank">https://docs.gluster.org/en/latest/Administrator%20Guide/NFS-Ganesha%20GlusterFS%20Integration/</a><br>
<br>
I am a bit confused with the best approach for high availability. I am already using pacemaker/corosync for other services and have a virtual IP for the cluster. I was thinking that each container can use the locally exposed NFS share (using localhost as the IP/domain of the NFS server, each container its own separate share). Reading the HA setup at the above link, it mentions the use of ganesha-ha.conf which incorporates some  HA_CLUSTER_NODES  etc parameters. I do not see the reason to go like that since HA is managed from gluster already.  Also at same doc it mentions that this HA approach is to be replaced from storhaug which when checking at github seems like an idle repo for years.  What is the best approach for HA using nf-ganesha?<br>
<br>
Thank you, <br>
Alex<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
________<br>
<br>
<br>
<br>
Community Meeting Calendar:<br>
<br>
Schedule -<br>
Every 2nd and 4th Tuesday at 14:30 IST / 09:00 UTC<br>
Bridge: <a href="https://meet.google.com/cpu-eiue-hvk" rel="noreferrer noreferrer" target="_blank">https://meet.google.com/cpu-eiue-hvk</a><br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank" rel="noreferrer">Gluster-users@gluster.org</a><br>
<a href="https://lists.gluster.org/mailman/listinfo/gluster-users" rel="noreferrer noreferrer" target="_blank">https://lists.gluster.org/mailman/listinfo/gluster-users</a><br>
</blockquote></div></div></div>