<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr">On Sat, Sep 29, 2018, 5:03 PM Hetz Ben Hamo &lt;<a href="mailto:hetz@hetz.biz">hetz@hetz.biz</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div dir="rtl" class="m_-87499201289613445gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><span style="background-color:rgb(255,255,255)"><div style="font-family:Arial,Verdana,sans-serif">/dev/disk-by-id could be problematic. it only showing disks that have been formatted.</div><div style="font-family:Arial,Verdana,sans-serif"><br></div><div style="font-family:Arial,Verdana,sans-serif">For example, I&#39;ve just created a node with 3 disks and on Anaconda I chose only the first disk. After the node installation and reboot, I see on /dev/disk/by-id only the DM, and the DVD, not the two unformatted disks (which can be seen using lsscsi command).</div><div style="font-family:Arial,Verdana,sans-serif">Anaconda, however, does see the disks, details etc...</div></span></div></div></div></div></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">That&#39;s not what I know. Might be something with udev or some filtering, but certainly I was not aware it&#39;s related to formatting. </div><div dir="auto">Y. </div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div dir="rtl" class="m_-87499201289613445gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><span style="border-collapse:separate;font-family:&#39;Times New Roman&#39;;font-style:normal;font-variant:normal;letter-spacing:normal;line-height:normal;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;font-size:medium"><span style="font-family:Arial,Verdana,sans-serif;font-size:13px"><div dir="rtl"><div dir="rtl"><div dir="rtl"><font color="#FF0000"><b><div style="margin-top:0px;margin-right:0px;margin-bottom:0px;margin-left:0px;background-color:transparent;color:rgb(0,0,0);font-family:&#39;Times New Roman&#39;;font-weight:normal;font-size:medium"></div></b></font></div><div dir="rtl" style="color:rgb(0,0,0);font-weight:normal"></div><div dir="rtl" style="color:rgb(0,0,0);font-weight:normal"></div><div dir="rtl" style="color:rgb(0,0,0);font-weight:normal"></div></div></div></span></span></div></div></div></div></div></div></div><br></div><br><div class="gmail_quote"><div dir="ltr">On Sat, Sep 29, 2018 at 12:57 PM Yaniv Kaul &lt;<a href="mailto:ykaul@redhat.com" target="_blank" rel="noreferrer">ykaul@redhat.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr">On Fri, Sep 28, 2018, 7:16 PM Hetz Ben Hamo &lt;<a href="mailto:hetz@hetz.biz" target="_blank" rel="noreferrer">hetz@hetz.biz</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div dir="rtl" class="m_-87499201289613445m_-498972412623580924m_826395900330614324gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><span style="background-color:rgb(255,255,255)"><div style="font-family:Arial,Verdana,sans-serif">Hi,</div><div style="font-family:Arial,Verdana,sans-serif"><br></div><div style="font-family:Arial,Verdana,sans-serif">Gobinda, great work!</div><div style="font-family:Arial,Verdana,sans-serif"><br></div><div style="font-family:Arial,Verdana,sans-serif">One thing though - the device names (sda, sdb etc..)</div><div style="font-family:Arial,Verdana,sans-serif"><br></div><div style="font-family:Arial,Verdana,sans-serif">On many servers, it&#39;s hard to know which disk is which. Lets say I have 10 spinning disk + 2 SSD&#39;s. Which is sda? what about NVME? worse - sometimes replacing disks replaces the sda to something else. We used to have the same problem with NICs and now this has been resolved on CentOS/RHEL 7.X</div><div style="font-family:Arial,Verdana,sans-serif"><br></div><div style="font-family:Arial,Verdana,sans-serif">Could the HCI part - the disk selection part specifically - give more details? maybe Disk ID or WWN, or anything that can identify a disk?</div></span></div></div></div></div></div></div></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">/dev/disk/by-id is the right identifier. </div><div dir="auto">During installation, it&#39;d be nice if it could show as much data as possible - sdX, /dev/disk/by-id, size and perhaps manufacturer. </div><div dir="auto">Y. </div><div dir="auto"><br></div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div dir="rtl" class="m_-87499201289613445m_-498972412623580924m_826395900330614324gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><span style="background-color:rgb(255,255,255)"><div style="font-family:Arial,Verdana,sans-serif"><br></div><div style="font-family:Arial,Verdana,sans-serif">Also - SSD caching, most of the time it is recommended to use 2 drives if possible for good performance. Can a user select X number of drives?</div><div style="font-family:Arial,Verdana,sans-serif"><br></div><div style="font-family:Arial,Verdana,sans-serif">Thanks</div></span><span style="border-collapse:separate;font-family:&#39;Times New Roman&#39;;font-style:normal;font-variant:normal;letter-spacing:normal;line-height:normal;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;font-size:medium"><span style="font-family:Arial,Verdana,sans-serif;font-size:13px"><div dir="rtl"><div dir="rtl"><div dir="rtl"><font color="#FF0000"><b><div style="margin-top:0px;margin-right:0px;margin-bottom:0px;margin-left:0px;background-color:transparent;color:rgb(0,0,0);font-family:&#39;Times New Roman&#39;;font-weight:normal;font-size:medium"></div></b></font></div><div dir="rtl" style="color:rgb(0,0,0);font-weight:normal"></div><div dir="rtl" style="color:rgb(0,0,0);font-weight:normal"></div><div dir="rtl" style="color:rgb(0,0,0);font-weight:normal"></div></div></div></span></span></div></div></div></div></div></div></div></div><br></div><br><div class="gmail_quote"><div dir="ltr">On Fri, Sep 28, 2018 at 6:43 PM Gobinda Das &lt;<a href="mailto:godas@redhat.com" rel="noreferrer noreferrer" target="_blank">godas@redhat.com</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr">Hi All,<div> Status update on &quot;Hyperconverged Gluster oVirt support&quot;</div><div><br><div>Features Completed:</div><div>================</div><div><br></div><div>  cockpit-ovirt</div><div>  -------------</div><div>  1- Asymmetric brick configuration.Brick can be configured per host basis i.e. If the user wanted to make use of sdb from host1, sdc from host2, and sdd from host3.</div><div>  2- Dedupe and Compression integration via VDO support (see <a href="https://github.com/dm-vdo/kvdo" rel="noreferrer noreferrer" target="_blank">https://github.com/dm-vdo/kvdo</a>). Gluster bricks are created on vdo devices</div><div>  3- LVM cache configuration support (Configure cache by using fast block device such as SSD drive to imrove the performance of a larger and slower logical volumes)</div><div>  4- Auto addition of 2nd and 3rd hosts in a 3 node setup during deployment</div><div>  5- Auto creation of storage domains based on gluster volumes created during setup</div><div>  6- Single node deployment support via Cockpit UI. For details on single node deployment - <a href="https://www.ovirt.org/documentation/gluster-hyperconverged/chap-Single_node_hyperconverged/" rel="noreferrer noreferrer" target="_blank">https://www.ovirt.org/documentation/gluster-hyperconverged/chap-Single_node_hyperconverged/</a></div><div>  7- Gluster Management Dashboard (Dashboard will show the nodes in cluster,Volumes and bricks. User can expand the cluster and also can create new volume in existing cluster nodes )</div><div><br></div><div>  oVirt</div><div>  -------</div><div>  1- Reset brick support from UI to allow users to replace a faulty brick</div><div>  2- Create brick from engine now supports configuring an SSD device as lvmcache device when bricks are created on spinning disks</div><div>  3- VDO monitoring</div><div><br></div><div> GlusterFS</div><div>---------------</div><div> Enhancements to performance with fuse by 15x</div><div> 1. Cluster after eager lock change for better detection of multiple clients</div><div> 2. Changing qemu option aio to &quot;native&quot; instead of &quot;threads&quot;.</div><div><br></div><div> end-to-end deployment:</div><div> --------------------------------</div><div> 1- End to end deployment of a Gluster + Ovirt hyperconverged environment using ansible roles ( <a href="https://github.com/gluster/gluster-ansible/tree/master/playbooks" rel="noreferrer noreferrer" target="_blank">https://github.com/gluster/gluster-ansible/tree/master/playbooks</a> ). The only pre-requisite is a CentOS node/oVirt node</div><div><br></div><div>Future Plan:</div><div>==========</div><div> cockpit-ovirt:</div><div><br></div><div>  1- ansible-roles integration for deployment</div><div>  2- Support for different volume types </div><div>   </div><div> vdsm:</div><div>  1- Python3 compatibility of vdsm-gluster</div><div>  2- Native 4K support</div><div><br></div>-- <br><div dir="ltr" class="m_-87499201289613445m_-498972412623580924m_826395900330614324m_-1828315120711816614gmail_signature"><div dir="ltr"><div><div dir="ltr">Thanks,<div>Gobinda</div></div></div></div></div></div></div></div>
_______________________________________________<br>
Devel mailing list -- <a href="mailto:devel@ovirt.org" rel="noreferrer noreferrer" target="_blank">devel@ovirt.org</a><br>
To unsubscribe send an email to <a href="mailto:devel-leave@ovirt.org" rel="noreferrer noreferrer" target="_blank">devel-leave@ovirt.org</a><br>
Privacy Statement: <a href="https://www.ovirt.org/site/privacy-policy/" rel="noreferrer noreferrer noreferrer" target="_blank">https://www.ovirt.org/site/privacy-policy/</a><br>
oVirt Code of Conduct: <a href="https://www.ovirt.org/community/about/community-guidelines/" rel="noreferrer noreferrer noreferrer" target="_blank">https://www.ovirt.org/community/about/community-guidelines/</a><br>
List Archives: <a href="https://lists.ovirt.org/archives/list/devel@ovirt.org/message/XCFITLLQTODFK6NIRPBTRKKYCWKO6KBP/" rel="noreferrer noreferrer noreferrer" target="_blank">https://lists.ovirt.org/archives/list/devel@ovirt.org/message/XCFITLLQTODFK6NIRPBTRKKYCWKO6KBP/</a><br>
</blockquote></div>
_______________________________________________<br>
Devel mailing list -- <a href="mailto:devel@ovirt.org" rel="noreferrer noreferrer" target="_blank">devel@ovirt.org</a><br>
To unsubscribe send an email to <a href="mailto:devel-leave@ovirt.org" rel="noreferrer noreferrer" target="_blank">devel-leave@ovirt.org</a><br>
Privacy Statement: <a href="https://www.ovirt.org/site/privacy-policy/" rel="noreferrer noreferrer noreferrer" target="_blank">https://www.ovirt.org/site/privacy-policy/</a><br>
oVirt Code of Conduct: <a href="https://www.ovirt.org/community/about/community-guidelines/" rel="noreferrer noreferrer noreferrer" target="_blank">https://www.ovirt.org/community/about/community-guidelines/</a><br>
List Archives: <a href="https://lists.ovirt.org/archives/list/devel@ovirt.org/message/WTSJBFP73RTJV6EO4XYZUAHNTOVXYBLS/" rel="noreferrer noreferrer noreferrer" target="_blank">https://lists.ovirt.org/archives/list/devel@ovirt.org/message/WTSJBFP73RTJV6EO4XYZUAHNTOVXYBLS/</a><br>
</blockquote></div></div></div>
</blockquote></div>
</blockquote></div></div></div>