<> * Achtung, das Storagenetzwerk sollte NIEMALS über das gleiche Netzwerk wie Corosync laufen! = Storage Typen = * NFS * CIFS * GlusterFS * CephFS * iSCSI/kernel * iSCSI/libiscsi * Ceph/RBD * ZFS over iSCSI = NFS = * serverseitig: /etc/hosts File anpassen * über die GUI: * Cluster oder Knoten auswählen -> Storage -> Add/Hinzufügen -> NFS * einzigartige ID eingeben * Server IP des NFS * Export: Hier stehen die freigegebenen Verzeichnisse stehen. * Enable checked * Alle Clusterknoten müssen beim nfs-Server hinterlegt sein. * über CLI: * folgendes File muss bearbeitet werden: {{{/etc/pve/storage.cfg}}} * server: Server-IP oder DNS-Name * export: NFS export Pfad ({{{$ pvesm scan nfs SERVER}}}) * path: lokaler Mountpoint * options: Mountoptions (man nfs) * Beispiel: {{{ nfs: iso-templates path /mnt/pve/iso-templates server 10.0.0.10 export /space/iso-templates options vers=3,soft content iso,vztmpl }}} = Ceph = * verteilbar auf alle Knoten -> HA * breit Skalierbar * über die GUI: * Knoten auswählen -> Ceph -> Installieren ("Install Ceph-luminous") * Wizard-Anweisungen folgen * Ceph Manager wird automatisch mit installiert * Monitore erstellen (mehr als ein Monitor für HA): Knoten -> Ceph -> Monitor * OSDs erstellen: Knoten -> Ceph -> OSD -> Create * Ceph-Pool erstellen: Knoten -> Ceph -> Pool -> Create * über CLI: * {{{$ pveceph install}}} * Ceph konfigurieren (nur auf ersten Knoten) {{{$ pveceph init --network 10.10.10.0/24}}} * Monitor erstellen: {{{$ pveceph createmon}}} * OSD erstellen: {{{$ pveceph createosd /dev/sdX}}} * Ceph-Pool erstellen: {{{$ pveceph createpool POOLNAME}}}