#acl hayd@cbs.mpg.de:read,write,delete,revert,admin Known:read,write All:read = Proxmox SharedStorage = <> * Achtung, der Datenverkehr des Storagenetzwerk sollte sich nicht die Leitungen mit Corosync teilen. Besser mehrere Netzwerkkarten nutzen. == Storage Typen == * NFS * CIFS * GlusterFS * CephFS * iSCSI/kernel * iSCSI/libiscsi * Ceph/RBD * ZFS over iSCSI == NFS == * serverseitig: {{{/etc/hosts}}} Datei anpassen * über die GUI: * Cluster oder Knoten auswählen -> Storage -> Add/Hinzufügen -> NFS * einzigartige Storage-ID eingeben * Server-IP des NFS-Servers, Name auch möglich, wenn dieser aufgelöst werden kann * Export: Hier stehen die freigegebenen Verzeichnisse. * Enable checked * Alle Clusterknoten müssen beim NFS-Server hinterlegt sein. * über CLI: * folgendes File muss bearbeitet werden: {{{/etc/pve/storage.cfg}}} * server: Server-IP oder DNS-Name * export: NFS export Pfad ({{{$ pvesm scan nfs SERVER}}}) * path: lokaler Mountpoint * options: Mountoptions (man nfs) * Beispiel: {{{ nfs: iso-templates path /mnt/pve/iso-templates server 10.0.0.10 export /space/iso-templates options vers=3,soft content iso,vztmpl }}} == Ceph == * verteilbar auf alle Knoten -> HA * horizontal und vertikal skalierbar * über die GUI: * Knoten auswählen -> Ceph -> Installieren ("Install Ceph-luminous") * Wizard-Anweisungen folgen * Ceph Manager wird automatisch mit installiert * Monitore erstellen (mehr als ein Monitor für HA): Knoten -> Ceph -> Monitor * OSDs erstellen: Knoten -> Ceph -> OSD -> Create * Ceph-Pool erstellen: Knoten -> Ceph -> Pool -> Create * über CLI: * {{{$ pveceph install}}} * Ceph konfigurieren (nur auf ersten Knoten) {{{$ pveceph init --network 10.10.10.0/24}}} * Monitor erstellen: {{{$ pveceph createmon}}} * OSD erstellen: {{{$ pveceph createosd /dev/sdX}}} * Ceph-Pool erstellen: {{{$ pveceph createpool POOLNAME}}}