Proxmox SharedStorage
Inhaltsverzeichnis
- Achtung, der Datenverkehr des Storagenetzwerk sollte sich nicht die Leitungen mit Corosync teilen. Besser mehrere Netzwerkkarten nutzen.
Storage Typen
- NFS
- CIFS
- GlusterFS
- CephFS
- iSCSI/kernel
- iSCSI/libiscsi
- Ceph/RBD
- ZFS over iSCSI
NFS
serverseitig: /etc/hosts Datei anpassen
- über die GUI:
Cluster oder Knoten auswählen -> Storage -> Add/Hinzufügen -> NFS
- einzigartige Storage-ID eingeben
- Server-IP des NFS-Servers, Name auch möglich, wenn dieser aufgelöst werden kann
- Export: Hier stehen die freigegebenen Verzeichnisse.
- Enable checked
- Alle Clusterknoten müssen beim NFS-Server hinterlegt sein.
- über CLI:
folgendes File muss bearbeitet werden: /etc/pve/storage.cfg
- server: Server-IP oder DNS-Name
export: NFS export Pfad ($ pvesm scan nfs SERVER)
- path: lokaler Mountpoint
- options: Mountoptions (man nfs)
- Beispiel:
nfs: iso-templates path /mnt/pve/iso-templates server 10.0.0.10 export /space/iso-templates options vers=3,soft content iso,vztmpl
Ceph
verteilbar auf alle Knoten -> HA
- horizontal und vertikal skalierbar
- über die GUI:
Knoten auswählen -> Ceph -> Installieren ("Install Ceph-luminous")
- Wizard-Anweisungen folgen
- Ceph Manager wird automatisch mit installiert
Monitore erstellen (mehr als ein Monitor für HA): Knoten -> Ceph -> Monitor
OSDs erstellen: Knoten -> Ceph -> OSD -> Create
Ceph-Pool erstellen: Knoten -> Ceph -> Pool -> Create
- über CLI:
$ pveceph install
Ceph konfigurieren (nur auf ersten Knoten) $ pveceph init --network 10.10.10.0/24
Monitor erstellen: $ pveceph createmon
OSD erstellen: $ pveceph createosd /dev/sdX
Ceph-Pool erstellen: $ pveceph createpool POOLNAME