Größe: 1901
Kommentar:
|
← Revision 3 vom 2019-06-19 12:25:02 ⇥
Größe: 2036
Kommentar: Ergänzungen
|
Gelöschter Text ist auf diese Art markiert. | Hinzugefügter Text ist auf diese Art markiert. |
Zeile 9: | Zeile 9: |
* Achtung, das Storagenetzwerk sollte NIEMALS über das gleiche Netzwerk wie Corosync laufen! | * Achtung, der Datenverkehr des Storagenetzwerk sollte sich nicht die Leitungen mit Corosync teilen. Besser mehrere Netzwerkkarten nutzen. |
Zeile 23: | Zeile 23: |
* serverseitig: /etc/hosts File anpassen | * serverseitig: {{{/etc/hosts}}} Datei anpassen |
Zeile 26: | Zeile 26: |
* einzigartige ID eingeben * Server IP des NFS * Export: Hier stehen die freigegebenen Verzeichnisse stehen. |
* einzigartige Storage-ID eingeben * Server-IP des NFS-Servers, Name auch möglich, wenn dieser aufgelöst werden kann * Export: Hier stehen die freigegebenen Verzeichnisse. |
Zeile 30: | Zeile 30: |
* Alle Clusterknoten müssen beim nfs-Server hinterlegt sein. | * Alle Clusterknoten müssen beim NFS-Server hinterlegt sein. |
Zeile 49: | Zeile 49: |
* breit Skalierbar | * horizontal und vertikal skalierbar |
Proxmox SharedStorage
Inhaltsverzeichnis
- Achtung, der Datenverkehr des Storagenetzwerk sollte sich nicht die Leitungen mit Corosync teilen. Besser mehrere Netzwerkkarten nutzen.
Storage Typen
- NFS
- CIFS
- GlusterFS
- CephFS
- iSCSI/kernel
- iSCSI/libiscsi
- Ceph/RBD
- ZFS over iSCSI
NFS
serverseitig: /etc/hosts Datei anpassen
- über die GUI:
Cluster oder Knoten auswählen -> Storage -> Add/Hinzufügen -> NFS
- einzigartige Storage-ID eingeben
- Server-IP des NFS-Servers, Name auch möglich, wenn dieser aufgelöst werden kann
- Export: Hier stehen die freigegebenen Verzeichnisse.
- Enable checked
- Alle Clusterknoten müssen beim NFS-Server hinterlegt sein.
- über CLI:
folgendes File muss bearbeitet werden: /etc/pve/storage.cfg
- server: Server-IP oder DNS-Name
export: NFS export Pfad ($ pvesm scan nfs SERVER)
- path: lokaler Mountpoint
- options: Mountoptions (man nfs)
- Beispiel:
nfs: iso-templates path /mnt/pve/iso-templates server 10.0.0.10 export /space/iso-templates options vers=3,soft content iso,vztmpl
Ceph
verteilbar auf alle Knoten -> HA
- horizontal und vertikal skalierbar
- über die GUI:
Knoten auswählen -> Ceph -> Installieren ("Install Ceph-luminous")
- Wizard-Anweisungen folgen
- Ceph Manager wird automatisch mit installiert
Monitore erstellen (mehr als ein Monitor für HA): Knoten -> Ceph -> Monitor
OSDs erstellen: Knoten -> Ceph -> OSD -> Create
Ceph-Pool erstellen: Knoten -> Ceph -> Pool -> Create
- über CLI:
$ pveceph install
Ceph konfigurieren (nur auf ersten Knoten) $ pveceph init --network 10.10.10.0/24
Monitor erstellen: $ pveceph createmon
OSD erstellen: $ pveceph createosd /dev/sdX
Ceph-Pool erstellen: $ pveceph createpool POOLNAME