welcome: please sign in
location: Änderungen von "ProxmoxSharedStorage"
Unterschiede zwischen den Revisionen 1 und 3 (über 2 Versionen hinweg)
Revision 1 vom 2019-05-03 08:31:58
Größe: 1781
Kommentar: Shared Storage
Revision 3 vom 2019-06-19 12:25:02
Größe: 2036
Kommentar: Ergänzungen
Gelöschter Text ist auf diese Art markiert. Hinzugefügter Text ist auf diese Art markiert.
Zeile 1: Zeile 1:
#acl hayd@cbs.mpg.de:read,write,delete,revert,admin Known:read,write All:read

= Proxmox SharedStorage =

Zeile 3: Zeile 8:
 * Achtung, das Storagenetzwerk sollte NIEMALS über das gleiche Netzwerk wie Corosync laufen!
Zeile 5: Zeile 9:
= Storage Typen =  * Achtung, der Datenverkehr des Storagenetzwerk sollte sich nicht die Leitungen mit Corosync teilen. Besser mehrere Netzwerkkarten nutzen.

== Storage Typen ==
Zeile 16: Zeile 22:
= NFS =
 * serverseitig: /etc/hosts File anpassen
== NFS ==
 * serverseitig: {{{/etc/hosts}}} Datei anpassen
Zeile 20: Zeile 26:
  * einzigartige ID eingeben
  * Server IP des NFS
  * Export: Hier stehen die freigegebenen Verzeichnisse stehen.
  * einzigartige Storage-ID eingeben
  * Server-IP des NFS-Servers, Name auch möglich, wenn dieser aufgelöst werden kann
  * Export: Hier stehen die freigegebenen Verzeichnisse.
Zeile 24: Zeile 30:
  * Alle Clusterknoten müssen beim nfs-Server hinterlegt sein.   * Alle Clusterknoten müssen beim NFS-Server hinterlegt sein.
Zeile 41: Zeile 47:
= Ceph = == Ceph ==
Zeile 43: Zeile 49:
 * breit Skalierbar  * horizontal und vertikal skalierbar

Proxmox SharedStorage

  • Achtung, der Datenverkehr des Storagenetzwerk sollte sich nicht die Leitungen mit Corosync teilen. Besser mehrere Netzwerkkarten nutzen.

Storage Typen

  • NFS
  • CIFS
  • GlusterFS
  • CephFS
  • iSCSI/kernel
  • iSCSI/libiscsi
  • Ceph/RBD
  • ZFS over iSCSI

NFS

  • serverseitig: /etc/hosts Datei anpassen

  • über die GUI:
    • Cluster oder Knoten auswählen -> Storage -> Add/Hinzufügen -> NFS

    • einzigartige Storage-ID eingeben
    • Server-IP des NFS-Servers, Name auch möglich, wenn dieser aufgelöst werden kann
    • Export: Hier stehen die freigegebenen Verzeichnisse.
    • Enable checked
    • Alle Clusterknoten müssen beim NFS-Server hinterlegt sein.
  • über CLI:
    • folgendes File muss bearbeitet werden: /etc/pve/storage.cfg

    • server: Server-IP oder DNS-Name
    • export: NFS export Pfad ($ pvesm scan nfs SERVER)

    • path: lokaler Mountpoint
    • options: Mountoptions (man nfs)
    • Beispiel:

nfs: iso-templates 
   path /mnt/pve/iso-templates 
   server 10.0.0.10 
   export /space/iso-templates 
   options vers=3,soft 
   content iso,vztmpl

Ceph

  • verteilbar auf alle Knoten -> HA

  • horizontal und vertikal skalierbar
  • über die GUI:
    • Knoten auswählen -> Ceph -> Installieren ("Install Ceph-luminous")

    • Wizard-Anweisungen folgen
    • Ceph Manager wird automatisch mit installiert
    • Monitore erstellen (mehr als ein Monitor für HA): Knoten -> Ceph -> Monitor

    • OSDs erstellen: Knoten -> Ceph -> OSD -> Create

    • Ceph-Pool erstellen: Knoten -> Ceph -> Pool -> Create

  • über CLI:
    • $ pveceph install

    • Ceph konfigurieren (nur auf ersten Knoten) $ pveceph init --network 10.10.10.0/24

    • Monitor erstellen: $ pveceph createmon

    • OSD erstellen: $ pveceph createosd /dev/sdX

    • Ceph-Pool erstellen: $ pveceph createpool POOLNAME

ProxmoxSharedStorage (zuletzt geändert am 2019-06-19 12:25:02 durch thunert@cbs.mpg.de)