Eine technische Einführung in das verteilte Speichersystem Ceph und seine Anwendungsbereiche
Ceph ist ein verteiltes Speichersystem, dass mit vielversprechenden Attributen wie "selbstheilend" und "selbstlernende Lastverteilung" beschrieben wird. In dieser Schulung lernen Sie am praktischen Beispiel die grundlegenden Funktionen von Ceph und seinen Komponenten kennen. Und lernen welche Performance- und Betriebsaspekte zu beachten sind, bevor Ceph in den Produktionsbetrieb übernommen wird. Dazu kommt noch ein Block zur Integration von Ceph in OpenStack
Praktische Inhalte werden über virtuelle Instanzen in einer OpenStack Public-Cloud-Umgebung vermittelt. Dabei steht jedem Teilnehmer ein virtueller Ceph-Cluster zur Verfügung.
Trainer und Dozenten
Florian Haas ist seit 2011 aktives Mitglied der Ceph-Community, hat vielfach Kurse und Schulungen zum Thema abgehalten und ist eines der deutschsprachigen "Gesichter" von Ceph. Er hat über Ceph beim OpenStack Summit, bei LinuxCon Europe und am LinuxTag referiert, Kunden beim Einsatz von Ceph in verschiedensten Umgebungen unterstützt und alle Ecken und Kanten von Ceph genau kennengelernt.
Voraussetzungen
Sie sollten die Linux Grundlagen, wie z.B. die in unserem Kurs Linux Admin Grundlagen vermittelten Inhalte, gut beherrschen.
Erfahrung im Betrieb von Storage-Systemen ist von Vorteil; auch Detailkenntnisse über Dateisysteme und TCP/IP-Netzwerke sind hilfreich.
Inhalt
Ceph-Design und -Architektur
- Object Storage
- Distributed Storage
- Horizontale Skalierbarkeit
Ceph-Serverkomponenten
- Ceph Object Storage Daemons (OSDs)
- Ceph Monitoring-Server (MONs)
- Ceph Metadatenserver (MDSs)
Praktische Installation eines Ceph-Clusters
Verteilte Datenspeicherung in Ceph im Detail
- CRUSH-Algorithmus
- Einsatz von CRUSH für effiziente, hochverfügbare Datenspeicherung
- Bedeutung von Pools und Placement Groups (PGs)
Ceph-Authentifizierung und Security
- CephX-Identitäten
- Berechtigungen (Capabilities)
RADOS block device (RBD)
- RBD-Design
- Kernel RBD (rbd.ko)
- RBD-Integration in libvirt, Qemu/KVM and Cloudplattformen
RADOS Gateway (rgw)
- Installation
- Verwendung
Ceph-Dateisystem (CephFS)
- ceph-fuse
- Kernel CephFS
- libcephfs
Performance von Speichersystemen
- Performancemetriken and Benchmarks
- I/O-Subsystem-Performance
- Netzwerkperformance
- Einfluss von CPU und RAM
Messung der Performance von Ceph-Systemen
- Lokale I/O- und Netzwerk-Benchmarks
- Ceph OSD Benchmarks
- RADOS Benchmarks
- RBD Benchmarks
- CephFS Benchmarks
Ceph-Server-Performanceoptimierung
- OSD-Performanceoptimierung
- OSD-Filestores
- OSD-Journals und journal devices (inklusive: SSD-Performance und ihre Auswirkungen auf Ceph-Cluster)
- Optimierung der OSD-Datenverteilung
- MON-Performanceoptimierung
Ceph-Client-Performanceoptimierung
- RBD-Caching
- RBD/libvirt/qemu-kvm-Integration
Kurzer Einstieg in OpenStack
- Komponenten einer OpenStack Compute-Cloud: Keystone, Glance, Nova, Neutron, Horizon, Cinder
- Orchestriertes Deployment einer OpenStack Compute Cloud
Motivation für den Einsatz von Ceph in OpenStack-Umgebungen
Integration
- Integration von Ceph und OpenStack Glance
- Integration von Ceph und OpenStack Cinder
- Integration von Ceph und OpenStack Nova
- Betrieb eines Ceph-Clusters als Ersatz für OpenStack Swift
- Ceph Object Storage Daemons (OSDs)
- Ceph Monitoring-Server (MONs)
- Ceph Metadatenserver (MDSs)
Praktische Installation eines Ceph-Clusters
Verteilte Datenspeicherung in Ceph im Detail
- CRUSH-Algorithmus
- Einsatz von CRUSH für effiziente, hochverfügbare Datenspeicherung
- Bedeutung von Pools und Placement Groups (PGs)
Ceph-Authentifizierung und Security
- CephX-Identitäten
- Berechtigungen (Capabilities)
RADOS block device (RBD)
- RBD-Design
- Kernel RBD (rbd.ko)
- RBD-Integration in libvirt, Qemu/KVM and Cloudplattformen
RADOS Gateway (rgw)
- Installation
- Verwendung
Ceph-Dateisystem (CephFS)
- ceph-fuse
- Kernel CephFS
- libcephfs
Performance von Speichersystemen
- Performancemetriken and Benchmarks
- I/O-Subsystem-Performance
- Netzwerkperformance
- Einfluss von CPU und RAM
Messung der Performance von Ceph-Systemen
- Lokale I/O- und Netzwerk-Benchmarks
- Ceph OSD Benchmarks
- RADOS Benchmarks
- RBD Benchmarks
- CephFS Benchmarks
Ceph-Server-Performanceoptimierung
- OSD-Performanceoptimierung
- OSD-Filestores
- OSD-Journals und journal devices (inklusive: SSD-Performance und ihre Auswirkungen auf Ceph-Cluster)
- Optimierung der OSD-Datenverteilung
- MON-Performanceoptimierung
Ceph-Client-Performanceoptimierung
- RBD-Caching
- RBD/libvirt/qemu-kvm-Integration
Kurzer Einstieg in OpenStack
- Komponenten einer OpenStack Compute-Cloud: Keystone, Glance, Nova, Neutron, Horizon, Cinder
- Orchestriertes Deployment einer OpenStack Compute Cloud
Motivation für den Einsatz von Ceph in OpenStack-Umgebungen
Integration
- Integration von Ceph und OpenStack Glance
- Integration von Ceph und OpenStack Cinder
- Integration von Ceph und OpenStack Nova
- Betrieb eines Ceph-Clusters als Ersatz für OpenStack Swift
- CRUSH-Algorithmus
- Einsatz von CRUSH für effiziente, hochverfügbare Datenspeicherung
- Bedeutung von Pools und Placement Groups (PGs)
Ceph-Authentifizierung und Security
- CephX-Identitäten
- Berechtigungen (Capabilities)
RADOS block device (RBD)
- RBD-Design
- Kernel RBD (rbd.ko)
- RBD-Integration in libvirt, Qemu/KVM and Cloudplattformen
RADOS Gateway (rgw)
- Installation
- Verwendung
Ceph-Dateisystem (CephFS)
- ceph-fuse
- Kernel CephFS
- libcephfs
Performance von Speichersystemen
- Performancemetriken and Benchmarks
- I/O-Subsystem-Performance
- Netzwerkperformance
- Einfluss von CPU und RAM
Messung der Performance von Ceph-Systemen
- Lokale I/O- und Netzwerk-Benchmarks
- Ceph OSD Benchmarks
- RADOS Benchmarks
- RBD Benchmarks
- CephFS Benchmarks
Ceph-Server-Performanceoptimierung
- OSD-Performanceoptimierung
- OSD-Filestores
- OSD-Journals und journal devices (inklusive: SSD-Performance und ihre Auswirkungen auf Ceph-Cluster)
- Optimierung der OSD-Datenverteilung
- MON-Performanceoptimierung
Ceph-Client-Performanceoptimierung
- RBD-Caching
- RBD/libvirt/qemu-kvm-Integration
Kurzer Einstieg in OpenStack
- Komponenten einer OpenStack Compute-Cloud: Keystone, Glance, Nova, Neutron, Horizon, Cinder
- Orchestriertes Deployment einer OpenStack Compute Cloud
Motivation für den Einsatz von Ceph in OpenStack-Umgebungen
Integration
- Integration von Ceph und OpenStack Glance
- Integration von Ceph und OpenStack Cinder
- Integration von Ceph und OpenStack Nova
- Betrieb eines Ceph-Clusters als Ersatz für OpenStack Swift
- RBD-Design
- Kernel RBD (rbd.ko)
- RBD-Integration in libvirt, Qemu/KVM and Cloudplattformen
RADOS Gateway (rgw)
- Installation
- Verwendung
Ceph-Dateisystem (CephFS)
- ceph-fuse
- Kernel CephFS
- libcephfs
Performance von Speichersystemen
- Performancemetriken and Benchmarks
- I/O-Subsystem-Performance
- Netzwerkperformance
- Einfluss von CPU und RAM
Messung der Performance von Ceph-Systemen
- Lokale I/O- und Netzwerk-Benchmarks
- Ceph OSD Benchmarks
- RADOS Benchmarks
- RBD Benchmarks
- CephFS Benchmarks
Ceph-Server-Performanceoptimierung
- OSD-Performanceoptimierung
- OSD-Filestores
- OSD-Journals und journal devices (inklusive: SSD-Performance und ihre Auswirkungen auf Ceph-Cluster)
- Optimierung der OSD-Datenverteilung
- MON-Performanceoptimierung
Ceph-Client-Performanceoptimierung
- RBD-Caching
- RBD/libvirt/qemu-kvm-Integration
Kurzer Einstieg in OpenStack
- Komponenten einer OpenStack Compute-Cloud: Keystone, Glance, Nova, Neutron, Horizon, Cinder
- Orchestriertes Deployment einer OpenStack Compute Cloud
Motivation für den Einsatz von Ceph in OpenStack-Umgebungen
Integration
- Integration von Ceph und OpenStack Glance
- Integration von Ceph und OpenStack Cinder
- Integration von Ceph und OpenStack Nova
- Betrieb eines Ceph-Clusters als Ersatz für OpenStack Swift
- ceph-fuse
- Kernel CephFS
- libcephfs
Performance von Speichersystemen
- Performancemetriken and Benchmarks
- I/O-Subsystem-Performance
- Netzwerkperformance
- Einfluss von CPU und RAM
Messung der Performance von Ceph-Systemen
- Lokale I/O- und Netzwerk-Benchmarks
- Ceph OSD Benchmarks
- RADOS Benchmarks
- RBD Benchmarks
- CephFS Benchmarks
Ceph-Server-Performanceoptimierung
- OSD-Performanceoptimierung
- OSD-Filestores
- OSD-Journals und journal devices (inklusive: SSD-Performance und ihre Auswirkungen auf Ceph-Cluster)
- Optimierung der OSD-Datenverteilung
- MON-Performanceoptimierung
Ceph-Client-Performanceoptimierung
- RBD-Caching
- RBD/libvirt/qemu-kvm-Integration
Kurzer Einstieg in OpenStack
- Komponenten einer OpenStack Compute-Cloud: Keystone, Glance, Nova, Neutron, Horizon, Cinder
- Orchestriertes Deployment einer OpenStack Compute Cloud
Motivation für den Einsatz von Ceph in OpenStack-Umgebungen
Integration
- Integration von Ceph und OpenStack Glance
- Integration von Ceph und OpenStack Cinder
- Integration von Ceph und OpenStack Nova
- Betrieb eines Ceph-Clusters als Ersatz für OpenStack Swift
- Lokale I/O- und Netzwerk-Benchmarks
- Ceph OSD Benchmarks
- RADOS Benchmarks
- RBD Benchmarks
- CephFS Benchmarks
Ceph-Server-Performanceoptimierung
- OSD-Performanceoptimierung
- OSD-Filestores
- OSD-Journals und journal devices (inklusive: SSD-Performance und ihre Auswirkungen auf Ceph-Cluster)
- Optimierung der OSD-Datenverteilung
- MON-Performanceoptimierung
Ceph-Client-Performanceoptimierung
- RBD-Caching
- RBD/libvirt/qemu-kvm-Integration
Kurzer Einstieg in OpenStack
- Komponenten einer OpenStack Compute-Cloud: Keystone, Glance, Nova, Neutron, Horizon, Cinder
- Orchestriertes Deployment einer OpenStack Compute Cloud
Motivation für den Einsatz von Ceph in OpenStack-Umgebungen
Integration
- Integration von Ceph und OpenStack Glance
- Integration von Ceph und OpenStack Cinder
- Integration von Ceph und OpenStack Nova
- Betrieb eines Ceph-Clusters als Ersatz für OpenStack Swift
- RBD-Caching
- RBD/libvirt/qemu-kvm-Integration
Kurzer Einstieg in OpenStack
- Komponenten einer OpenStack Compute-Cloud: Keystone, Glance, Nova, Neutron, Horizon, Cinder
- Orchestriertes Deployment einer OpenStack Compute Cloud
Motivation für den Einsatz von Ceph in OpenStack-Umgebungen
Integration
- Integration von Ceph und OpenStack Glance
- Integration von Ceph und OpenStack Cinder
- Integration von Ceph und OpenStack Nova
- Betrieb eines Ceph-Clusters als Ersatz für OpenStack Swift
Integration
- Integration von Ceph und OpenStack Glance
- Integration von Ceph und OpenStack Cinder
- Integration von Ceph und OpenStack Nova
- Betrieb eines Ceph-Clusters als Ersatz für OpenStack Swift
Kurszeiten
Wer möchte, reist bis 22 Uhr am Vortag an und nutzt den Abend bereits zum Fachsimpeln am Kamin oder im Park.
An Kurstagen gibt es bei uns ab 8 Uhr Frühstück.
Unsere Kurse beginnen um 9 Uhr und enden um 18 Uhr.
Neben den kleinen Pausen gibt es eine Stunde Mittagspause mit leckerem, frisch in unserer Küche zubereitetem Essen.
Nach der Schulung anschließend Abendessen und Angebote für Fachsimpeln, Ausflüge uvm. Wir schaffen eine Atmosphäre, in der Fachleute sich ungezwungen austauschen. Wer das nicht will, wird zu nichts gezwungen und findet auch jederzeit Ruhe.
Termine und Anmeldung
-
10. Dezember, 3 Tage
Ceph - online anmelden -
25. Februar 2025, 3 Tage **
Ceph anmelden -
13. Mai 2025, 3 Tage
Ceph anmelden
Haben Sie einen anderen Wunschtermin?