Galileo Computing / Linux Hochverfügbarkeit
Einsatzszenarien und Praxislösungen. Lokale HA: BTRFS, RAID, LVM, NIC-Bonding und SMART. Linux HA-Cluster: Corosync/CMAN, Pacemaker, LVS, GFS2, OCFS2, GlusterFS, Ceph, DRBD 8/9, Storage-Cluster für vSphere/ESXi. Xen/KVM-VMs im Cluster, Ceph-RBD, Backup und Disaster Recovery
Hochverfügbarkeit ist ein zentrales und ebenso komplexes Thema für jeden Administrator. Profitieren Sie jetzt von den praxiserprobten Setup-Lösungen und dem technischen Background, die der langjährige Linux-Experte Oliver Liebel für Sie zusammengestellt...
Leider schon ausverkauft
Buch (Gebunden)
- Lastschrift, Kreditkarte, Paypal, Rechnung
- Kostenlose Rücksendung
Produktdetails
Produktinformationen zu „Galileo Computing / Linux Hochverfügbarkeit “
Klappentext zu „Galileo Computing / Linux Hochverfügbarkeit “
Hochverfügbarkeit ist ein zentrales und ebenso komplexes Thema für jeden Administrator. Profitieren Sie jetzt von den praxiserprobten Setup-Lösungen und dem technischen Background, die der langjährige Linux-Experte Oliver Liebel für Sie zusammengestellt hat. So sorgen Sie einfach und mit moderaten Hardware-Ressourcen dafür, dass Ihre Linux-Server lokal und im Netz stets hochverfügbar sind und zudem optimal skalieren. Das Buch beleuchtet die wichtigsten Aspekte der lokalen Hochverfügbarkeit und die Sicherstellung der Redundanz der wichtigsten Serverkomponenten: Disk-Monitoring mit SMART, SSD's und Hybrid-Disks im Server-Einsatz, ausfallsichere Bonding-Netzdevices, redundante (Soft-)Raids, skalierbare Logical Volumes, die Auswahl des passenden Linux-Journaling-Dateisystems und ausführliche Praxis-Einblicke in das kommende Standard-Dateisystem unter Linux das Raid-, Resizing- und Snapshot-Fähigkeiten in sich vereinigt: BTRFS.
Zur Sicherstellung der Hochverfügbarkeit auf Cluster-Ebene werden zahlreiche aktuelle und praxiserprobte Cluster-Setups mit Corosync/CMAN und Pacemaker anschaulich erläutert, das ganze ergänzt durch Storage-Verwaltung im Cluster: DRBD 8 und das neue DRBD 9.0 mit Mesh-/Multi-Node-Replication, traditionelle Cluster-Dateisysteme wie OCFS2 und GFS2, Distributed Storage Cluster mit GlusterFS, die "Next Generation" des Distributed Storage Clustering mit CEPH, und vieles andere mehr. Des Weiteren wird gezeigt, wie Pacemaker Cluster in verschiedenen Konfigurationen als hochskalierbare und -verfügbare Storage-Backends für vSphere/ESXi-Umgebungen eingesetzt werden können.
Zur optimalen Ausnutzung und Verfügbarkeit der Ressourcen wird zudem das Setup von virtuellen XEN- und KVM-Maschinen im Cluster und auf verschiedenen Storage-Backends, wie z.B. Ceph-RBD oder DRBD im Dual-Primary-Mode, eingängig erläutert, sowie deren Live-Migration, damit Sie die optimale Verfügbarkeit der VMs in jeder Situation sicherstellen können.
Aus dem
... mehr
Inhalt:
Die Fachpresse zur Vorauflage:
IT Administrator: »Der Administrator ist nach dieser Lektüre Garant für den unterbrechungsfreien Geschäftsablauf.«
SearchSecurity.de: »Ein wirklich lohnenswertes Buch für Linux-Admins im Unternehmen.«
- HA-Grundlagen
- Lokale Hochverfügbarkeit
- Raid, LVM, BTRFS, Snapshots
- HA-Cluster
- Corosync, Heartbeat, CMAN und Pacemaker
- Hot-Failover-Cluster
- Cluster-Administration, crm-Shell, pcs Stonith, Debugging, Backup/Disaster-Recovery
- HA-Storage-Cluster
- DRBD 8/9, GFS2, OCFS2, Ceph, Gluster, HA-Storage-Backends für VMware ESXi/vSphere
- VMs im Cluster
- Xen, KVM, VMs auf Ceph-RBD, Live-Migration im Cluster
Die Fachpresse zur Vorauflage:
IT Administrator: »Der Administrator ist nach dieser Lektüre Garant für den unterbrechungsfreien Geschäftsablauf.«
SearchSecurity.de: »Ein wirklich lohnenswertes Buch für Linux-Admins im Unternehmen.«
... weniger
Inhaltsverzeichnis zu „Galileo Computing / Linux Hochverfügbarkeit “
Vorwort ... 19
1. Mission Critical -- ausfallsichere Server ... 26
1.1 ... Grundsätzliche Überlegungen zur Redundanz ... 27
1.2 ... Tool-Time zum Ersten: Das richtige Werkzeug ... 34
Teil I -- Hochverfügbarkeit (HA) auf Server-Ebene ... 39
2. Lokale Hochverfügbarkeit ... 40
2.1 ... Vorbetrachtungen ... 40
2.2 ... Netzteile, CPUs und mehr ... 42
3. Lokaler Storage ... 74
3.1 ... Vorbetrachtungen ... 74
3.2 ... The road ahead -- SSDs im Servereinsatz ... 78
3.3 ... Disk-Überwachung: Clever mit SMART ... 83
4. Raid ... 90
4.1 ... Raid-Level ... 91
4.2 ... Exkurs: Raid-Kombilevel ... 97
4.3 ... Hard- oder Software-Raids ... 98
4.4 ... Softraids unter Linux ... 102
5. LVM -- Storage-Virtualisierung mit dem Logical Volume Manager ... 160
5.1 ... LVM -- How it works ... 161
5.2 ... Bitte lächeln -- Snapshots ... 173
5.3 ... Spieglein, Spieglein ... LVM-Raid statt unterliegendem Raid ... 183
6. BTRFS in der Praxis ... 194
6.1 ... BTRFS: Vorbetrachtungen ... 194
6.2 ... Ab in den Untergrund: Subvolumes ... 196
6.3 ... BTRFS-Datenvolumen: Redundanz, Resizing und Snapshots ... 197
6.4 ... BTRFS im Distributions-Einsatz als Root-FS/Subvolume ... 206
6.5 ... Fazit ... 217
Teil II -- Hochverfügbarkeits-Cluster ... 219
7. HA-Cluster -- Vorbetrachtungen ... 220
7.1 ... How it works ... 220
7.2 ... Clustertypen ... 221
7.3 ... Cluster-Reigen: n-Node Cluster ... 226
7.4 ... Cluster-Lobotomie: Split-Brain, Fencing und STONITH ... 226
7.5 ... Volksentscheid: Cluster-Quorum ... 229
7.6 ... Exkurs: Alles oder nichts -- Shared-all-/Shared-nothing-Cluster ... 230
8. HA-Basics ... 231
8.1 ... Ressourcen
... mehr
und Agenten ... 232
8.2 ... Alles eine Frage der Kommunikation: konzeptionelle ClusterÜbersicht ... 234
9. Clustersoftware ... 240
9.1 ... Heartbeat ... 240
9.2 ... Corosync ... 241
9.3 ... Pacemaker ... 244
9.4 ... Exkurs: CMAN und die roten Hüte ... 250
9.5 ... Installation der Cluster-spezifischen Software ... 251
10. NTPD -- The Time Machine ... 256
10.1 ... Setup ... 257
10.2 ... NTP in VMs ... 260
11. Setup der Cluster-Kommunikation ... 265
11.1 ... Corosync-Setup ... 267
11.2 ... Exkurs: CMAN ... 282
11.3 ... Heartbeat-Setup ... 285
12. Pacemaker ... 291
12.1 ... Der Cluster-Monitor crm_mon ... 292
12.2 ... First Contact ... 294
12.3 ... Tool-Time zum 2.: Cluster-Admin-Tools ... 301
13. Management von Cluster-Ressourcen ... 325
13.1 ... At your Service -- gestatten: Ihre Service-IP ... 326
13.2 ... Integration von Ressourcen, Teil 1: Service-IP ... 327
13.3 ... Örtlichkeiten -- Setzen von (Co-)Location-Constraints ... 336
13.4 ... Failover-Simulation und Klebrigkeiten ... 338
13.5 ... Schattenspielchen im Sandkasten -- Testsimulation mit crm_shadow ... 341
13.6 ... CIB-Templating ... 345
13.7 ... Ressourcen verwalten ... 346
13.8 ... Integration von Ressourcen, Teil 2: Apache ... 351
13.9 ... Colocation- und Ordering-Constraints in der Praxis ... 355
13.10 ... Gruppentherapie ... 367
13.11 ... Migration-Threshold und Failure-Timeout ... 369
13.12 ... Benutzerrechte und Zugriffskontrollen im Cluster ... 373
14. Cluster-Beispiele aus der Praxis ... 377
14.1 ... The Clone Wars -- Hot-Failover mit Clonesets ... 377
14.2 ... Hot-Failover-Webservices mit Apache-Cloneset und ServiceIP ... 379
14.3 ... Exkurs: Namensfragen -- SSL-/TLS-Verbindungen im FailoverFall ... 384
14.4 ... Die gleiche Hausnummer -- Hot-Failover Apache-Cloneset mit zwei identischen Cluster-IPs ... 385
14.5 ... Cephalopoden-Kunde, Teil 1: Failover-Proxy-Cluster mit Squid ... 391
14.6 ... Maximum HA-Scaling: Hochverfügbares, applikationsunabhängiges Loadbalancing im Cluster ... 396
14.7 ... »Geben Sie mir ein 'Ping', Wassili ...«: Voll vernetzt -- die ping-/pingd-Ressource ... 418
14.8 ... Inspector Gadget -- Ressourcen-Platzierung auf Basis von nodespezifischen System-Informationen ... 425
14.9 ... Gruppentherapie zum Zweiten -- Failover einer Samba-3-Ressource ... 429
15. Pacemaker 1.1.8, Corosync 2.x und pcs ... 446
15.1 ... Vorbetrachtungen ... 446
15.2 ... Corosync-Konfiguration per pcs ... 447
15.3 ... Fire it up ... ... 450
15.4 ... Pacemaker-Konfiguration per pcs ... 451
16. ... und noch einmal Tool-Time: Eigene OCF-Ressource-Agenten erstellen ... 455
16.1 ... Vorbetrachtungen ... 455
Teil III -- Hochverfügbare Storage-Cluster ... 461
17. Ausfallsichere Shared-Nothing-Cluster mit DRBD ... 462
17.1 ... DRBD -- Vorbetrachtungen ... 463
17.2 ... DRBD-Standalone-Setup ... 470
17.3 ... DRBD-Master/Slave-Ressource im S3/LDAP-Cluster ... 484
17.4 ... Schnappschüsse zum Zweiten: DRBD-Backups per BTRFS oder LVM ... 491
17.5 ... To Clone or not to DRBD -- hochverfügbare MySQL-Cluster ... 499
17.6 ... Exkurs: Groß und wenig -- oder lieber klein und viel? Cluster-Storage-Export via NFS oder iSCSI ... 509
17.7 ... DRBD-Master/Slave mit NFS-Clone als hochverfügbares Storage-Backend für VMware vSphere/ESXi-Hosts ... 510
17.8 ... DRBD Dual-Primary Mode ... 516
17.9 ... Cluster-Dateisysteme ... 523
17.10 ... Die Cluster-FS-»Klassiker«: GFS2 und OCFS2 ... 527
17.11 ... Pacemaker und Cluster-Filesysteme ... 528
17.12 ... DRBD Dual-Primary mit OCFS2 im Pacemaker-Stack als S3-Storage-Backend ... 531
17.13 ... DRBD Dual-Primary mit OCFS2 im eigenen O2CB-Stack ... 542
17.14 ... DRBD Dual-Primary mit OCFS2 im CMAN-Stack ... 546
17.15 ... Bitte lächeln -- Teil 3: Snapshots und Resizing mit DRBD DualPrimary und OCFS2 ... 547
17.16 ... DRBD Dual-Primary mit OCFS2 und CLVM ... 551
17.17 ... DRBD Dual-Primary mit GFS2 ... 558
17.18 ... DRBD Dual-Primary mit GFS2 und NFS-Clone als Hot-Failover Storage-Backend für VMware ESXi/vSphere -- Hosts ... 561
17.19 ... DRBD-Online-Device-Verification ... 565
17.20 ... DRBD Replication Traffic Integrity Checking ... 566
17.21 ... Stacked Fun? ... 567
18. The Road ahead -- DRBD 9.x ... 568
18.1 ... Setup ... 569
18.2 ... DRBD 9 -- Fazit ... 573
19. Gerechte Verteilung -- Distributed Storage Cluster mit GlusterFS und Ceph ... 575
19.1 ... Hoch? Oder lieber breit? Scale-Out anstelle von Scale-Up ... 577
19.2 ... GlusterFS ... 578
19.3 ... Ceph(FS) ... 578
20. Alles nur Kopfsache -- Distributed Storage Cluster mit Ceph ... 580
20.1 ... Vorbetrachtung ... 580
20.2 ... Setup und Verwaltung unseres Ceph-Clusters ... 587
20.3 ... Troubleshooting und Debugging ... 625
20.4 ... Rhythmischer Octopus -- Ceph/Samba 4 Storage Cluster ... 627
20.5 ... Hochverfügbares Ceph-RBD-Storage-Backend für S4 ... 642
21. Distributed Storage Cluster mit GlusterFS ... 647
21.1 ... GlusterFS -- Installationsvoraussetzungen ... 648
21.2 ... Setup der Gluster-Nodes ... 649
21.3 ... Pacemaker-Integration von Gluster ... 655
21.4 ... Begegnung der dritten Art: UFO -- Objektbasierter Gluster-Storage ... 658
22. Geo-Site-/Multi-Site-(DFS-)Cluster für Datacenter ... 659
22.1 ... Konzeptionelles Setup einer 2-Datacenter-Ceph-Multi-Site-Replication via LAN ... 660
22.2 ... Geo-Replication mit Gluster ... 666
22.3 ... Ticket am Start? Geo-Site-/Multi-Site-Cluster mit Tickets und Boothd ... 668
22.4 ... Cluster-Storage -- Fazit ... 672
23. iSCSI im Cluster ... 675
23.1 ... iSCSI-Basics ... 675
23.2 ... Setup der iSCSI-Ressourcen (DRBD im Primary/Secondary) ... 676
23.3 ... Einrichtung des iSCSI-Initiators ... 679
23.4 ... DRBD-Master/Slave mit iSCSITarget als hochverfügbarem Storage-Backend für VMware ESXi/vSphere-Hosts ... 682
23.5 ... DRBD im DualPrimary mit Cluster-FS als iSCSITarget für multiple Initiatoren ... 685
23.6 ... Ceph/RBD als hochredundantes iSCSITarget ... 687
Teil IV -- STONITH und Debugging im Cluster ... 689
24. Node-Fencing mit STONITH ... 690
24.1 ... Vorbetrachtungen ... 690
24.2 ... Einfaches STONITH-Test-Setup mit external/ssh ... 691
24.3 ... Watchdog ... 695
24.4 ... SBD -- STONITH per Split-Brain-Detector ... 695
24.5 ... Quorum-Disk ... 697
24.6 ... STONITH per external/ibmrsa-telnet ... 702
24.7 ... STONITH per external/riloe und external/ipmi ... 704
24.8 ... Fencing von virtualisierten Pacemaker-Clusternodes auf ESXi/vSphere-Hosts ... 705
25. Debugging im Cluster ... 711
26. Virtualisierung im Cluster ... 718
26.1 ... Virtualisierungskonzepte -- oder: Die wundersame Welt der Zwiebel ... 721
26.2 ... Xen ... 725
26.3 ... KVM/qemu ... 752
27. Backup und Disaster Recovery ... 774
27.1 ... Analyse ... 775
27.2 ... Umsetzung ... 777
Anhang ... 791
A.1 ... Beispieldateien ... 791
A.2 ... Paketlisten ... 791
A.3 ... Manpages ... 807
Index ... 831
8.2 ... Alles eine Frage der Kommunikation: konzeptionelle ClusterÜbersicht ... 234
9. Clustersoftware ... 240
9.1 ... Heartbeat ... 240
9.2 ... Corosync ... 241
9.3 ... Pacemaker ... 244
9.4 ... Exkurs: CMAN und die roten Hüte ... 250
9.5 ... Installation der Cluster-spezifischen Software ... 251
10. NTPD -- The Time Machine ... 256
10.1 ... Setup ... 257
10.2 ... NTP in VMs ... 260
11. Setup der Cluster-Kommunikation ... 265
11.1 ... Corosync-Setup ... 267
11.2 ... Exkurs: CMAN ... 282
11.3 ... Heartbeat-Setup ... 285
12. Pacemaker ... 291
12.1 ... Der Cluster-Monitor crm_mon ... 292
12.2 ... First Contact ... 294
12.3 ... Tool-Time zum 2.: Cluster-Admin-Tools ... 301
13. Management von Cluster-Ressourcen ... 325
13.1 ... At your Service -- gestatten: Ihre Service-IP ... 326
13.2 ... Integration von Ressourcen, Teil 1: Service-IP ... 327
13.3 ... Örtlichkeiten -- Setzen von (Co-)Location-Constraints ... 336
13.4 ... Failover-Simulation und Klebrigkeiten ... 338
13.5 ... Schattenspielchen im Sandkasten -- Testsimulation mit crm_shadow ... 341
13.6 ... CIB-Templating ... 345
13.7 ... Ressourcen verwalten ... 346
13.8 ... Integration von Ressourcen, Teil 2: Apache ... 351
13.9 ... Colocation- und Ordering-Constraints in der Praxis ... 355
13.10 ... Gruppentherapie ... 367
13.11 ... Migration-Threshold und Failure-Timeout ... 369
13.12 ... Benutzerrechte und Zugriffskontrollen im Cluster ... 373
14. Cluster-Beispiele aus der Praxis ... 377
14.1 ... The Clone Wars -- Hot-Failover mit Clonesets ... 377
14.2 ... Hot-Failover-Webservices mit Apache-Cloneset und ServiceIP ... 379
14.3 ... Exkurs: Namensfragen -- SSL-/TLS-Verbindungen im FailoverFall ... 384
14.4 ... Die gleiche Hausnummer -- Hot-Failover Apache-Cloneset mit zwei identischen Cluster-IPs ... 385
14.5 ... Cephalopoden-Kunde, Teil 1: Failover-Proxy-Cluster mit Squid ... 391
14.6 ... Maximum HA-Scaling: Hochverfügbares, applikationsunabhängiges Loadbalancing im Cluster ... 396
14.7 ... »Geben Sie mir ein 'Ping', Wassili ...«: Voll vernetzt -- die ping-/pingd-Ressource ... 418
14.8 ... Inspector Gadget -- Ressourcen-Platzierung auf Basis von nodespezifischen System-Informationen ... 425
14.9 ... Gruppentherapie zum Zweiten -- Failover einer Samba-3-Ressource ... 429
15. Pacemaker 1.1.8, Corosync 2.x und pcs ... 446
15.1 ... Vorbetrachtungen ... 446
15.2 ... Corosync-Konfiguration per pcs ... 447
15.3 ... Fire it up ... ... 450
15.4 ... Pacemaker-Konfiguration per pcs ... 451
16. ... und noch einmal Tool-Time: Eigene OCF-Ressource-Agenten erstellen ... 455
16.1 ... Vorbetrachtungen ... 455
Teil III -- Hochverfügbare Storage-Cluster ... 461
17. Ausfallsichere Shared-Nothing-Cluster mit DRBD ... 462
17.1 ... DRBD -- Vorbetrachtungen ... 463
17.2 ... DRBD-Standalone-Setup ... 470
17.3 ... DRBD-Master/Slave-Ressource im S3/LDAP-Cluster ... 484
17.4 ... Schnappschüsse zum Zweiten: DRBD-Backups per BTRFS oder LVM ... 491
17.5 ... To Clone or not to DRBD -- hochverfügbare MySQL-Cluster ... 499
17.6 ... Exkurs: Groß und wenig -- oder lieber klein und viel? Cluster-Storage-Export via NFS oder iSCSI ... 509
17.7 ... DRBD-Master/Slave mit NFS-Clone als hochverfügbares Storage-Backend für VMware vSphere/ESXi-Hosts ... 510
17.8 ... DRBD Dual-Primary Mode ... 516
17.9 ... Cluster-Dateisysteme ... 523
17.10 ... Die Cluster-FS-»Klassiker«: GFS2 und OCFS2 ... 527
17.11 ... Pacemaker und Cluster-Filesysteme ... 528
17.12 ... DRBD Dual-Primary mit OCFS2 im Pacemaker-Stack als S3-Storage-Backend ... 531
17.13 ... DRBD Dual-Primary mit OCFS2 im eigenen O2CB-Stack ... 542
17.14 ... DRBD Dual-Primary mit OCFS2 im CMAN-Stack ... 546
17.15 ... Bitte lächeln -- Teil 3: Snapshots und Resizing mit DRBD DualPrimary und OCFS2 ... 547
17.16 ... DRBD Dual-Primary mit OCFS2 und CLVM ... 551
17.17 ... DRBD Dual-Primary mit GFS2 ... 558
17.18 ... DRBD Dual-Primary mit GFS2 und NFS-Clone als Hot-Failover Storage-Backend für VMware ESXi/vSphere -- Hosts ... 561
17.19 ... DRBD-Online-Device-Verification ... 565
17.20 ... DRBD Replication Traffic Integrity Checking ... 566
17.21 ... Stacked Fun? ... 567
18. The Road ahead -- DRBD 9.x ... 568
18.1 ... Setup ... 569
18.2 ... DRBD 9 -- Fazit ... 573
19. Gerechte Verteilung -- Distributed Storage Cluster mit GlusterFS und Ceph ... 575
19.1 ... Hoch? Oder lieber breit? Scale-Out anstelle von Scale-Up ... 577
19.2 ... GlusterFS ... 578
19.3 ... Ceph(FS) ... 578
20. Alles nur Kopfsache -- Distributed Storage Cluster mit Ceph ... 580
20.1 ... Vorbetrachtung ... 580
20.2 ... Setup und Verwaltung unseres Ceph-Clusters ... 587
20.3 ... Troubleshooting und Debugging ... 625
20.4 ... Rhythmischer Octopus -- Ceph/Samba 4 Storage Cluster ... 627
20.5 ... Hochverfügbares Ceph-RBD-Storage-Backend für S4 ... 642
21. Distributed Storage Cluster mit GlusterFS ... 647
21.1 ... GlusterFS -- Installationsvoraussetzungen ... 648
21.2 ... Setup der Gluster-Nodes ... 649
21.3 ... Pacemaker-Integration von Gluster ... 655
21.4 ... Begegnung der dritten Art: UFO -- Objektbasierter Gluster-Storage ... 658
22. Geo-Site-/Multi-Site-(DFS-)Cluster für Datacenter ... 659
22.1 ... Konzeptionelles Setup einer 2-Datacenter-Ceph-Multi-Site-Replication via LAN ... 660
22.2 ... Geo-Replication mit Gluster ... 666
22.3 ... Ticket am Start? Geo-Site-/Multi-Site-Cluster mit Tickets und Boothd ... 668
22.4 ... Cluster-Storage -- Fazit ... 672
23. iSCSI im Cluster ... 675
23.1 ... iSCSI-Basics ... 675
23.2 ... Setup der iSCSI-Ressourcen (DRBD im Primary/Secondary) ... 676
23.3 ... Einrichtung des iSCSI-Initiators ... 679
23.4 ... DRBD-Master/Slave mit iSCSITarget als hochverfügbarem Storage-Backend für VMware ESXi/vSphere-Hosts ... 682
23.5 ... DRBD im DualPrimary mit Cluster-FS als iSCSITarget für multiple Initiatoren ... 685
23.6 ... Ceph/RBD als hochredundantes iSCSITarget ... 687
Teil IV -- STONITH und Debugging im Cluster ... 689
24. Node-Fencing mit STONITH ... 690
24.1 ... Vorbetrachtungen ... 690
24.2 ... Einfaches STONITH-Test-Setup mit external/ssh ... 691
24.3 ... Watchdog ... 695
24.4 ... SBD -- STONITH per Split-Brain-Detector ... 695
24.5 ... Quorum-Disk ... 697
24.6 ... STONITH per external/ibmrsa-telnet ... 702
24.7 ... STONITH per external/riloe und external/ipmi ... 704
24.8 ... Fencing von virtualisierten Pacemaker-Clusternodes auf ESXi/vSphere-Hosts ... 705
25. Debugging im Cluster ... 711
26. Virtualisierung im Cluster ... 718
26.1 ... Virtualisierungskonzepte -- oder: Die wundersame Welt der Zwiebel ... 721
26.2 ... Xen ... 725
26.3 ... KVM/qemu ... 752
27. Backup und Disaster Recovery ... 774
27.1 ... Analyse ... 775
27.2 ... Umsetzung ... 777
Anhang ... 791
A.1 ... Beispieldateien ... 791
A.2 ... Paketlisten ... 791
A.3 ... Manpages ... 807
Index ... 831
... weniger
Autoren-Porträt von Oliver Liebel
Dipl.-Ing. Oliver Liebel ist LPI-zertifizierter Linux-Enterprise-Experte undoffizieller Business Partner von SUSE und Red Hat. Als Dozent, Autor, Berater und Projektleiter ist er seit vielen Jahren für namhafte Unternehmen, internationale Konzerne und Institutionen auf Landes- und Bundesebene tätig. Dabei blickt er auf 25 Jahre Berufserfahrung zurück.
Bibliographische Angaben
- Autor: Oliver Liebel
- 2013, 2., erw. Aufl., 848 Seiten, Maße: 17,4 x 24,6 cm, Gebunden, Deutsch
- Verlag: Galileo Computing
- ISBN-10: 3836225425
- ISBN-13: 9783836225427
- Erscheinungsdatum: 27.09.2013
Rezension zu „Galileo Computing / Linux Hochverfügbarkeit “
»Das Buch ist für Linux-Profis geschrieben und für diese auch sehr gut geeignet. Man merkt deutlich, dass der Autor viel Erfahrung und Wissen zu diesem Thema hat. Besonders muss man hier die vielen Praxisbeispiele hervorheben, die das Buch von Anfang bis Ende durchziehen und spannend, interessant und sehr hilfreich sind. Das Stichwortverzeichnis ist für den Buchumfang sehr gut und man findet die entsprechenden Stellen schnell. Der Titel kann als umfassender Leitfaden und als Referenzwerk für HA-Clustering und HA-Storage-Clustering unter Linux genannt werden.« freiesMagazin 201312
Pressezitat
»Das Buch ist für Linux-Profis geschrieben und für diese auch sehr gut geeignet. Man merkt deutlich, dass der Autor viel Erfahrung und Wissen zu diesem Thema hat. Besonders muss man hier die vielen Praxisbeispiele hervorheben, die das Buch von Anfang bis Ende durchziehen und spannend, interessant und sehr hilfreich sind. Das Stichwortverzeichnis ist für den Buchumfang sehr gut und man findet die entsprechenden Stellen schnell. Der Titel kann als umfassender Leitfaden und als Referenzwerk für HA-Clustering und HA-Storage-Clustering unter Linux genannt werden.« freiesMagazin 201312
Kommentar zu "Galileo Computing / Linux Hochverfügbarkeit"
0 Gebrauchte Artikel zu „Galileo Computing / Linux Hochverfügbarkeit“
Zustand | Preis | Porto | Zahlung | Verkäufer | Rating |
---|
Schreiben Sie einen Kommentar zu "Galileo Computing / Linux Hochverfügbarkeit".
Kommentar verfassen