Bewertung:

Derzeit gibt es keine Leserbewertungen. Die Bewertung basiert auf 6 Stimmen.
Beginning Kubernetes on the Google Cloud Platform: A Guide to Automating Application Deployment, Scaling, and Management
Kapitel 1: Einführung
Einrichten eines Clusters.
Auflisten von Clustern.
Löschen eines Clusters.
Anmeldeinformationen abrufen.
Installieren von Kubectl.
Überprüfen der Kubectl-Version.
GCE-Anmeldeinformationen verwenden.
Cluster und Knoten.
Knoten.
Ressourcenkonsum der Knoten.
Hello World-Anwendung.
Kapitel 2: Pods
Der schnellste Weg, einen Pod zu starten.
Starten eines einzelnen Pods.
Starten eines Sigle-Pods zur Ausführung eines Befehls.
Interaktives Ausführen eines Pods.
Mit einem vorhandenen Pod interagieren.
Abrufen und Verfolgen von Pod-Protokollen.
Mit dem TCP-Port eines Pods interagieren.
Übertragen von Dateien von und zu einem Pod.
Auswählen des Containers eines Pods.
Fehlersuche bei Pods.
Pod-Manifeste.
Deklarieren der Netzwerk-Ports von Containern.
Die Umgebung des Containers einrichten.
Überschreiben des Container-Befehls.
Verwalten der CPU- und RAM-Anforderungen von Containern.
Pod-Volumes und Volume-Mounts.
Externe Volumes und Google Cloud Storage.
Pod-Zustand und Lebenszyklus.
Namespaces.
Bezeichnungen.
Anmerkungen.
Kapitel 3: Bereitstellungen und Skalierung
ReplicaSets.
Unser erstes Deployment.
Mehr über das Auflisten von Deployments.
Manifeste für Einsätze.
Überwachung und Kontrolle einer Bereitstellung.
Ermitteln der ReplicaSets einer Bereitstellung.
Ermitteln der Pods eines ReplicaSets.
Löschen von Einsätzen.
Revisionsverfolgung gegenüber reinen Skalierungseinsätzen.
Einsätze neu erstellen.
Rolling-Update-Bereitstellungen.
Die Vor- und Nachteile eines höheren MaxSurge-Wertes.
Die Vor- und Nachteile eines hohen MaxUnavailable-Werts.
Blue/Green-Bereitstellungen.
Zusammenfassung der Einstellungen für MaxSurge und MaxUnavailability.
Kontrollierte Einsätze.
Rollout-Verlauf.
Zurückrollen von Bereitstellungen.
Der horizontale Pod-Autoscaler.
Einrichten von Autoscaling.
Beobachtung von Autoscaling in Aktion.
Die Skalierung des Kubernetes-Clusters selbst.
Kapitel 4: Service-Erkennung
Einführung.
Der Dienst-Controller.
Die IP-Adressen von Pods finden.
Zugriff auf einen Pod aus einem anderen Pod heraus.
Zugriff auf Pod(s) aus einem LAN.
Zugriff auf Pods aus dem Internet.
Auflisten aller laufenden Dienste.
Löschen eines Dienstes.
Zugriff auf Dienste in verschiedenen Namensräumen.
Dienste auf einem anderen Port freigeben.
Warten auf die Zuweisung einer öffentlichen IP-Adresse.
Canary-Versionen.
Canary-Releases und inkonsistente Versionsstände.
Mehrere Ports freigeben.
Anständiges Starten und Herunterfahren.
Zero-Downtime-Einsätze.
Endpunkte von Pods.
Auflistung und Löschung von Diensten.
Kapitel 5: ConfigMap und Geheimnisse
Speichern von Konfigurationseigenschaften in Kubernetes.
Automatisches Abrufen neuer Konfigurationen.
Ausgewählte Eigenschaften aus einer ConfigMap auswählen.
Übergabe von ConfigMap-Werten an die Startargumente eines Pods?
Aktualisieren einer ConfigMap.
Laden der Eigenschaften einer ConfigMap aus einer Datei.
Speichern von großem Text in einer ConfigMap.
Abrufen einer großen Datei, die in einer ConfigMap gespeichert ist.
ConfigMap-Aktualisierungen.
Speichern von Binärdaten.
Geheimnisse.
Unterschied zwischen ConfigMap- und Secret-Objekten.
Lesen von Eigenschaften aus Secrets.
Docker Registry Anmeldeinformationen.
Öffentliches TLS-Schlüssel-Paar.
Auflisten und Löschen von ConfigMap- und Secret-Objekten.
Kapitel 6: Jobs
Einmaliger Prozess.
Mehrere unabhängige Prozesse.
Mehrere koordinierte Prozesse.
Erweiterte Batch-Skalierung und -Kontrolle.
Warten, bis ein Auftrag abgeschlossen ist.
Zeitüberschreitung bei festgefahrenen Aufträgen.
Andere Neustart-Policies.
Verwaltung und Löschung von Aufträgen.
Nachbereitung.
Kapitel 7: CronJobs
Der einfachst mögliche CronJob.