Istotnym aspektem obsługi każdej aplikacji jest możliwość obserwowania stanu aplikacji i jej wydajności oraz infrastruktury bazowej w celu szybkiego rozwiązywania problemów w miarę ich pojawiania się.
Google Kubernetes Engine (GKE)
Google Kubernetes Engine (GKE) to jedno z najbardziej zaawansowanych rozwiązań do zarządzania aplikacjami kontenerowymi. Zapewnia najwięcej funkcji i zautomatyzowanych opcji w porównaniu z konkurencyjnymi usługami.
Główne zalety GKE
– intuicyjny pulpit nawigacyjny zintegrowany z monitoringiem (Stackdriver),
– automatyczne uaktualnienia panelu kontrolnego i węzłów,
– automatyczna naprawa węzłów,
– najbardziej rozbudowane rozwiązanie do automatycznego skalowania,
– funkcje zarządzania tożsamością i dostępem, które pozwalają lepiej chronić wrażliwe obciążenia,
– usługa autopilot upraszczająca tworzenie i zarządzanie klastrami.
Ale jak GKE pomoże w monitorowaniu usług…
Google Kubernetes Engine (GKE) już teraz zapewnia dzienniki audytu, dzienniki operacyjne i metryki wraz z pulpitami i automatycznym raportowaniem błędów, aby ułatwić uruchamianie niezawodnych aplikacji. Korzystając z tych dzienników i metryk, Cloud Operations zapewnia alerty, pulpity monitorujące i eksplorator dzienników, aby szybko wykrywać i rozwiązywać problemy.
Wprowadzenie do metryk płaszczyzny kontrolnej Kubernetes
Oprócz tych istniejących źródeł danych telemetrycznych, Google udostępniło metryki płaszczyzny kontrolnej Kubernetes, które są teraz ogólnie dostępne. Dzięki GKE, Google w pełni zarządza płaszczyzną kontrolną Kubernetes, jednak podczas rozwiązywania problemów pomocny może być dostęp do pewnych metryk emitowanych przez płaszczyznę kontrolną Kubernetes.
Google w swojej wizji chce uczynić Kubernetes łatwiejszym w użyciu i łatwiejszym w obsłudze, te metryki płaszczyzny kontrolnej są bezpośrednio zintegrowane z Cloud Monitoring, więc nie trzeba zarządzać żadną konfiguracją zbierania metryk lub scrape.
Na przykład, aby zrozumieć czy poprawnie działa serwer API, możesz użyć metryk takich jak apiserver_request_total i apiserver_request_duration_seconds, aby śledzić obciążenie serwera API, frakcję żądań serwera API, które zwracają błędy, oraz opóźnienie odpowiedzi dla żądań otrzymanych przez serwer API. Również apiserver_storage_objects może być bardzo przydatny do monitorowania obciążenia serwera API, zwłaszcza jeśli używasz niestandardowych kontrolerów. Rozbicie tej metryki według etykiety zasobów, pozwala dowiedzieć się, który niestandardowy zasób Kubernetes lub kontroler jest problematyczny. To tylko jedno z zastosowań.
Metryki płaszczyzny kontrolnej Kubernetes mogą być również skonfigurowane za pomocą Terraform.
amb software specjalizuje się w rozwiązaniach chmurowych.
Jesteśmy oficjalnym Partnerem Google Cloud
Jeśli szukasz zaufanego partnera IT, jesteśmy do Twojej dyspozycji.
Chętnie odpowiemy na wszelkie pytania.