Zum Inhalt springen

Ingress Controller

Ein Ingress Controller verwaltet den externen HTTP/HTTPS-Zugriff auf Services in einem Kubernetes-Cluster über regelbasiertes Routing.

Was ist ein Ingress Controller?

Ein Ingress Controller ist eine Kubernetes-Komponente, die den eingehenden HTTP/HTTPS-Traffic von außen in den Cluster leitet. Er wertet Ingress-Ressourcen aus – Kubernetes-Objekte, die definieren, wie externe Anfragen an interne Services geroutet werden. Ohne Ingress Controller bleiben Ingress-Ressourcen wirkungslos.

Wie funktioniert ein Ingress Controller?

Der Ingress Controller läuft als Pod im Cluster und überwacht Ingress-Ressourcen. Er konfiguriert dynamisch einen Reverse Proxy (z. B. NGINX, Envoy, Traefik), der eingehende Anfragen anhand von Host-basierten oder pfadbasierten Regeln an die entsprechenden Services weiterleitet.

Routing-Möglichkeiten

  • Host-basiertes Routing: api.example.com → API-Service, shop.example.com → Shop-Service
  • Pfad-basiertes Routing: /api/* → Backend-Service, /static/* → Frontend-Service
  • TLS-Terminierung: SSL/TLS-Zertifikate zentral am Ingress verwalten
  • Traffic-Splitting: Gewichtetes Routing für Canary Deployments

Populäre Ingress Controller

NGINX Ingress Controller ist der am weitesten verbreitete und wird von der Kubernetes-Community gepflegt. Traefik bietet automatische Let's-Encrypt-Integration und ein Dashboard. HAProxy und Envoy (als Basis für Istio) sind Alternativen für Hochlast-Szenarien.

TLS und Zertifikate

In Kombination mit cert-manager automatisiert der Ingress Controller die Ausstellung und Erneuerung von TLS-Zertifikaten über Let's Encrypt. Cert-manager erstellt automatisch Certificate-Ressourcen basierend auf Ingress-Annotationen – kein manuelles Zertifikatsmanagement mehr.

Ingress vs. Gateway API

Die Kubernetes Gateway API ist der Nachfolger der Ingress-Ressource und bietet erweiterte Features wie Traffic-Policies, Cross-Namespace-Routing und mehr Rollendifferenzierung. Neue Projekte sollten prüfen, ob die Gateway API die bessere Wahl ist. Viele Ingress Controller unterstützen bereits beide Ansätze.

Best Practices

  • Nutze Rate Limiting und Request-Size-Limits zum Schutz vor Überlastung
  • Konfiguriere Health Checks und Readiness Probes für Backend-Services
  • Aktiviere Access Logging für Debugging und Compliance
  • Nutze Annotations sparsam und dokumentiert
  • Separiere Ingress-Ressourcen pro Team oder Namespace

Warum devRocks?

Wir konfigurieren und betreiben Ingress Controller, die sicher, performant und hochverfügbar sind. Von der Auswahl des richtigen Controllers über die TLS-Konfiguration bis zum Traffic-Management für Canary Deployments übernehmen wir das komplette Routing-Setup deines Clusters.

Häufig gestellte Fragen zu Ingress Controller

NGINX Ingress Controller ist der Standardwahl für die meisten Szenarien. Traefik eignet sich für einfacheres Management mit Auto-TLS. Für Service-Mesh-Integration empfehlen wir Envoy-basierte Controller wie Istio Gateway.

Ja, der Ingress Controller benötigt einen vorgeschalteten Load Balancer (Layer 4), der den Traffic an die Ingress-Controller-Pods verteilt. In Cloud-Umgebungen wird dieser automatisch über Service-Typ LoadBalancer provisioniert.

Aktiviere TLS-Terminierung, konfiguriere Rate Limiting, beschränke erlaubte HTTP-Methoden, nutze ModSecurity als WAF und aktualisiere regelmäßig auf die neueste Version.

Service-Typ LoadBalancer erstellt für jeden Service einen eigenen Cloud-Load-Balancer (teuer). Ingress bündelt den Traffic über einen einzigen Load Balancer und routet intern basierend auf Regeln.

Interesse geweckt?

Lassen Sie uns über Ihr Projekt sprechen. Wir beraten Sie gerne unverbindlich.

Kontakt aufnehmen

Zuletzt aktualisiert: April 2026