Ingress Controller
Ein Ingress Controller verwaltet den externen HTTP/HTTPS-Zugriff auf Services in einem Kubernetes-Cluster über regelbasiertes Routing.
Was ist ein Ingress Controller?
Ein Ingress Controller ist eine Kubernetes-Komponente, die den eingehenden HTTP/HTTPS-Traffic von außen in den Cluster leitet. Er wertet Ingress-Ressourcen aus – Kubernetes-Objekte, die definieren, wie externe Anfragen an interne Services geroutet werden. Ohne Ingress Controller bleiben Ingress-Ressourcen wirkungslos.
Wie funktioniert ein Ingress Controller?
Der Ingress Controller läuft als Pod im Cluster und überwacht Ingress-Ressourcen. Er konfiguriert dynamisch einen Reverse Proxy (z. B. NGINX, Envoy, Traefik), der eingehende Anfragen anhand von Host-basierten oder pfadbasierten Regeln an die entsprechenden Services weiterleitet.
Routing-Möglichkeiten
- Host-basiertes Routing: api.example.com → API-Service, shop.example.com → Shop-Service
- Pfad-basiertes Routing: /api/* → Backend-Service, /static/* → Frontend-Service
- TLS-Terminierung: SSL/TLS-Zertifikate zentral am Ingress verwalten
- Traffic-Splitting: Gewichtetes Routing für Canary Deployments
Populäre Ingress Controller
NGINX Ingress Controller ist der am weitesten verbreitete und wird von der Kubernetes-Community gepflegt. Traefik bietet automatische Let's-Encrypt-Integration und ein Dashboard. HAProxy und Envoy (als Basis für Istio) sind Alternativen für Hochlast-Szenarien.
TLS und Zertifikate
In Kombination mit cert-manager automatisiert der Ingress Controller die Ausstellung und Erneuerung von TLS-Zertifikaten über Let's Encrypt. Cert-manager erstellt automatisch Certificate-Ressourcen basierend auf Ingress-Annotationen – kein manuelles Zertifikatsmanagement mehr.
Ingress vs. Gateway API
Die Kubernetes Gateway API ist der Nachfolger der Ingress-Ressource und bietet erweiterte Features wie Traffic-Policies, Cross-Namespace-Routing und mehr Rollendifferenzierung. Neue Projekte sollten prüfen, ob die Gateway API die bessere Wahl ist. Viele Ingress Controller unterstützen bereits beide Ansätze.
Best Practices
- Nutze Rate Limiting und Request-Size-Limits zum Schutz vor Überlastung
- Konfiguriere Health Checks und Readiness Probes für Backend-Services
- Aktiviere Access Logging für Debugging und Compliance
- Nutze Annotations sparsam und dokumentiert
- Separiere Ingress-Ressourcen pro Team oder Namespace
Warum devRocks?
Wir konfigurieren und betreiben Ingress Controller, die sicher, performant und hochverfügbar sind. Von der Auswahl des richtigen Controllers über die TLS-Konfiguration bis zum Traffic-Management für Canary Deployments übernehmen wir das komplette Routing-Setup deines Clusters.
Häufig gestellte Fragen zu Ingress Controller
NGINX Ingress Controller ist der Standardwahl für die meisten Szenarien. Traefik eignet sich für einfacheres Management mit Auto-TLS. Für Service-Mesh-Integration empfehlen wir Envoy-basierte Controller wie Istio Gateway.
Ja, der Ingress Controller benötigt einen vorgeschalteten Load Balancer (Layer 4), der den Traffic an die Ingress-Controller-Pods verteilt. In Cloud-Umgebungen wird dieser automatisch über Service-Typ LoadBalancer provisioniert.
Aktiviere TLS-Terminierung, konfiguriere Rate Limiting, beschränke erlaubte HTTP-Methoden, nutze ModSecurity als WAF und aktualisiere regelmäßig auf die neueste Version.
Service-Typ LoadBalancer erstellt für jeden Service einen eigenen Cloud-Load-Balancer (teuer). Ingress bündelt den Traffic über einen einzigen Load Balancer und routet intern basierend auf Regeln.
Verwandte Begriffe
Passende Leistungen
DevSecOps
Gehärtete Sicherheit, integriert in jede Schicht des Infrastruktur-Stacks.
Kubernetes
Container-Orchestrierung im großen Maßstab — wir entwerfen, betreiben und managen produktionsreife Kubernetes-Cluster.
Edge Networking
Globale CDN-Optimierung und BGP-Routing für geschäftskritische Anwendungen.
Interesse geweckt?
Lassen Sie uns über Ihr Projekt sprechen. Wir beraten Sie gerne unverbindlich.
Kontakt aufnehmenZuletzt aktualisiert: April 2026