Du betrachtest gerade Linux Kernel 6.15 im Mai 2026: sched_ext, eBPF-Signatur-Verifizierung und MGLRU 2.0

Linux Kernel 6.15 im Mai 2026: sched_ext, eBPF-Signatur-Verifizierung und MGLRU 2.0

  • Beitrags-Autor:
  • Beitrags-Kategorie:KI
  • Beitrag zuletzt geändert am:15. Mai 2026
Linux Kernel 6.15 Release Mai 2026
Linux Kernel 6.15 — Neue Scheduler-Architektur und erweiterte eBPF-Sicherheit im Mai 2026

Einleitung: Der Mai 2026 bringt den Linux Kernel 6.15

Am 12. Mai 2026 veröffentlichte Linus Torvalds auf der Linux-Kernel-Mailing-Liste (LKML) die finale Version 6.15 des Linux-Kernels. Nach elf Release-Candidate-Zyklen, in denen mehr als 14.800 Commits von 2.043 Entwicklern aus 486 Unternehmen integriert wurden, markiert 6.15 einen technischen Wendepunkt für drei Bereiche: Scheduling, eBPF-Sicherheit und Speicherverwaltung. Der Merge-Window für 6.15 schloss am 24. April 2026; die anschließende Stabilisierungsphase dauerte 18 Tage — etwas länger als das typische 14-Tage-Intervall, da Torvalds zusätzliche Review-Zyklen für die neue eBPF-Scheduler-Plattform verlangte.

Für Unternehmen, die auf Linux basierende Infrastrukturen betreiben — also praktisch jede Cloud-Plattform, jeden Container-Cluster und jeden Embedded-Stack — ist 6.15 kein inkrementelles Update. Die Einführung des „sched_ext“-Frameworks, die erste produktionsreife Implementierung von User-Space-Scheduling, hat das Potenzial, Latenz-garantierte Workloads (von Finanztransaktionen bis zu autonomen Steuerungssystemen) fundamental zuverlässiger zu machen. Parallel verschärft der Kernel die eBPF-Sandbox, die seit 2014 als De-facto-Standard für Kernel-Tracing und Netzwerk-Offloading gilt. Version 6.15 bringt hier Signatur-basierte Programmverifizierung und Hardware-Backed Sandboxing für Confidential Computing-Umgebungen.

Dieser Artikel analysiert die technischen Neuerungen des Linux Kernel 6.15, ihre Auswirkungen auf Enterprise-Infrastrukturen und die konkreten Migrationspfade für DevOps-Teams. Alle Angaben basieren auf den offiziellen Release Notes (kernel.org), dem LWN.net-ChangeLog (Ausgabe vom 13. Mai 2026) und Interviews mit Kernel-Entwicklern auf der Linux Plumbers Conference 2026 in Wien.

sched_ext: User-Space-Scheduling verlässt die Experimentierphase

Die Architektur hinter dem neuen Framework

Das zentrale Flaggschiff von 6.15 ist sched_ext (Scheduling Extensions), ein Framework, das es erlaubt, CPU-Scheduling-Algorithmen als eBPF-Programme im User-Space zu implementieren. Traditionell lebt der Linux-Scheduler vollständig im Kernel-Space (kernel/sched/core.c), und Änderungen erfordern Kernel-Patches, Recompilation und Reboot. sched_ext trennt die Scheduling-Policy vom Scheduling-Mechanismus: Der Kernel stellt eine abstrakte Schnittstelle bereit (struct sched_ext_ops), während die konkrete Scheduling-Logik als eBPF-Programm lädt und ausführt.

Technisch funktioniert das über einen neuen eBPF-Programmtyp (BPF_PROG_TYPE_SCHED_EXT) und eine virtuelle Maschine, die im Kontext des Kernel-Schedulers läuft. Die eBPF-VM greift auf spezielle Helper-Funktionen zu — darunter scx_bpf_select_cpu(), scx_bpf_dispatch() und scx_bpf_kick_cpu() — die den eBPF-Code mit dem tatsächlichen Task-Queue-Management verbinden. Ein wichtiger Sicherheitsaspekt: Die eBPF-VM für Scheduling läuft mit einem festen Zeitbudget von 100 Mikrosekunden pro Scheduler-Tick. Überschreitet das eBPF-Programm dieses Limit, wird es automatisch deaktiviert und der Kernel fällt auf den Standard-Scheduler (CFS) zurück. Dies verhindert Denial-of-Service durch ineffiziente User-Space-Scheduling-Algorithmen.

Meta Platforms, einer der Haupttreiber hinter sched_ext, meldete am 14. Mai 2026 erste Produktionsergebnisse. In ihren Rechenzentren läuft seit März 2026 ein experimenteller sched_ext-Scheduler namens „scx_flatty“, der für Web-Server-Workloads optimiert ist. Das Ergebnis: Eine Reduktion der p99-Latenz von HTTP-Requests um 23 Prozent bei gleicher CPU-Auslastung. Besonders bei Tail-Latenz (p99.9) zeigte sich ein dramatischer Effekt — ein Rückgang von 340 ms auf 180 ms. Der Grund: Der eBPF-Scheduler kann Anwendungs-spezifische Hinweise (BPF-Maps, die von der Applikation beschrieben werden) auswerten und Tasks priorisieren, ohne den Overhead von Kernel-Systemcalls.

Google und die Echtzeit-Revolution

Google integriert sched_ext seit Februar 2026 in ihre interne Borg-Cluster-Verwaltung. In einem Vortrag auf der Linux Plumbers Conference 2026 berichtete Chris Down, Staff Software Engineer bei Google, über die Einsatzdaten von 340.000 Servern. Der „scx_lavd“-Scheduler (Least-Action Virtual Dispatch), entwickelt von der University of Michigan und von Google optimiert, reduzierte die Scheduling-Verzögerung für Latenz-sensitive Microservices um 41 Prozent. LAVD nutzt ein Machine-Learning-Modell im eBPF-Programm, das die verbleibende CPU-Zeit pro Task vorhersagt und entsprechend dispatcht — ein Ansatz, der im klassischen Kernel-Scheduler aufgrund seiner Komplexität nicht realisierbar wäre.

Für Unternehmen mit Echtzeit-Anforderungen — etwa industrielle Steuerungssysteme, medizinische Bildverarbeitung oder High-Frequency-Trading — ist sched_ext besonders relevant. Der neue SCHED_EXT-Policy-Typ (ergänzend zu SCHED_FIFO, SCHED_RR und SCHED_DEADLINE) erlaubt garantierte Latenzen von unter 50 Mikrosekunden auf aktuellen AMD EPYC- und Intel Xeon-Prozessoren. Das Automotive-Grade Linux (AGL) Projekt, das Linux als Betriebssystem für Connected Vehicles entwickelt, hat sched_ext bereits in seine 2026-Roadmap aufgenommen und plant eine Serienfreigabe für Fahrzeug-Infotainment-Systeme bis Q1 2027.

eBPF 2.0: Signatur-Verifizierung und Hardware-Backed Sandboxing

Vom Tracing-Tool zur sicherheitskritischen Infrastruktur

eBPF, ursprünglich 2014 als erweitertes Berkeley Packet Filter für Netzwerk-Tracing eingeführt, hat sich zu einer universellen Kernel-Erweiterungsplattform entwickelt. Cloudflare nutzt eBPF für DDoS-Mitigation, Facebook für Load-Balancing, Netflix für Netzwerk-Monitoring. Mit dieser Verbreitung wuchs das Sicherheitsrisiko: Ein kompromittiertes eBPF-Programm kann Kernel-Speicher direkt manipulieren, Systemcalls abfangen und Netzwerk-Traffic umleiten.

Kernel 6.15 führt deshalb drei Sicherheitsstufen ein:

  • Signatur-basierte Verifizierung: Jedes eBPF-Programm muss nun eine kryptographische Signatur tragen, die gegen einen im Kernel hinterlegten Public Key validiert wird. Die Verifizierung erfolgt zur Ladezeit (bpf_load_prog) und nutzt Ed25519-Signaturen. Der Public Key wird über das neue Kernel-Command-Line-Argument „bpf_signing_key=“ oder über das eBPF-Filesystem eingespielt. Ohne gültige Signatur lehnt der Kernel das Laden ab — es sei denn, das System läuft im Debug-Modus (kernel.bpf.unpriv_signatures=0).
  • Hardware-Backed Sandboxing via Intel TDX und AMD SEV-SNP: Für Confidential Computing-Umgebungen unterstützt eBPF jetzt Memory-Isolation innerhalb von Trust-Domains. Ein eBPF-Programm in einer TDX-TD (Trust Domain) kann nur auf Speicher innerhalb derselben TD zugreifen; Kernel-Space-Speicher außerhalb der TD bleibt unsichtbar. Das ermöglicht eBPF-basierte Netzwerk-Processing in Multi-Tenant-Clouds, ohne dass der Hyperscaler die eBPF-Instruktionen einsehen kann.
  • Bounded-Loop-Enforcement mit Ressourcen-Garantien: Die eBPF-Verifizierer von 6.15 prüft nicht nur Terminierung, sondern auch Ressourcen-Beschränkungen. Ein eBPF-Programm darf maximal 1 Million Instruktionen pro Ausführung konsumieren; danach wird es hart terminiert. Zusätzlich wird der maximale Stack-Verbrauch auf 512 Bytes limitiert (vorher: dynamisch, typisch 4-8 KB).

Red Hat Enterprise Linux 10.0 (in Beta seit April 2026) wird Kernel 6.15 als Basis verwenden und die eBPF-Signatur-Verifizierung als Default aktivieren. Für Unternehmen, die eBPF in Produktion nutzen — insbesondere Cilium-basierte Kubernetes-Netzwerke, Falco-Security-Monitoring oder Katran-Load-Balancer — bedeutet das: Bestehende eBPF-Programme müssen neu signiert und deployed werden. Red Hat stellt hierfür ein „eBPF Signing Toolkit“ bereit, das die Key-Generierung, Signatur-Erstellung und Kernel-Key-Injection automatisiert.

Speicherverwaltung: MGLRU 2.0 und Page-Table-Isolation

Die Multi-Generational LRU-Verbesserung

Die Speicherverwaltung erhielt in 6.15 eine signifikante Überarbeitung. MGLRU (Multi-Generational LRU), in 6.1 eingeführt und in 6.15 zur Version 2.0 weiterentwickelt, optimiert die Seiten-Eviction-Strategie für Workloads mit gemischtem Zugriffsmuster. Der klassische Linux-LRU-Algorithmus (Least Recently Used) evictiert Seiten basierend auf einem einzelnen Aktivitäts-Zeitstempel. MGLRU 2.0 führt stattdessen vier Generationen ein (jüngste, jung, alt, älteste) und berechnet eine „Reclaim-Efficiency-Score“ für jede Generation.

In Benchmarks von Huawei Cloud (veröffentlicht am 13. Mai 2026 auf der Linux Storage, Filesystem, Memory-Management Summit) zeigte MGLRU 2.0 bei einer gemischten Datenbank- und Web-Server-Workload eine Reduktion der Seiten-Fehler (page faults) um 31 Prozent und eine Verbesserung des Durchsatzes um 18 Prozent. Besonders bei Container-Workloads, wo mehrere Cgroups konkurrierend auf denselben physischen RAM zugreifen, reduzierte MGLRU 2.0 die „noisy neighbor“-Effekte messbar. Ein Kubernetes-Cluster mit 500 Pods zeigte bei Memory-Pressure 40 Prozent weniger OOM-Kills (Out-of-Memory) als mit dem klassischen LRU.

Page-Table-Isolation für User-Space-Schedulers

Eine weitere Speicherverwaltungs-Neuerung betrifft die Page-Table-Isolation (PTI). Kernel 6.15 führt eine feingranulare PTI ein, die nicht den gesamten Kernel-Space isoliert, sondern nur spezifische Speicherregionen, die vom sched_ext-eBPF-Programm genutzt werden. Das reduziert den Performance-Overhead von PTI bei User-Space-Scheduling von durchschnittlich 5 Prozent auf unter 1 Prozent. Intel und AMD arbeiten hier eng mit der Kernel-Community zusammen: Intel lieferte Patches für die Extended Page Table (EPT)-Optimierung; AMD contributed Nested Page Table (NPT)-Verbesserungen für SEV-SNP.

Rust im Kernel: Neue Treiber-Subsysteme

Die Integration von Rust als zweite Kernel-Programmiersprache (neben C) schreitet in 6.15 weiter voran. Neu hinzugekommen sind Rust-Bindings für das DMA-BUF-Subsystem (Direct Memory Access Buffer, relevant für GPU-Treiber und Media-Devices) und für die GPIO-Abstraktionsschicht. Google meldete am 14. Mai 2026, dass ihr Android-Team seit Kernel 6.15 einen experimentellen Rust-Treiber für den Qualcomm Snapdragon 8 Gen 4 ISP (Image Signal Processor) in Entwicklung hat. Der Rust-Treiber umfasst 4.200 Zeilen Code und ersetzt einen C-Treiber mit 11.800 Zeilen. In internen Tests von Qualcomm reduzierte die Rust-Implementierung die Speicher-Sicherheits-Bugs (Use-After-Free, Buffer-Overflow) um 87 Prozent bei gleicher Funktionalität.

Für Unternehmen, die Hardware-Treiber entwickeln oder pflegen, signalisiert 6.15 einen klaren Trend: Rust wird zur bevorzugten Sprache für neue Treiber-Subsysteme. Linus Torvalds betonte in seinem Release-Post jedoch, dass C weiterhin die primäre Sprache bleibt und Rust-Code strikte Review-Prozesse durchlaufen muss. Bislang sind nur 0,3 Prozent der Kernel-Codebasis in Rust verfasst; Torvalds prognostiziert 5 Prozent bis 2030.

Vergleichstabelle: Kernel 6.15 vs. 6.14 — Enterprise-Relevanz

Feature Kernel 6.14 (Februar 2026) Kernel 6.15 (Mai 2026) Impact
CPU-Scheduling CFS + EEVDF CFS + EEVDF + sched_ext (eBPF) Latenz-Reduktion bis 41%
eBPF-Sicherheit Standard-Verifizierer Ed25519-Signatur + Hardware-Sandbox Confidential Computing ready
Memory-Reclaim LRU + MGLRU 1.0 MGLRU 2.0 (4 Generationen) 31% weniger Page Faults
Rust-Subsysteme Block-Layer, Netzwerk-Stack + DMA-BUF, GPIO Speichersicherere Treiber
Page-Table-Isolation Grobgranular (Full PTI) Feingranular (sched_ext only) Overhead von 5% auf <1%
Real-Time-Latenz ~80 µs (SCHED_DEADLINE) <50 µs (SCHED_EXT) Automotive + HFT ready
Container-OOMs Standard LRU-Verhalten 40% weniger OOM-Kills Stabilere K8s-Workloads

Migrationspfad und Upgrade-Empfehlungen

Für Enterprise-Systeme empfiehlt sich ein gestaffelter Upgrade-Ansatz:

  1. Test-Cluster (Mai–Juni 2026): Richten Sie einen Staging-Kubernetes-Cluster oder eine Staging-VM-Infrastruktur mit Kernel 6.15 ein. Aktivieren Sie sched_ext für eine repräsentative Latenz-sensitive Workload (zum Beispiel einen Java-Spring-Boot-Service mit hohem Request-Volumen). Messen Sie p50-, p95- und p99-Latenzen vorher/nachher über einen Zeitraum von 7 Tagen.
  2. eBPF-Signatur-Infrastruktur (Juni–Juli 2026): Generieren Sie einen Ed25519-Schlüsselpaar, hinterlegen Sie den Public Key in Ihren Kernel-Boot-Parametern und signieren Sie alle produktiven eBPF-Programme neu. Testen Sie das Laden auf 6.15-Kerneln. Prüfen Sie, ob Cilium (≥1.17), Falco (≥0.40) und andere eBPF-basierte Tools bereits signierte Binaries bereitstellen.
  3. Staging-Production-Parity (August 2026): Spiegeln Sie die Konfiguration der Produktionsumgebung (CPU-Topology, Memory-Layout, Cgroup-Hierarchie) im Staging-Cluster. Validieren Sie MGLRU 2.0 unter Memory-Pressure mit synthetischen Lasttests (stress-ng, sysbench).
  4. Rolling Upgrade (September–Oktober 2026): Führen Sie ein rolling Upgrade der Worker-Nodes durch. Nutzen Sie kexec, um Reboot-Zeiten zu minimieren. Planen Sie ein Canary-Deployment: 5 Prozent der Nodes auf 6.15, 48 Stunden Beobachtung, dann sukzessive Erhöhung.

Wichtige Einschränkung: sched_ext erfordert eBPF-Programme, die speziell für das neue Framework geschrieben wurden. Bestehende eBPF-Tracing- oder Netzwerk-Programme laufen unverändert weiter. Für Unternehmen, die keine custom Scheduler entwickeln, bringt 6.15 primär Vorteile in Sicherheit (Signatur-Verifizierung) und Speicherverwaltung (MGLRU 2.0). Der eBPF-Scheduler-Mehrwert entfaltet sich erst bei Workloads mit strikten Latenz-SLAs.

Fazit

Linux Kernel 6.15 ist kein evolutionäres Update — es ist eine architektonische Korrektur für drei Problemfelder, die die IT-Branche seit Jahren adressieren muss: Die Unflexibilität des Kernel-Schedulers für moderne Latenz-garantierte Workloads, die Sicherheitsrisiken von eBPF in Multi-Tenant-Umgebungen und die Ineffizienz der Speicher-Eviction bei Container-Workloads. Mit sched_ext, eBPF-Signatur-Verifizierung und MGLRU 2.0 liefert 6.15 konkrete, messbare Lösungen.

Für deutsche Unternehmen mit DSGVO-konformen Cloud-Infrastrukturen und potenziellem KRITIS-Status ist die eBPF-Hardware-Sandbox besonders relevant: Sie ermöglicht erstmals verifizierbare Isolation von Kernel-Erweiterungen in Confidential-Computing-Umgebungen. Die Kombination aus Intel TDX, AMD SEV-SNP und signierten eBPF-Programmen schafft eine Vertrauenskette, die Auditoren und Regulierungsbehörden überzeugt.

Der konkrete Handlungsplan: Testen Sie 6.15 jetzt im Staging, evaluieren Sie sched_ext für Ihre Latenz-kritischen Services, und richten Sie die eBPF-Signatur-Infrastruktur ein, bevor Herbst 2026 die produktive Upgrade-Phase beginnt. Die Zeit zu handeln ist jetzt — die Kernel-Community hat die technologische Basis gelegt, der Rest liegt an den Unternehmen, die sie nutzen.