E-mail senden E-Mail Adresse kopieren

9 CISPA PAPERS AT NDSS 2026

Das Symposium zur Sicherheit von Netzwerken und verteilten Systemen (Network and Distributed System Security Symposium, kurz NDSS) fördert den Informationsaustausch zwischen Forschenden und Praktiker:innen im Bereich der Sicherheit von Netzwerken und verteilten Systemen. Durch den gemeinsamen Austausch von Spitzenforschungsergebnissen zur Systemsicherheit hilft das NDSS-Symposium der Internetgemeinschaft, das Internet sicherer zu machen.

Das Paper untersucht ein zentrales Problem der IT-Sicherheit: Viele gefährliche Schwachstellen entstehen nicht durch klassische Programmierfehler, sondern durch fehlerhafte Geschäftslogik. Gemeint sind Situationen, in denen eine Anwendung technisch korrekt funktioniert, aber fachlich unerwünschtes Verhalten erlaubt. Die CISPA-Forschenden Dr. Ali Abbasi, Meng Wang, Philipp Görz, Joschua Schilling und Keno Hassler zwigen zusammen mit Liwei Guo von der University of Electronic Science and Technology sowie Thorsten Holz vom Max Planck Institute for Security and Privacy, dass gängige Testwerkzeuge solche Fehler kaum erkennen können, weil ihnen das Verständnis für den fachlichen Kontext einer Anwendung fehlt. Besonders relevant ist das, da ein großer Teil der bekannten, praxisrelevanten Schwachstellen genau dieser Kategorie zuzuordnen ist.

Als Lösung stellen sie ANOTA vor, ein neues Prüfkonzept, das menschliches Fachwissen gezielt einbindet. Entwickler:innen können mit einfachen Annotationen festhalten, welches Verhalten in ihrer Anwendung vorgesehen ist. Während der Programmausführung überwacht ein System dann, ob diese Regeln eingehalten werden. Abweichungen werden als potenzielle Schwachstellen markiert. In Kombination mit einem modernen Fuzzer konnte ANOTA in Tests mehr bekannte Schwachstellen reproduzieren und zusätzliche, zuvor unbekannte Fehler aufdecken als andere vergleichbare Methoden.

Die Arbeit zeigt, dass Sicherheitsprüfungen davon profitieren können, wenn technisches Testen und menschliches Domänenwissen systematisch verbunden werden. Für die Gesellschaft bedeutet das einen realistischen Schritt hin zu verlässlicherer Software, insbesondere in Bereichen, in denen fachliche Fehler gravierende Folgen haben können, etwa bei Finanz-, Verwaltungs- oder Gesundheitsanwendungen.

Das Paper untersucht systematisch die methodischen Herausforderungen und Fallstricke, die der Einsatz großer Sprachmodelle für die Forschung im Bereich IT-Sicherheit und Softwareentwicklung mit sich bringt.
In einer umfangreichen Zusammenarbeit zwischen CISPA, dem Max-Planck-Institut für Sicherheit und Datenschutz, dem Karlsruher Institut für Technologie, der Ruhr-Universität Bochum, der TU Wien, der Universität Sapienza in Rom und _fbeta argumentieren die Forschenden, dass die zunehmende Verbreitung großer Sprachmodelle in der Sicherheitsforschung Herausforderungen und Risiken mit sich bringt, die etablierte Paradigmen der Reproduzierbarkeit, Stringenz und Evaluierung untergraben könnten. Frühere Forschung zu häufigen Tücken beim maschinellen Lernen seien unzureichend, da sie vor dem Verbreiten großer Sprachmodelle entstanden seien.  

Sie identifizieren neun Fallstricke, die sich durch die Literatur ziehen und den gesamten Forschungsprozess beeinflussen – von der Datenaufbereitung über das Training und Fine-tuning bis hin zum Prompting und der Evaluierung. Um zu beurteilen, wie verbreitet diese Probleme sind, analysieren sie 72 geprüfte Publikationen von führenden Konferenzen im Bereich Sicherheit und Softwareentwicklung, die 2023 und 2024 veröffentlicht wurden. Die Ergebnisse sind eindeutig: Jedes Paper weist mindestens eine dieser Fallstricke auf, und alle neun treten sogar wiederholt auf. Gleichzeitig werden nur etwa 16 Prozent der identifizierten Probleme in den Arbeiten selbst explizit diskutiert.

Anhand von vier Fallstudien zeigen die Forschenden, wie einzelne methodische Schwächen zu verzerrten Ergebnissen, übertriebenen Leistungsangaben oder eingeschränkter Reproduzierbarkeit führen können. Auf der Grundlage dieser Erkenntnisse schlagen sie konkrete Empfehlungen vor, um zukünftige Forschungsarbeiten robuster zu gestalten. Aus gesellschaftlicher Sicht trägt die Studie zur wissenschaftlichen Selbstreflexion bei, indem sie dazu beiträgt, die Forschung zu großen Sprachmodellen kritischer zu kontextualisieren und langfristig eine zuverlässigere Grundlage für sicherheitsrelevante Anwendungen zu schaffen.

Das Paper befasst sich mit der zunehmenden Verwundbarkeit von Satelliten, die zentrale Dienste moderner Gesellschaften ermöglichen, etwa Navigationssysteme. Lange galten Satelliten als schwer angreifbar, unter anderem aufgrund proprietärer Technik und begrenzter Zugänglichkeit. Technologische Fortschritte haben diese Annahmen jedoch überholt, während belastbare Daten zu realen Angriffsstrategien weiterhin fehlen.

Zusammen mit Efrén López-Morales von der New Mexico State University, Carlos Gonzalez-Cortes von der Universidad de Santiago de Chile, Jacob Hopkins und Carlos Rubio-Medrano von der Texas A&M University – Corpus Christi sowie Elías Obreque von der Universidad de Chile zeigen die CISPA-Forschenden Ulysse Planta, Gabriele Marra, Majid Garoosi und Ali Abbasi, wie diese Lücke adressiert werden kann. Sie stellen HoneySat vor, das erste High-Interaction-Honeypot-Framework, das das Verhalten eines realen CubeSats, also eines kleinen Satelliten, realitätsnah simuliert. Ziel ist es, echte Angriffe anzuziehen und systematisch auszuwerten.

Zur Überprüfung der Realitätsnähe befragten sie Betreiber:innen von SmallSats und setzten HoneySat im offenen Internet ein. Rund 90 % der Befragten bewerteten die Simulation als realistisch. Zudem gelang es HoneySat, reale Angreifer:innen zu täuschen und 22 echte Angriffsinteraktionen zu erfassen. In einem weiteren Test kommunizierte das System erfolgreich mit einer operativen SmallSat-Mission im Orbit.

Die Arbeit zeigt, dass realitätsnahe Simulationen helfen können, Bedrohungen für Satelliten besser zu verstehen. Für die Gesellschaft liefert diese Forschung eine Grundlage, um Risiken für weltraumgestützte Infrastrukturen frühzeitig zu erkennen und langfristig besser abzusichern.

Das Paper befasst sich mit verteilten Systemen, die auch dann zuverlässig funktionieren sollen, wenn einzelne Komponenten ausfallen oder sich fehlerhaft verhalten. Solche Systeme werden unter anderem in Blockchains oder kritischen Infrastrukturen eingesetzt. Moderne asynchrone Byzantine-Fault-Tolerance-Protokolle verfolgen das Ziel, unter günstigen Bedingungen eine hohe Leistung zu erzielen, ohne unter ungünstigen Bedingungen an Zuverlässigkeit zu verlieren. Bisherige Ansätze erreichen jedoch meist entweder gute Leistung oder gute Reaktionszeiten, selten beides zugleich.

Zusammen mit Xiaohai Dai, Chaozheng Ding und Hai Jin von der Huazhong University of Science and Technology sowie Ling Ren von der University of Illinois at Urbana-Champaign zeigt der CISPA-Forschende Julian Loss, wie sich diese Zielkonflikte verringern lassen. Sie stellen mit Ipotane ein neues Protokoll vor, das günstige und ungünstige Netzwerkbedingungen parallel berücksichtigt. Ipotane kombiniert einen schnellen, optimistischen Ablauf mit einem neuen, rein asynchronen Mechanismus, der auch bei Problemen zuverlässig weiterarbeitet.

Das zentrale Konzept besteht darin, beide Abläufe gleichzeitig auszuführen und frühzeitig zu erkennen, welcher davon gerade effizienter ist. Wenn der optimistische Pfad scheitert, kann das System schnell reagieren und ohne lange Verzögerungen auf den robusteren Pfad wechseln, ohne dabei stark an Durchsatz zu verlieren. Experimente zeigen, dass Ipotane sowohl bei stabilen als auch bei schwierigen Bedingungen niedrige Verzögerungen und einen hohen Datendurchsatz erreicht.

Für die Gesellschaft ist diese Arbeit relevant, weil sie dazu beiträgt, verteilte digitale Infrastrukturen verlässlicher zu machen. Systeme, die auch unter ungünstigen Bedingungen stabil funktionieren, sind eine wichtige Grundlage für vertrauenswürdige digitale Dienste.

Das Paper untersucht Fehlkonfigurationen in Cloud-Diensten, die weiterhin eine der häufigsten Ursachen für Sicherheits- und Datenschutzvorfälle sind. Ein zentraler Grund dafür ist die hohe Komplexität moderner Cloud-Plattformen, die es Betreiber:innen und Entwickler:innen erschwert, Systeme korrekt und sicher zu konfigurieren. Um diese Problematik besser zu verstehen, analysiert die Studie Diskussionen aus der Praxis.

Zusammen mit Shafay Kashif von der University of Auckland sowie Lea Gröber und Mobin Javed von der Lahore University of Management Sciences zeigen die CISPA-Forschenden Sumair Ijaz Hashmi und Katharina Krombholz, wie verbreitet und vielschichtig diese Herausforderungen sind. Sie werteten rund 251.900 sicherheits- und datenschutzbezogene Beiträge auf Stack Overflow aus dem Zeitraum von 2008 bis 2024 aus. Mithilfe von Themenmodellierung und qualitativer Analyse ordneten sie typische Cloud-Anwendungsfälle den jeweils auftretenden Konfigurationsproblemen zu.

Die Ergebnisse zeigen ein breites Spektrum an Schwierigkeiten, das sowohl technische als auch menschliche Faktoren umfasst. Neben konkreten Konfigurationsfehlern spielen unzureichende Dokumentation und fehlende, kontextbezogene Werkzeuge eine zentrale Rolle. Besonders auffällig ist, dass Probleme bei Authentifizierung und Zugriffskontrolle in allen untersuchten Anwendungsfällen auftreten und nahezu alle Phasen des Cloud-Betriebs betreffen – von der Einführung über die Integration bis zur Wartung.

Die Studie macht deutlich, dass sichere Cloud-Nutzung nicht allein eine Frage technischer Möglichkeiten ist. Für die Gesellschaft liefert diese Forschung wichtige Hinweise darauf, wie Entwickler:innen besser unterstützt werden können, um Cloud-Dienste sicherer zu betreiben, und wie sich langfristig Sicherheits- und Datenschutzrisiken in weit verbreiteten digitalen Infrastrukturen reduzieren lassen.

Das Paper untersucht Sicherheitsrisiken in eingebetteten Systemen, bei denen mehrere Prozessoren auf einem sogenannten System-on-a-Chip (SoC) integriert sind. Solche Architekturen versprechen mehr Leistung und eine klare Aufgabentrennung, etwa wenn ein Prozessor die Hauptanwendung ausführt und ein zweiter die Netzwerkverbindungen steuert. Unklar war bislang, welche sicherheitstechnischen Folgen diese enge Kopplung haben kann.

Die CISPA-Forschenden Simeon Hoffmann und Nils Ole Tippenhauer analysieren systematisch, welche Schwachstellen durch diese Mehrprozessor-Architekturen entstehen. Sie zeigen, dass häufig Sicherheitsmechanismen wiederverwendet werden, die ursprünglich für Systeme mit nur einer CPU entwickelt wurden, etwa Speicherzugriffskontrollen. In einem Mehrprozessor-Kontext können dadurch neue Angriffsmöglichkeiten entstehen.

Sie identifizieren vier zentrale Angriffsvektoren, die es unter bestimmten Bedingungen erlauben, geschützten Speicher eines zweiten Prozessors auszulesen oder zu verändern, bis hin zur Ausführung eigenen Codes. Die Analyse deutet darauf hin, dass eine relevante Zahl marktüblicher Systeme potenziell betroffen ist. Zusätzlich stellen sie fest, dass ein verbreiteter Kommunikationsmechanismus des Open-Source-Echtzeitbetriebssystems FreeRTOS in Mehrprozessor-Szenarien weitere Schwachstellen eröffnen kann. Die theoretischen Ergebnisse überprüfen sie praktisch, indem sie die beschriebenen Angriffe implementieren und deren Wirksamkeit demonstrieren. In einem Fall zeigte sich zudem, dass eine angepasste Trusted-Execution-Environment-Implementierung kompromittiert werden könnte. Die Schwachstellen wurden verantwortungsvoll an Hersteller gemeldet, was zu Sicherheitswarnungen und einer Korrektur führte.

Eingebettete Systeme werden in vielen Alltags- und Industrieanwendungen eingesetzt. Ein besseres Verständnis ihrer Sicherheitsrisiken trägt dazu bei, vernetzte Geräte langfristig robuster und vertrauenswürdiger zu gestalten.

Das Paper befasst sich mit sogenannten Code-Reuse-Angriffen, einer zentralen Technik bei Angriffen auf Programme mit Speicherfehlern. Dabei kombinieren Angreifer:innen kurze Codefragmente, sogenannte Gadgets, um schädlichen Code auszuführen. Obwohl es zahlreiche Forschungsarbeiten zur Automatisierung dieses Prozesses gibt, werden diese Ansätze in der Praxis kaum genutzt, da die zugrundeliegenden Techniken oft langsam sind, schlecht skalieren oder auf wenige Architekturen beschränkt bleiben.

Zusammen mit Kyle Zeng, Adam Doupé, Ruoyu Wang, Yan Shoshitaishvili und Tiffany Bao von der Arizona State University sowie Christopher Salls von der University of California, Santa Barbara zeigt der CISPA-Forscher Moritz Schloegel, wie sich diese Einschränkungen überwinden lassen. Sie stellen ein neues Konzept namens ROPBlock vor. Im Gegensatz zu klassischen Gadgets sind ROPBlocks so definiert, dass sie sich garantiert miteinander kombinieren lassen. Auf dieser Grundlage entwickeln sie einen neuen Suchansatz, der die bislang übliche, schlecht skalierende „Generate-and-Test“-Strategie ersetzt.

Der neue Ansatz reduziert die rechnerische Komplexität beim Zusammenstellen von Angriffsketten deutlich und beschleunigt diesen Prozess in der Praxis um mehrere Größenordnungen. Gleichzeitig erlaubt er es, komplexere Codefragmente zu berücksichtigen, die bisherige Methoden meist ignorieren. Da ROPBlocks unabhängig von der Prozessorarchitektur sind, lässt sich der Ansatz flexibel auf unterschiedliche Systeme übertragen.

In Experimenten erzeugte der entwickelte Prototyp ropbot komplexe Angriffsketten deutlich schneller und für mehr Programme als bestehende Techniken, und das auf mehreren Architekturen. Für die Gesellschaft ist diese Forschung relevant, weil sie zeigt, wie bestehende Angriffstechniken effizienter automatisiert werden können – ein Wissen, das auch für die Entwicklung wirksamerer Schutzmechanismen und realistischere Sicherheitsbewertungen notwendig ist.

Das Paper beschäftigt sich mit vertraulichen virtuellen Maschinen, die auf sogenannten Trusted Execution Environments basieren und neue Möglichkeiten für datenschutzfreundliche Anwendungen eröffnen sollen. Diese Technologien schützen Daten zwar vor direktem Zugriff, berücksichtigen jedoch Seitenkanäle nicht systematisch. Damit liegt es bislang bei Entwickler:innen, solche Leckagen zu erkennen und zu begrenzen – ein schwieriges Unterfangen, da bestehende Gegenmaßnahmen entweder sehr spezialisiert oder für den praktischen Einsatz zu langsam sind.

Zusammen mit Albert Cheu, Adria Gascon, Daniel Moghimi, Phillipp Schoppmann und Octavian Suciu von Google zeigen die CISPA-Forschenden Ruiyi Zhang und Michael Schwarz, wie sich diese Lücke schließen lässt. Sie stellen SNPeek vor, ein frei verfügbares Werkzeug, das Seitenkanäle auf produktiver AMD-SEV-SNP-Hardware messbar macht. SNPeek kombiniert konfigurierbare Messmechanismen mit statistischen und maschinellen Lernverfahren, um Informationsabflüsse automatisiert zu analysieren und vergleichbar zu machen.

Sie wenden das Werkzeug auf drei typische Anwendungen an, die in vertraulichen virtuellen Maschinen eingesetzt werden, darunter private Datenabfragen und nutzerdefinierte WebAssembly-Funktionen. Dabei identifizieren sie zuvor unerkannte Informationslecks, einschließlich eines verdeckten Kanals, über den Daten mit hoher Geschwindigkeit abfließen können. Gleichzeitig zeigt die Analyse, wie gezielte, vergleichsweise kostengünstige Gegenmaßnahmen helfen können, diese Leckagen zu reduzieren.

Die Arbeit liefert damit einen praktischen Ansatz, um Sicherheitsrisiken in modernen Cloud-Umgebungen besser zu bewerten. Für die Gesellschaft ist diese Forschung relevant, weil sie dazu beiträgt, Datenschutzversprechen neuer Virtualisierungstechnologien überprüfbar zu machen und deren Einsatz in sensiblen Anwendungen verlässlicher zu gestalten.

Das Paper untersucht den zunehmenden Einsatz großer Sprachmodelle bei automatisierter Codeanalyse, etwa zur Fehlersuche oder Überarbeitung von Software. Solche Modelle abstrahieren stark über bekannte Programmiermuster, was ihre Effizienz erhöht, aber auch neue Risiken schafft. Die Studie zeigt, dass diese Abstraktion dazu führen kann, kleine, aber funktional relevante  Code-Modifikationen zu übersehen.

Zusammen mit Shir Bernstein, Daniel Ayzenshteyn und Yisroel Mirsky von der Ben Gurion University of the Negev zeigen die CISPA-Forschenden David Beste und Lea Schönherr, wie sich diese Schwäche gezielt ausnutzen lässt. Sie beschreiben einen sogenannten Familiar-Pattern-Angriff, bei dem Code minimal verändert wird und dadurch ein verändertes Laufzeitverhalten aufweist. Für menschliche Entwickler:innen bleibt der Code funktional nachvollziehbar, während das Sprachmodell durch vertraute Muster fehlgeleitet wird und relevante Änderungen übersieht.

Sie entwickeln einen vollständig automatisierten Angriff, der ohne Einblick in das Modell funktioniert und solche Manipulationen systematisch in Zielcode einfügt. In umfangreichen Tests zeigt sich, dass diese Angriffe bei unterschiedlichen Modelltypen wirksam sind, über verschiedene Anbieter hinweg funktionieren und unabhängig von der Programmiersprache auftreten. Selbst explizite Warnungen an die Modelle verhindern die Fehlinterpretationen nicht zuverlässig. Darüber hinaus diskutieren sie auch defensive Einsatzmöglichkeiten der Technik, etwa um Plagiate zu verhindern.

Die Arbeit macht deutlich, dass der Einsatz großer Sprachmodelle in sicherheitskritischen Entwicklungsprozessen neue Angriffsflächen eröffnet. Für die Gesellschaft ist diese Forschung wichtig, weil sie hilft, die Grenzen automatisierter Codeanalyse besser zu verstehen und realistischere Erwartungen an solche Systeme zu entwickeln.