FORSCHUNGSGRUPPEN
Unsere leitenden Wissenschaftler sind sechs Forschungsbereichen zugeordnet, die ihren jeweiligen Interessen und fachlichen Schwerpunkten entsprechen. Jede:r CISPA-Faculty leitet seine eigene Forschungsgruppe, in der Fachleute und innovative Köpfe gemeinsam an neuen Erkenntnisse arbeiten. Klicke auf die einzelnen Faculty, um mehr über ihre Forschungsgruppen, spezifischen Themenschwerpunkte und laufenden Projekte zu erfahren.
Viele unserer Forschungsprojekte werden durch Drittmittel gefördert. Unsere Forschenden bewerben sich in kompetitiven Verfahren um diese Fördergelder – entweder allein oder in Zusammenarbeit mit Anderen.
Mit den Releases neuer Webstandards in Browsern (WebAssembly, WebGPU, WebUSB usw.) können immer mehr Funktionen von angeschlossenen Geräten direkt über das Internet genutzt werden. Während diese Spezifikationen aus Performance-Sicht sehr vielversprechend sind, werfen sie auch erhebliche Sicherheitsbedenken auf. In diesem Projekt analysieren wir die Sicherheitsauswirkungen neuer Funktionen, die direkten oder indirekten Zugriff auf Low-Level-Hardwarefunktionen bieten. Aufbauend auf unserer vorangegangenen Forschung werden wir (1) die Auswirkungen direkter nativer Seitenkanalangriffe aus dem Web untersuchen, (2) neue Methoden zur effizienten Portierung von Angriffen auf Browser entwickeln, um eine schnellere Risikobewertung neuartiger Angriffe zu ermöglichen, (3) untersuchen, wie Seitenkanalangriffe Geheimnisse preisgeben oder die Verfolgung von Nutzern über Hardware-Fingerabdrücke ermöglichen können, und (4) die Grundlagen für sichere Low-Level-Webstandards legen, indem wir die Wirksamkeit bestehender und neuartiger Gegenmaßnahmen (z. B. Sandboxing) mit Blick auf Hardware-/Softwareverträge untersuchen.
Leitung
Dauer
01.09.2022 – 31.08.2025
Mitglieder
Förderkennzeichen
RO 5251/1-1; SCHW 2104/2-1
In ILLUMINATION wird ein Werkzeugkasten mit technischen Privatsphäre-Methoden und interdisziplinären Handlungsempfehlungen für die privatsphäreschonende Nutzung von zentralen LLMs im Gesundheitsbereich entwickelt. Die technischen Methoden erlauben es LLM-Anwender:innen angemessenen Datenschutz im Sinne eines „Privacy by Design“ für ihre Nutzer:innen zu implementieren. Die Handlungsempfehlungen, die auf technischen, rechtlichen, menschzentrierten und anwendungsspezifischen Perspektiven beruhen, tragen zur Stärkung verantwortungsvoller und datenschutzkonformer LLM-Praktiken bei, unterstützen bei der Navigation durch die komplexe Landschaft der LLM-Implementierung und legen den Grundstein für gesetzeskonforme Privatsphäre-Methoden in LLM-basierten Anwendungen.
Leitung
Gegründet
2024
Dauer
01.08.2024 - 31.07.2027
Förderkennzeichen
16KIS2114K
While there is a long-standing tradition of training various machine learning models for different application tasks on visual data, only the most recent advances in the domain of foundation models managed to unify those endeavors into obtaining highly powerful multi-purpose deep learning models. These models, such as DINO_v21, or SAM,2 are pre-trained on large amounts of public data which turns them into efficient feature extractors. Using only small amounts of sensitive downstream data and reduced compute resources in comparison to a from-scratch training, these feature extractors can then be adapted (through full or partial fine-tuning, transfer learning, or prompting approaches) to solve a wide range of downstream applications. Our goal is to bring foundation models and the new and powerful learning paradigms for their adaptation to the complex and sensitive medical domain with a focus on CT and MRI data.
Leitung
Gegründet
2024
Dauer
01.01.2024-31.12.2027
Mitglieder
Förderkennzeichen
ZT-I-PF-5-227
Das Projekt hat zum Ziel, Softwareentwickler:innen die Möglichkeit zu geben, schnell Informationen über Code-Snippets zu sammeln, die sie in ihrer Codebasis wiederverwenden. Dazu gehören Benachrichtigungen über Änderungen an den Codequellen, Warnungen vor Sicherheitsproblemen und Fehlern oder Zusammenfassungen von Diskussionen über solche Code-Snippets. Die Field Study Fellowship zielt darauf ab, die Software an die Bedürfnisse der Entwickler anzupassen und die Effektivität der Code-Wiederverwendung zu verbessern.
Das Projekt Aletheia zielt auf eine innovative technische und interaktive Erkennung von Deepfakes in Bildern, Videos und Audiofrequenzen ab.
Das Ziel einer Erkennung besteht darin, Desinformation zu bekämpfen und Authentizität zu wahren. Basierend auf maschinellem Lernen werden Anomalien gefunden, die in authentischen Inhalten nicht vorkommen. Die Ergebnisse werden für den Nutzer forensisch detailliert aufbereitet. Damit die Entscheidung auf Fake oder Nicht-Fake für den Anwender nachvollziehbar ist, wird das Ergebnis mittels erklärbarer künstlicher Intelligenz verständlich gestaltet. Dabei werden innovative lnterpretationsmodelle verwendet, die Anomalien und Auffälligkeiten hervorheben, um eine neuartige forensische Analyse durch den Endnutzer zu ermöglichen. Es ergibt sich ein präzises, detailliertes und interpretierbares Ergebnis, das erklärt, warum ein bestimmter Inhalt als Deepfake eingestuft wurde. Hierdurch wird ein nutzerzentriertes Umfeld des Vertrauens und der Transparenz geschaffen.
Darüber hinaus liegt ein Fokus auf einer multimodalen und skalierbaren Analyse. Hierbei werden Videos zunächst getrennt hinsichtlich Tons und Bild analysiert, anschließend auf ihre Kohärenz. Die Motivation hinter dem StartUp Secure Förderprogramm ist die schnelle Umsetzung marktrelevanter Lösungen. Somit steht als Gesamtziel dieses Vorhabens die Entwicklung eines Technologiedemonstrators im Vordergrund, um das Wissen aus Forschung und Entwicklung am Markt anbieten zu können. Aus dem Projekt soll somit letztlich eine Unternehmensgründung hervorgehen, die die hier entwickelten Technologien anbietet.
Communication efficiency is one of the central challenges for cryptography. Modern distributed computing techniques work on large quantities of data, and critically depend on keeping the amount of information exchanged between parties as low as possible. However, classical cryptographic protocols for secure distributed computation cause a prohibitive blow-up of communication in this setting. Laconic cryptography is an emerging paradigm in cryptography aiming to realize protocols for complex tasks with a minimal amount of interaction and a sub-linear overall communication complexity. If we manage to construct truly efficient laconic protocols, we could add a cryptographic layer of protection to modern data-driven techniques in computing. My initial results in laconic cryptography did not just demonstrate the potential of this paradigm, but proved to be a game-changer in solving several long standing open problems in cryptography, e.g. enabling me to construct identity-based encryption from weak assumptions. However, the field faces two major challenges: (a) Current constructions employ techniques that are inherently inefficient. (b) The most advanced notions in laconic cryptography are only known from very specific combinations of assumptions, and are therefore just one cryptanalytic breakthrough away from becoming void. This project will make a leap forward in both challenges. I will systematically address these challenges in a work program which pursues the following objectives: (i) Develop new tools and mechanisms to realize crucial cryptographic primitives in a compact way. (ii) Design efficient protocols for advanced laconic functionalities which sidestep the need for inherently inefficient low-level techniques and widen the foundation of underlying assumptions. (iii) Strengthen the conceptual bridge between laconic cryptography and cryptographically secure obfuscation, transferring new techniques and ideas between these domains.
Leitung
Gegründet
2022
Dauer
01.07.2022-30.06.2027
Förderkennzeichen
HORIZON-ERC (ERC-2021-StG)
Forschungsgebiet
Cyber-Physische Systeme (CPS), welche die physische Umgebung und zahlreiche eingebettete Computersysteme mittels digitaler Netzwerke zu einem eng gekoppelten Gesamtsystem verknüpfen, bilden die Schlüsseltechnologie der immer zahlreicher werdenden smarten Umgebungen. Die meisten dieser Anwendungen sind hochgradig sicherheitskritisch, da Fehlfunktionen der cyber-physischen Systeme unmittelbare Gefährdungen für Leib, Leben, Umwelt oder Güter nach sich ziehen. Die durchgängige Laufzeitüberwachung der Systemfunktionen durch geeignete Monitorprozesse stellt ein wichtiges Element zur Sicherstellung zuverlässigen, vorhersagbaren und sicheren Systemverhaltens dar. Die Anforderungen an die ein CPS überwachenden Monitorprozesse sind dabei extrem hoch, da fehlende Detektion von Ausnahmesituationen die vorgenannten Gefährdungen induziert, überflüssige Signalisierung umgekehrt die Systemleistung massiv herabsetzen kann. Das Projekt PreCePT leistet mittels eines Brückenschlags zwischen formalen Methoden der Informatik und Fehlermodellen der Messtechnik entscheidende Grundlagenforschung zur Deckung des Bedarfs an entsprechend zuverlässigen, nachweislich korrekten Monitorprozessen, indem es aus formalen Spezifikationen automatisch Laufzeitmonitore synthetisiert, welche die bei sensorischer Überwachung der Umwelt unvermeidbaren messtechnischen Ungenauigkeiten und partielle Beobachtbarkeit berücksichtigen. Die generierten Monitoringalgorithmen vereinen maximale Exaktheit mit harten Echtzeitgarantien und sind aufgrund stringenter Ableitung aus formalen semantischen Modellen von CPS sowie Nutzung fortschrittlicher arithmetischer Constraintsolvingtechniken in dieser Hinsicht nachweislich optimal.
Leitung
Gegründet
2023
Dauer
01.08.2024 - 31.07.2026
Förderkennzeichen
FI 936/7-1
Forschungsgebiet
The quest for a science of perspicuous computing continues. With the results that were achieved in the first funding period, we are spearheading a larger movement towards building and reasoning about software-based systems that are understandable and predictable. As a result, CPEC is gradually enlarging its scope in its second funding period. This pertains to three interrelated facets of our research:
· Deepening investigation of various feedback loops within the system lifecycle which are required to feed system analysis insights – in particular, insights from inspection-time justification – back into the design-time engineering of perspicuous systems.
· Emphasising human-centred and psychological research regarding the human-in-the-loop, reflecting the need to investigate the interaction of perspicuous systems with various groups of human stakeholders.
· Interfacing to the societal dimension of perspicuity – society-in-the-loop – echoing the increasing number of regulatory requirements regarding perspicuity put forward in recent years.
CPEC joins the pertinent forces at Saarbrücken and Dresden that are apt to master the challenge of putting perspicuous computing research into the loop. It comprises computer science experts and links to psychology and juridical expertise at Universität des Saarlandes and Technische Universität Dresden as well as the Max Planck Institute for Software Systems and the CISPA Helmholtz Center for Information Security. The participating institutions have developed a joint research agenda to deepen the transregional network of experts in perspicuous systems. It will serve our society in its need to stay in well-informed control over the computerised systems we all interact with. It enables comprehension and control in a cyber-physical world.
Source: https://www.perspicuous-computing.science/research/ (Stand: 3.5.23)
Leitung
Dauer
01.01.2023 bis 31.12.2026
Förderkennzeichen
TRR248/2
Forschungsgebiet
Eine grundlegende Herausforderung bei der Entwicklung von KI-Systemen besteht darin, sicherzustellen, dass die vom System getroffenen Entscheidungen soziale Werte wie Fairness widerspiegeln. Zu den wichtigsten Anliegen gehören auch die Erläuterung des Entscheidungsprozesses der Maschine und der Schutz personenbezogener Daten. Im Rahmen des EU-finanzierten Projekts HYPER wird angestrebt, eine Spezifikationssprache zu entwickeln, die komplexe Konzepte wie Fairness, Erklärbarkeit oder Datenschutz mathematisch formalisieren kann. Die Formalisierungen basieren auf Hypereigenschaften, einer Klasse von Systemeigenschaften, die viel aussagekräftiger sind als die Eigenschaften, die traditionell zur Beschreibung der Korrektheit und Zuverlässigkeit von Computerprogrammen verwendet werden. Es werden neue Algorithmen für logische Schlussfolgerungen, Verifikation und Programmsynthese erstellt.
Leitung
Dauer
01.11.2022-31.10.2027
Förderkennzeichen
HORIZON-ERC (ERC-2021-ADG)
Forschungsgebiet
Dieses wird sich mit den großen, grundlegenden Herausforderungen befassen, die den Einsatz der KI-Technologie beeinträchtigen. Die nachhaltige Bewältigung dieser Herausforderungen erfordert einen Leuchtturm, der auf wissenschaftlicher Exzellenz und rigorosen Methoden beruht. Wir werden eine strategische Forschungsagenda entwickeln, die sich auf "technical robustness and safety”, "privacy preserving techniques and infrastructures" und "human agency and oversight” konzentriert. Darüber hinaus fokussieren wir unsere Bemühungen zur Erkennung, Verhinderung und Abschwächung von Bedrohungen und zur Behebung von Schäden auf die drei Grand Challenges “Robustness guarantees and certification”,“Private and robust collaborative learning at scale” und “Human-in-the-loop decision making: Integrated governance to ensure meaningful oversight”. Diese betrachten wir in den sechs Anwendungsfällen Gesundheit, autonomes Fahren, Robotik, Cybersicherheit, Multimedia und Dokumentenanalyse.
Im Rahmen unseres Projekts versuchen wir, robuste technische Ansätze mit rechtlichen und ethischen Grundsätzen zu verbinden, die durch sinnvolle und wirksame Governance-Architekturen unterstützt werden, um die Entwicklung und den Einsatz einer KI-Technologie zu unterstützen, die den grundlegenden europäischen Werten dient. Unsere Initiative erweitert das international anerkannte, erfolgreiche und voll funktionsfähige Exzellenznetzwerk “ELLIS”. Wir bauen auf dessen drei Säulen auf: Forschungsprogramme, eine Reihe von Forschungseinheiten und ein Doktoranden-/Postdoktorandenprogramm. Damit verbinden wir ein Netzwerk von über 100 Organisationen und mehr als 337 ELLIS-Stipendiaten und -Wissenschaftlern (113 ERC-Grants), die sich gemeinsamen Exzellenzstandards verpflichtet haben. Wir werden nicht nur ein virtuelles Exzellenzzentrum einrichten. Wir werden alle unsere Aktivitäten auch für Beiträge, Interaktionen und Zusammenarbeit mit KI-Forschenden und Industriepartner:innen öffnen, um das gesamte Feld voranzutreiben.
Leitung
Gegründet
2022
Dauer
01.09.2022-31.08.2025
Förderkennzeichen
HORIZON-CL4-2021-HUMAN-01-03
Ever since the last Coronavirus epidemic caused by SARS-CoV-1, plans and tools for the containment of epidemics are being developed. However, an appropriate early warning system for local health authorities addressing this need on a regional, targeted level is not available. In the current SARS-CoV-2 pandemic, the need for such a system becomes increasingly obvious. The heterogeneity of different regions and localized outbreaks require a locally adapted monitoring and evaluation of infection dynamics.
Early recognition of an emerging epidemic is a crucial part of a successful intervention. The comparison of Germany to other European nations illustrates how crucial a timely implementation of non-pharmaceutical interventions is for the containment of an epidemic. Hence, continuous monitoring of infection processes is indispensable. For strategic planning of political interventions, epidemiological modelling and scenario calculations for forecasting and evaluation of interventions and scenarios have shown their importance. The accuracy of such forecasts largely depends on the robustness and broadness of the underlying data. Further, there is a need for an intelligible presentation of often complex simulation results without oversimplification of their interpretation and inherent uncertainty.
In this proposal, we develop a platform that integrates data streams from various sources in a privacy preserving manner. For their analysis, a variety of methods from machine learning to epidemiological modeling are employed to detect local outbreaks early on and enable an evaluation for different assumptions and on different scales. These models will be integrated into automatized workflows and presented in an interactive web application with custom scenario simulations. The platform will be based on insights gained by retrospective and prospective evaluation of the COVID-19 pandemic, using SARS-CoV-2 as a blueprint for the prevention and containment of future respiratory virus epidemics. The platform will be transferred to the Academy for Public Health Services and optimized in pilot projects with selected local health authorities under real-world conditions.
Das Ziel von PrivateAIM ist die Entwicklung einer föderierten Plattform für maschinelles Lernen (ML) und Datenanalyse im Rahmen der Medizininformatik-Initiative (MII), bei der die Analysen zu den Daten gebracht werden und nicht die Daten zu den Analysen. Methoden, die eine verteilte Datenverarbeitung in den von der MII eingerichteten Datenintegrationszentren ermöglichen, sind aus mehreren Gründen wichtig: 1) Daten von Patientinnen und Patienten dürfen ohne Einwilligung nur verwendet werden, wenn Anonymität gewährleistet ist; 2) föderierte Technologien können dazu beitragen, die MII mit anderen Gesundheitsdatennetzen zu verbinden. Die derzeit in der MII etablierten Mechanismen weisen jedoch erhebliche Einschränkungen auf und sind beispielsweise nicht für komplexe ML- und Data-Science-Tasks geeignet. Darüber hinaus sind föderierte Plattformen, die in anderen Zusammenhängen entwickelt wurden, 1) kompliziert einzurichten und zu betreiben, 2) unterstützen eine begrenzte Anzahl von Analyse- oder ML-Methoden, 3) implementieren keine modernen Technologien zur Wahrung der Privatheit und 4) sind nicht skalierbar oder ausgereift. Das PrivateAIM-Konsortium, das von allen MII-Konsortien unterstützt wird, bringt Experten zusammen, um die nächste Generation der föderierten Analyse- und ML-Plattform für die MII zu entwickeln. Die Plattform für föderierte Lern- und Analysemethoden (FLAME) wird modernste Föderierungsmethoden mit innovativen Datenschutzmodellen für multimodale Daten kombinieren. Unter Verwendung von Komponenten zur Überwachung und Kontrolle des Schutzniveaus werden diese in eine verteilte Infrastruktur integriert, die von den Datenintegrationszentren leicht übernommen werden kann. Die Umsetzung in die Praxis wird durch die Berücksichtigung von Herausforderungen an der Schnittstelle von Technologie und Recht, die Entwicklung von Konzepten für den Betrieb durch die IT-Abteilungen der Krankenhäuser und die Abstimmung mit Ethikkommissionen sowie Datenschutzbeauftragten begleitet.
Genetische Daten sind hochgradig vertrauliche Informationen und werden daher durch strenge gesetzliche Bestimmungen geschützt, was ihre gemeinsame Nutzung aufwändig macht. Die Nutzung genetischer Informationen birgt jedoch ein großes Potenzial für die Diagnose und Behandlung von Krankheiten und ist für die Verwirklichung von personalisierter Medizin unerlässlich. Zwar wurden Mechanismen zur Wahrung der Privatsphäre geschaffen, doch sind diese entweder mit erheblichen Kosten verbunden oder schützen die Privatsphäre sensibler Patientendaten nicht vollständig. Dadurch wird die Möglichkeit des Datenaustauschs mit der Forschungsgemeinschaft eingeschränkt, was sowohl die wissenschaftliche Erkenntnisfindung als auch die Reproduzierbarkeit der Ergebnisse behindert. Daher schlagen wir einen anderen Ansatz vor, bei dem synthetische Datensätze verwendet werden, die die Eigenschaften von Patientendatensätzen teilen und gleichzeitig die Privatsphäre respektieren. Wir erreichen dies, indem wir die neuesten Fortschritte in der generativen Modellierung nutzen, um virtuelle Kohorten zu synthetisieren. Solche synthetischen Daten können mit etablierten Werkzeugketten analysiert werden, der wiederholte Zugriff hat keine Auswirkungen auf das Budget für den Datenschutz und kann sogar offen mit der Forschungsgemeinschaft geteilt werden. Während die generative Modellierung von hochdimensionalen Daten wie genetischen Daten bisher unerschwinglich war, haben die jüngsten Entwicklungen in tiefen generativen Modellen eine Reihe von Erfolgsgeschichten in einer Vielzahl von Bereichen gezeigt. Das Projekt wird sowohl Werkzeuge für die generative Modellierung genetischer Daten als auch Einblicke in die langfristige Perspektive dieser Technologie zur Lösung von Problemen in offenen Bereichen liefern. Die Ansätze werden gegen bestehende Analysen, die nicht die Privatsphäre wahren, validiert werden. Wir werden eng mit der wissenschaftlichen Gemeinschaft zusammenarbeiten und Richtlinien vorschlagen, wie Ansätze, die im Gesamtprozess der wissenschaftlichen Entdeckung praktikabel sind, eingesetzt und experimentell angewendet werden können. Dieses einzigartige Projekt wird das erste sein, das die Generierung synthetischer hochdimensionaler genomischer Informationen ermöglicht, um den datenschutzkonformen Datenaustausch in der medizinischen Gemeinschaft zu fördern.
Leitung
Dauer
01.08.2020-31.07.2023
Mitglieder
Förderkennzeichen
ZT-1-PF-5-23
Webseite
Das Projekt "AlgenCY" verfolgt das Ziel, die vielfältigen Möglichkeiten und Herausforderungen, die generative KI-Methoden für die Cybersicherheit mit sich bringen, gründlich zu untersuchen und zu bewerten. Wir wollen herausfinden, wie diese Technologien wirksam zur Abwehr von Cyberbedrohungen genutzt werden können, aber auch, welche potenziellen Schwachstellen und Risiken sie möglicherweise selbst darstellen. Als Ergebnis dieser Forschung streben wir an, fundierte Vorhersagen über die zukünftigen Einflüsse generativer KI auf die Cybersicherheit zu treffen. Auf dieser Basis sollen gezielte Strategien und Lösungen entwickelt werden, um die digitale Sicherheit zu stärken. Im Rahmen dieses Teilprojekts wird das CISPA insbesondere die Sicherheitsaspekte von großen Sprachmodellen (Large Language Models, LLMs) sowie andere generative KI-Methoden untersuchen. Der Schwerpunkt liegt dabei sowohl auf der Absicherung dieser Methoden selbst als auch auf den Möglichkeiten, wie sie in der IT-Sicherheit eingesetzt werden können.
Leitung
Gegründet
2023
Dauer
01.11.2023 - 31.10.2026
Förderkennzeichen
16KIS2012
In KMU-Fuzz werden neue Konzepte erforscht und umgesetzt, um Fuzz-Testing - eine besonders vielversprechende Form von automatischem Softwaretesting - entscheidend zu verbessern. Dabei Iiegt der Fokus vor allem auf dem effizienten Testen von Netzwerkschnittstellen von Applikationen, da existierende Fuzzing-Tools in diesem Bereich momentan noch eine unzureichende Testabdeckung bieten. Durch die Erforschung von neuartigen Methoden, z.B. zustandsbasiertes Netzwerkfuzzing, Fuzz-Testingbasierend auf effizienten Checkpunktmechanismen und effizientes Protokollfuzzing, werden neuartigen Methoden entwickelt, umkomplexe Softwaresysteme automatisiert und effizient testen zu können. Der Fokus dieses Teilprojekts liegt auf der effizientenVerwendung von verschiedenen Methoden aus dem Bereich der Programmanalyse, um Fuzzing effizienter durchführen zu können.
Die Vision von GAIA-X ist die Schaffung einer sicheren, vernetzten, föderierten Dateninfrastruktur, um in Datenökosystemen Datensouveränität herzustellen. Das TELLUS-Vorhaben erweitert diese Dateninfrastruktur der verschiedenen Cloud-Ökosysteme um eine leistungsfähige Anbindung und Integration von heterogener Netzwerkinfrastruktur. Es existieren verschiedene Use Cases, die nicht nur hohe Anforderungen an Cloud-Dienste stellen, sondern insbesondere auch an Netzwerke in Bezug auf Latenz, Bandbreite, Sicherheit, Resilienz und Dynamik.
TELLUS entwickelt basierend auf solchen Use Cases ein Overlay über Kaskaden von Cloud-Anbietern, Vernetzungsdienstleistern und Cloud-Anwendern, um unter Berücksichtigung kritischer Anforderungen eine Ende-zu-Ende Vernetzung mit Garantien für Hybrid-Cloud-Szenarien zu ermöglichen. Dem GAIA-X Gedanken folgend werden durch Integration auf Basis von Standards/Schnittstellen und Systemen, Domänengrenzen überbrückt, Interoperabilität und Portabilität sichergestellt und somit dynamische Netzwerke mit variablen Bandbreiten, geringeren Latenzen, erhöhter Sicherheit und Kontrolle über den Datenfluss im Netzwerk geschaffen.
Im Rahmen dieses Teilprojekts untersucht CISPA vorrangig Sicherheits- und Compliance-Aspekte des Gesamtsystems. Dazu wird eine umfassende Risiko- und Bedrohungsanalyse durchgeführt und basierend auf den Ergebnissen werden entsprechende Schutzkonzepte entwickelt und umgesetzt. Darüber hinaus ist CISPA an einigen anderen Arbeitspaketen beteiligt und bringt dort vor allem ebenfalls Expertise im Bereiche Security mit ein.
Partner: DE-CIX (Verbundkoordinator); PlusServer; SpaceNet; Cloud&Heat; DE-CIX; IONOS; WOBCOM; KAEMI; TRUMPF; Mimetik
Computersysteme in Banken und Versicherungsgesellschaften, aber auch in autonomen Fahrzeugen oder Satelliten sind vielversprechende Ziele für Cyberattacken und müssen geschützt werden um solchen Attacken zu widerstehen, oder um sie auszuhalten und dennoch sicher zu funktionieren. Leider gewinnen Angreifer mit zunehmender Komplexität dieser Systeme immer mehr Möglichkeiten, weshalb wir bei ihrer Verteidigung annehmen müssen, dass manche Attacken erfolgreich sein könnten. Glücklicherweise existieren bereits Resilienz-Techniken, wie etwa die dreifache Replikation des Computersystems mitsamt des Protokolls, um dann durch Abstimmung das korrekte Ergebnis zu bestimmen, auch wenn eine der Instanzen wegen einer erfolgreichen Cyberattacke ein fehlerhaftes Ergebnis liefert. Damit diese Techniken angewendet werden können, müssen sie aber auf die Struktur des Systems abgestimmt sein, insbesondere darauf wie die Komponenten des Systems miteinander interagieren. Die Resilienz-Techniken, die bisher entwickelt wurden, sind auf gewisse Formen der Interaktion eingeschränkt, und die Entwicklung neuer Techniken für aufwendigere Formen der Interaktion ist immer noch eine schwierige und fehleranfällige Aufgabe. Insbesondere können Tools, die die Entwicklung solcher Protokolle durch Korrektheitsprüfungen unterstützen, üblicherweise nur auf komplett fertiggestellte Protokolle angewandt werden, und ihre Anwendung benötigt darüber hinaus seltenes Expertenwissen. Im FM-CReST Projekt haben sich Forscher vom CISPA, Deutschland, und aus dem SnT der Universität Luxembourg zusammengeschlossen, um eine neue Klasse in hohem Maße automatisierter und leicht bedienbarer Tools zu entwickeln, die beim Design beweisbar korrekter Resilienz-Protokolle Unterstützung bieten. Um dies zu erreichen, setzen wir auf Co-Design von Protokollen mit komplexen Interaktionsformen, und basieren die Entwicklung unserer Tools auf den Beobachtungen während der Protokollentwicklung, mit dem Ziel ähnliche Aufgaben in Zukunft zu vereinfachen.
Gefördert durch die Deutsche Forschungsgemeinschaft (DFG) -513487900
Leitung
Gegründet
2023
Dauer
01.12.2023-30.11.2026
Förderkennzeichen
JA 2357/4-1; Projektnummer 513487900
In diesem Projekt wollen wir Globale Synchronisationsprotokolle (GSPs) als ein neues Rechenmodell für nebenläufige Systeme mit einer parametrischen Anzahl von Komponenten einführen. Zusätzlich zu lokalen Updates einer Komponente unterstützen GSPs synchrone globale Updates des Systems, die mittels Bedingungen an den globalen Zustand des Systems beschränkt sein können. Mit dieser Kombination eignen sie sich zur Modellierung von Anwendungen, die auf globaler Synchronisation, z.B. mittels Consensus oder Leader Election, basieren - auf einem Abstraktionslevel der die interne Implementierung des Übereinstimmungsprotokolls verbirgt, aber seine Vor- und Nachbedingungen originalgetreu abbildet. Wir werden Bedingungen identifizieren, unter denen parametrierte Sicherheitsverifikation von GSPs entscheidbar bleibt, obwohl dieses Problem im Allgemeinen für die Kombination der in GSPs unterstützten Kommunikationsprimitive unentscheidbar ist. Eine vorläufige Version der GSPs unterstützt bereits globale Synchronisation und globale Transitionsbedingungen, und wir planen eine Erweiterung des Systemmodells um asynchrone Nachrichtenübermittlung sowie verschiedene Arten der Fehlerbehandlung, so dass die Entscheidbarkeit der parametrierten Verifikation erhalten bleibt. Weiterhin werden wir Bedingungen für kleine Cutoffs für die Sicherheitsverifikation identifizieren, d.h. kleine Schranken auf die Anzahl der Komponenten, die in Betracht gezogen werden müssen um parametrische Sicherheitsgarantien zu bestimmen. Basierend auf diesen Cutoffs werden wir auch einen Ansatz zur automatischen Synthese von GSPs entwickeln, die gegebene Eigenschaften per Konstruktion erfüllen. Zuletzt werden wir auch einen verfeinerungs-basierten Syntheseansatz für GSPs untersuchen, und seine Eigenschaften mit dem Cutoff-basierten Ansatz vergleichen.Unsere Erforschung entscheidbarer Fragmente von GSPs wird geleitet von Anwendungen in verschiedenen Bereichen, darunter Sensornetzwerke, Roboterschwärme und auf Blockchains basierende Anwendungen.
Leitung
Dauer
01.07.2023-30.06.2026
Förderkennzeichen
JA 2357/3-1; Project number 497132954
Forschungsgebiet
Neuartige, am Körper getragene Geräte bieten neue, skalierbare Benutzerschnittstellen, die intuitiver und direkter zu bedienen sind. Allerdings birgt die körpernahe Ein- und Ausgabe ernsthafte neue Risiken für die Privatsphäre der Nutzer: Die großen Hand- und Fingergesten, die typischerweise für die Eingabe verwendet werden, sind wesentlich anfälliger für Beobachtung durch Dritte als die etablierten Formen der Toucheingabe. Das gilt in noch größerem Maße für visuelle Ausgabe am Körper. Dies ist besonders problematisch, da am Körper getragene Geräte typischerweise bei mobilen Aktivitäten in nicht-privaten Umgebungen verwendet werden. Das primäre Ziel dieses Projekts ist es, einen Beitrag zur Skalierbarkeit von On-Body-Computing in öffentlichen Umgebungen zu leisten, indem Interaktionstechniken für die Eingabe und Ausgabe privater Informationen entwickelt werden, die eine verbesserte Widerstandsfähigkeit gegenüber Verletzungen der Privatsphäre bieten. Im Mittelpunkt unseres Ansatzes steht das Ziel, die einzigartigen Interaktionseigenschaften des menschlichen Körpers zu nutzen: hohe manuelle Geschicklichkeit, hohe taktile Sensibilität und eine große verfügbare Oberfläche für Ein- und Ausgabe, gepaart mit der Möglichkeit, Ein- und Ausgabe durch variable Körperhaltung flexibel abzuschirmen. Diese Eigenschaften können die Grundlage für neue körperbasierte Ein- und Ausgabetechniken bilden, die skalierbar und (praktisch) unbeobachtbar sind. Dieses Ziel ist bisher weitgehend unerforscht. Es ist sehr anspruchsvoll aufgrund der neuen und höchst unterschiedlichen Formen und Skalierungen von körpernahen Geräten sowie der neuartigen Formen multimodaler Ein- und Ausgabe. Diese werden durch die inhärente Komplexität sozialer Umgebungen, die jeweilige Proxemik und die Aufmerksamkeit von Nutzern und Umstehenden weiter erschwert. Um einen Design-Raum für die Interaktionen zu erstellen, werden wir die Privatsphäre von taktiler Eingabe, visueller und haptischer Ausgabe an verschiedenen Körperstellen empirisch untersuchen, abhängig von der Körperhaltung und den proxemischen Konfigurationen. Anschließend werden wir systematisch körperbezogene Eingabegesten sowie skalierbare Techniken für multimodale Interaktion konzipieren und implementieren, die die Privatsphäre in sozialen Umgebungen hinsichtlich eines generalisierten Bedrohungsmodells wahren. Wir verwenden hierbei Aufmerksamkeitsmodelle, die den menschlichen Körper beinhalten. Die neuen Interaktionstechniken werden empirisch mit Nutzern in realistischen Szenarien und im Labor evaluiert, um zu bewerten, wie ihre Eigenschaften die Benutzerfreundlichkeit, den Datenschutz und die Skalierbarkeit beeinflussen. Beides wird uns helfen, die interne und externe Validität unseres Ansatzes zu verstehen. Wir erwarten, dass die Ergebnisse dieses Projekts wesentlich dazu beitragen werden, die Grundlagen für skalierbare körperbasierte Interaktionen zu schaffen, die die Privatsphäre wahren.
Gefördert durch die Deutsche Forschungsgemeinschaft (DFG) -521601028
Leitung
Gegründet
2023
Dauer
01.04.2024-31.03.2027
Mitglieder
Förderkennzeichen
KR 5384/2-1; Projektnummer 521601028
Viele der heutigen kritischen Infrastrukturen, wie zum Beispiel Stromnetze oder Mobilfunknetze, sind verteilte Systeme. Sie bestehen aus autonomen Knoten, die über ein Peer-to-Peer-Netz verbunden sind. Ein zentrales Ziel der verteilten Datenverarbeitung ist solche Systeme fehlertolerant zu implementieren, um einzelne Fehlerpunkte zu vermeiden. Fehlertolerante Systeme bleiben sicher und verfügbar, auch wenn eine Minderheit von Knoten ausfällt oder falsche Informationen verbreitet.
Verteilte Systeme stützen sich häufig auf die Kryptografie, die sich als leistungsfähiges Werkzeug für Robustheit und Skalierbarkeit erwiesen hat. Trotz ihrer Vorteile kann die Kryptografie jedoch Leistungseinbußen verursachen oder zu Schwachstellen führen, wenn sie nicht vorsichtig eingesetzt wird. Diese beiden Aspekte erschweren den Einsatz in der Praxis erheblich. Infolgedessen verwenden viele reale Systeme sparsam mit der Kryptografie um, was zu mangelnder Robustheit und Skalierbarkeit führt.
CRYPTOSYSTEMS wird die Widerstandsfähigkeit und Effizienz verteilter Algorithmen, die das Herzstück vieler verteilter Systeme bilden, erheblich verbessern. Die Ziele des Projekts sind die Entwicklung und Erforschung formaler Sicherheitsmodelle für kryptographische verteilte Algorithmen, die reale Bedrohungen genau widerspiegeln. Außerdem wollen wir die Kryptographie nutzen, um robuste und skalierbare verteilte Algorithmen zu entwerfen, die die theoretischen Grenzen von Fehlern tolerieren. Dazu entwickeln wir außerdem neuartige Kryptografie, wie kompakte Signaturen und kommunikationseffiziente verteilte Zufallsgeneratoren, um die Effizienz und Sicherheit verteilter Algorithmen zu erhöhen. Diese Innovationen sind ein wichtiger Schritt auf dem Weg zu einem breiten Einsatz sicherer und skalierbarer verteilter Infrastrukturen.
Leitung
Dauer
01.09.2023-31.08.2028
Förderkennzeichen
HORIZON-ERC (ERC-2023-StG)
Forschungsgebiet
Digitale Signaturen sind ein wesentliches und vielseitiges kryptographisches Werkzeug. In einem digitalen Signaturverfahren kann ein Unterzeichner, der über einen geheimen Schlüssel verfügt, eine Nachricht so signieren, dass die Signatur von anderen mit einem entsprechenden öffentlichen Schlüssel effizient überprüft werden kann. Gleichzeitig sollte es unmöglich sein, eine Signatur im Namen des Unterzeichners zu erstellen (solange sein geheimer Schlüssel tatsächlich geheim bleibt). Eine wichtige Variante des Signaturverfahrens ist eine Multi-Signer Version, bei der mehrere Unterzeichner gemeinsam eine kompakte Signatur für eine Nachricht erstellen können. Später kann die daraus resultierende Signatur mit ihren öffentlichen Schlüsseln (als Aggregat) effizient verifiziert werden. Auf diese Weise kann ein speichereffizienter Beweis dafür erbracht werden, dass eine bestimmte Anzahl von Personen, beispielsweise die Hälfte aller Parteien im System, eine Nachricht unterzeichnet hat. Dieser faszinierende Aspekt von Multi-Party Signatures hat in letzter Zeit im Zusammenhang mit Blockchain- und Konsensprotokollen enorme Aufmerksamkeit erregt.
Ziel dieses Projekts ist es, die Sicherheit und das Verständnis von Multi-Signer Signatures zu verbessern, um 1) modulare Frameworks für den Aufbau von Multi-Signer Signatures aus schwächeren Primitiven wie Identifikationsschemata zu entwickeln. Diese Art des Design-Ansatzes hat sich bei der Konstruktion von einfachen Signaturen als sehr erfolgreich erwiesen und wird zu Multisigner-Signaturschemata aus einer breiteren Palette mathematischer Härteannahmen führen. 2) Sicherheitsgarantien bestehender, in der Praxis verwendeter Multi-Signer Verfahren zu überprüfen und zu verbessern. Unser Hauptziel ist es, zu beweisen, dass bestehende Konstruktionen sicher gegenüber einem mächtigen Gegner sind, der Unterzeichner im Laufe der Zeit korrumpieren kann. Diese Art von Sicherheitsgarantie wird in praktischen Anwendungen, z. B. bei Konsensprotokollen, oft gefordert, wird aber von den meisten effizienten Verfahren nicht erfüllt. 3) Robustheit von Protokollen zur verteilten Schlüsselerzeugung (distributed key generation, DKG) zu verbessern. Viele Multi-Signer Verfahren verlassen sich auf einen vertrauenswürdigen Händler, um korrelierende Schlüssel zwischen den Unterzeichnern zu erstellen. Dies ist für viele natürliche Anwendungen wie Blockchain-Protokolle problematisch, bei denen ein solcher Händler möglicherweise nicht verfügbar ist. Daher können die Parteien stattdessen ein DKG-Protokoll verwenden, um gemeinsam einen korrelierenden Satz von Schlüsseln zu erstellen. Dies macht DKG-Protokolle zu einem wichtigen Instrument für die "trust-free" Ausführung von Multi-Signer Protokollen. Leider beruhen die bestehenden DKG-Protokolle auf unrealistischen Netzwerkannahmen oder tolerieren nur eine geringe Anzahl von Korruptionen. Das Ziel dieses Projekts ist es, ihre Robustheit in diesen beiden Punkten zu verbessern.
Leitung
Dauer
01.09.2022 – 31.08.2025
Mitglieder
Förderkennzeichen
LO 3021/1-1
Das Erkennen von Schwachstellen in Webanwendungen ist ein schwieriges Problem, für das es noch keine allgemeine Lösung gibt. Bestehende Ad-hoc-Lösungen können nur einfache Formen von Schwachstellen identifizieren, die auf der Oberfläche von Webanwendungen vorhanden sind. In diesem Projekt schlagen wir Yuri vor, einen zielorientierten Sicherheitstest-Agenten, der semantische Modelle und Programmrepräsentationen synthetisieren kann, die der menschlichen Wahrnehmung und dem Verständnis des Programmverhaltens näher kommen. Yuri kann diese Modelle nutzen, um die Erkundung der Angriffsoberfläche voranzutreiben und Sicherheitstests durchzuführen, wodurch die Abdeckung moderner webbasierter Anwendungssoftware erheblich erweitert wird.
Die Entwicklung verlässlicher und sicherer Software-Systeme verlangt systematisches und umfassendes Testen. Da strukturierte und standardisierte Datenformate über viele Software-Anwendungen hinweg zum Austausch von Daten genutzt werden, müssen die verwendeten Systeme robust und sicher auch mit manipulierten oder fehlerhaften Datensätzen umgehen können. Die für die Tests benötigten Testdaten können für strukturierte Formate, die unter anderem in elektronischen Rechnungen verwendet werden, bislang nur händisch erzeugt werden. Dadurch sind diese in ihrer Verfügbarkeit begrenzt und entsprechend kostenintensiv.
Die Forschenden im Vorhaben „InputLab“ entwickeln Verfahren zur automatischen Erzeugung von Testdaten für Datenformate, für die ein Datenschema vorliegt. Solche Schemas werden in Standardisierungsverfahren für digitale Formate mitdefiniert und tragen zur Interoperabilität verschiedener Software-Systeme bei. Die im Vorhaben generierten Testdaten können genutzt werden, um Fehlverhalten in Anwendungen auszulösen, zu diagnostizieren und reparieren. Dabei können auch subtile Fehler erkannt werden, die sich nicht durch drastisches Verhalten wie Software-Abstürze zeigen. So können schwerwiegende Probleme und Kosten vermieden werden. Damit Entwicklungsteams die Datensätze für ihre Zwecke einfacher verwenden können, sollen diese flexibel an die Eigenschaften von Beispieldatensätzen anpassbar sein.
Durch die Projektentwicklungen wird der vielfältige Bedarf an hochwertigen Testdaten für Software-Systeme mit strukturierten Formaten adressiert. Dabei soll eine möglichst kleine Anzahl an Datensätzen eine große Bandbreite fehlerhafter oder manipulierter Datenpunkte abdecken, um effektive und kosteneffiziente Tests zu ermöglichen. Gleichzeitig kann mit den erzeugten Testdaten eine Vielzahl unterschiedlicher Software-Anwendungen auf Schwachstellen untersucht und somit nachhaltig sicherer gestaltet werden.
Ziel des Projektes „Automatisierte Sicherheitsanalyse von RTOS- und MCU-basierter IoT-Firmware (ASRIOT)“ ist es, automatisierte Sicherheitsanalysen von Firmware zu erforschen, die auf Echtzeitbetriebssystemen (RTOS) und Ein-Chip-Computersystemen, sog. Mikrocontrollern (MCU), basieren, um so vertrauenswürdige Steuerungssysteme zu schaffen. Solche Steuerungssysteme werden beispielsweise zur Überwachung von Fertigungsprozessen oder der Steuerung von Fahrzeugen eingesetzt. Die anvisierte Plattform soll im Einsatz zunächst die proprietäre Firmware automatisch analysieren können, um herstellerspezifische Komponenten und Bibliotheken zu registrieren. Durch Analyse von sogenannten Binärdateien, die nach einem vorher festgelegten Schema aufgebaut werden, sollen die zusätzlichen oder angepassten Komponenten automatisch detektiert werden. Des Weiteren soll die Plattform typische Sicherheitsschwachstellen in Kommunikation, Verschlüsselung und Speicherverwendung automatisch erkennen sowie die Befunde in detaillierten Berichten aufbereiten. Die Maßnahmen werden im Rahmen des Projektes an einem integrierten Demonstrator getestet, um zum Abschluss des Projektes unmittelbar anwendbare Technologien vorweisen zu können.
Leitung
Gegründet
2023
Dauer
01.04.2023 - 31.03.2026
Förderkennzeichen
16KIS1807K
Autonome Fahrzeuge treffen auf den Straßen autonom Steuerentscheidungen basierend auf KI-basierter Verarbeitung diverser Sensordaten. Mögliche böswillige Angriffe können zu Unfällen aufgrund falscher Manöver autonomer Fahrzeuge führen und müssen daher bei der Diskussion um die Zuverlässigkeit solcher Systeme zusammen mit Gegenmaßnahmen systematisch erforscht werden.
In diesem Projekt werden die Auswirkungen von Manipulationen auf aktuelle Sensoren und Sensorverarbeitungspipelines analysiert. Darüber hinaus werden sichere Plattformen für Sensordatenverarbeitung entworfen und implementiert sowie deren Wirksamkeit bei der zuverlässigen Abwehr von Manipulations- und Kompromissversuchen demonstriert. Das resultierende Design einer sicherheitsorientierten Plattform wird als Referenz für zukünftige Forschung und Produktentwicklung in diesem Bereich dienen.
Wir gehen das Problem aus drei komplementären Forschungsrichtungen an: Verteidigung gegen physische Sensormanipulationen, Erkennung und Verhinderung von Manipulationen in der Sensorfusion-Pipeline und Vertrauenswürdige Verarbeitungsplattformen für die Automobil-branche. Lösungen zu einzelnen Themen wer-den zuerst theoretisch analysiert, dann in Simulationen auf ihre Wirksamkeit überprüft. Parallel zu der Bedrohungsanalyse und der Entwicklung der Gegenmaßnahmen werden wir unsere praktische Demonstratorenplattform entwickeln und umsetzen
Leitung
Gegründet
2024
Dauer
02.10.2024 - 31.12.2027
Förderkennzeichen
45AVF5A011
Das Ziel von ProSeCA ist es moderne Cybersicherheits-Architekturen für Fahrzeuge zu erforschen und umzusetzen. ProSeCA setzt dabei zur Gewährleistung größtmöglicher Funktions- und Datensicherheit auf einen ganzheitlichen Ansatz, mit dem auf fundamentaler Ebene typische Sicherheitsprobleme wie Speicherfehler gar nicht erst entstehen. Die Cybersicherheit von vernetzten autonomen Fahren (z.B. eine sichere interne/externe Kommunikation) ist kritisch für die Sicherheit der Passagiere und anderen Verkehrsteilnehmer. Die Vielfalt heterogener Elemente und Funktionen heutiger Automotive-Architekturen erzeugt bei steigenden Anforderungen große Angriffsflächen für CyberAngriffe.
Zwar fordert die Richtlinie UNECE R155 für künftige Neuzulassungen Cybersecurity-Management, doch fehlt bisher Erfahrung mit geeigneten Architekturen und Sicherheitsbausteinen. In diese Lücke zielt ProSeCA: Nach dem Leitgedanken „Ein System ist nur so sicher wie sein schwächstes Glied" geht es, ausgerichtet an ISO/SAE 21434, um ein Sicherheitskonzept als modularisierbare und standardisierbare vertrauenswürdige Hardware-/Softwarearchitektur für Fahrzeugsteuergeräte. Es beinhaltet als Sicherheitsbausteine neben Hardware-basierten Schutzmaßnahmen die Programmiersprache Rust und Lösungen zum automatisierten Testen der Softwarekomponenten. Ein Demonstrator zeigt die Realisierbarkeit derart neuer Architekturen als OEM-offene Lösung. Das Konsortium aus acht Partnern ist ein gezielter Ausschnitt der Automotive-Wertschöpfungskette.
Leitung
Gegründet
2023
Dauer
01.09.2023-30.06.2026
Förderung
PDIR
Förderkennzeichen
19A23009G
Antimikrobielle Resistenz (AMR) ist die vielleicht größte Bedrohung für die menschliche Gesundheit. Seit ihrer Entdeckung vor über einem Jahrhundert haben Antibiotika die menschliche Lebenserwartung und -qualität erheblich verbessert: Aus vielen lebensbedrohlichen Krankheiten sind leichte Unannehmlichkeiten geworden. Der falsche und übermäßige Einsatz von Antibiotika hat jedoch dazu geführt, dass Mikroben selbst gegen die fortschrittlichsten Medikamente Resistenzen entwickeln. Krankheiten, die einst als besiegt galten, werden wieder bedrohlich. Einzelne Resistenzmutationen sind bereits gut erforscht. Neue Erkenntnisse darüber, welche neuen Mutationen eine antimikrobielle Resistenz verursachen können, sind der Schlüssel zur Entwicklung von Medikamenten, die die mikrobielle Abwehr zuverlässig umgehen können. In diesem Projekt möchten wir diese Erkenntnisse durch erklärbare künstliche Intelligenz gewinnen, indem wir neuartige Methoden zur Entdeckung leicht interpretierbarer lokaler Muster entwickeln und anwenden, die im Hinblick auf eine oder mehrere Resistenzklassen bedeutsam sind. Wir beabsichtigen, eine kleine Anzahl leicht interpretierbarer Modelle zu erlernen, die zusammen genommen die Resistenzmechanismen in den Daten erklären können. Dazu verwenden wir statistisch robuste Methoden, um signifikante Untergruppen zu identifizieren und informationstheoretische Ansätze, um rauschresistente Regeln zu entdecken. Der Schlüssel zu unserem Erfolg liegt in der engen Einbindung von Fachwissen in die Entwicklung der neuen Algorithmen, der frühzeitigen Auswertung realer Daten und dem Potenzial des Partnerinstituts, besonders vielversprechende Ergebnisse im Labor zu evaluieren.
Jedwedes Programmverhalten wird durch eine Programmeingabe ausgelöst. Welche Teile der Eingabe lösen das Programmverhalten aus, und wie? Das Ziel des EMPEROR-Projekts ist es, automatische Erklärungen für Programmverhalten zu erstellen - insbesondere für Programmfehler. Zu diesem Zweck (1) verwenden wir Grammatiken, die Eingaben in einzelne Elemente zerlegen; (2) lernen statistische Beziehungen zwischen Merkmalen von Eingabeelementen und Programmverhalten; und (3) verwenden systematische Tests, um abgeleitete Zusammenhänge zu stärken oder zu widerlegen, einschließlich interner Ausführungsmerkmale. Als Ergebnis erhalten wir einen Ansatz, der (1) automatisch die (Eingabe-)Bedingungen herleitet, unter denen ein bestimmtes Verhalten auftritt: "Das Programm schlägt fehl, wenn die Mailadresse ein Anführungszeichen enthält"; (2) das betreffende Verhalten über generierte Testeingaben automatisch (re)produziert: "andr'e@foo.com"; und (3) die Beziehungen zwischen Ursache und Wirkung durch generierte Testfälle, die Ausführungsmerkmale beinhalten, verfeinert und produziert: "Die Eingabe ''''''''@bar.com" verursacht eine Rekursionstiefe von mehr als 128, was zu einem Absturz führt". EMPEROR ist der Nachfolger von EMPRESS, in dem wir gezeigt haben, dass es statistische Beziehungen zwischen Eingabeelementen und Programmverhalten gibt und wie diese Beziehungen von prototypischen Anwendungen zum Testen und Debuggen genutzt werden könnten. EMPEROR übernimmt die Ansätze von EMPRESS und vereinheitlicht und erweitert sie in einem einzigen modularen Ansatz, der weit über einfache statistische Beziehungen hinausgeht. Durch das Erlernen und Verfeinern von prädiktiven und generativen Modellen wird EMPEROR in der Lage sein, Beziehungen zwischen beliebigen Eingabemerkmalen abzuleiten und zu verfeinern und so unser Verständnis dafür zu verbessern, wie und warum sich Software so verhält, wie sie es tut.
Leitung
Dauer
01.10.2021-30.09.2024
Mitglieder
Förderkennzeichen
ZE 509/7-2
Forschungsgebiet
Programme nutzen Zeichenketten (Strings), um alle Arten von Textdaten darzustellen: Namen, Kreditkartennummern, E-Mail-Adressen, URLs, Bankkonten, Farbcodes und vieles mehr.
Programmiersprachen bieten jedoch nur wenig Unterstützung, um zu überprüfen, ob der Inhalt dieser Strings auch tatsächlich den Erwartungen entspricht. Dies kann nicht nur zu Funktionsfehlern, sondern auch zu häufigen Angriffen wie Skript- oder SQL-Injektionen führen. In diesem Antrag führen wir String-Typen ein; ein Mittel, um die gültigen Werte von Strings mit Hilfe von formalen Sprachen wie regulären Ausdrücken und Grammatiken auszudrücken. Wir führen Verfahren ein, um zu spezifizieren, welche Mengen von Strings als Werte akzeptabel sind, und um dynamisch und statisch zu prüfen, ob das Programm in Bezug auf die spezifizierten String-Typen korrekt ist. Da es sich um formale Sprachen handelt, ermöglichen String-Typen auch das Erzeugen von Instanzen aus diesen Spezifikationen.
Hiermit wird ein massives automatisiertes Testen von String-Verarbeitungsfunktionen mit gültigen Eingaben möglich, wobei String-Typen wiederum String-Ergebnisse auf lexikalische, syntaktische und semantische Korrektheit prüfen. Schließlich führen wir Mittel ein, um solche Spezifikationen aus dem Code und seinen Ausführungen zu erlernen, so dass String-Typen leicht einzuführen sind. Das Konsortium bringt umfangreiche Erfahrung in der statischen Analyse von Parsing-Code, der Generierung von Unit-Tests und Orakeln sowie sprachbasierter Spezifikation und Testen mit. Ihre gemeinsame Expertise wird dieses Vorhaben zum Erfolg führen.
Leitung
Gegründet
2024
Dauer
01.09.2024 - 31.08.2027
Mitglieder
Förderkennzeichen
ZE 509/10-1
Hepatitis D ist die bei weitem schwerste Form der chronischen Virushepatitis, die häufig zu Leberversagen, hepatozellulärem Karzinom und Tod führt. Hepatitis D wird durch eine Koinfektion von Hepatitis-B-Patienten mit dem Hepatitis-D-Virus (HDV) verursacht. Weltweit sind bis zu 20 Millionen Menschen mit HDV infiziert, darunter etwa 250 000 Patienten in der Europäischen Union. Es gibt nur sehr wenige Erkenntnisse über die Pathophysiologie der Krankheit und die Wechselwirkungen zwischen Wirt und Virus, die die große interindividuelle Variabilität im Verlauf der Hepatitis D erklären. Insbesondere ist nicht bekannt, warum 20-50 % der Patienten spontan in der Lage sind, die HDV-Replikation zu kontrollieren, warum die meisten, aber nicht alle Patienten ein fortgeschrittenes Stadium der Lebererkrankung erreichen und warum nur einige Patienten auf eine antivirale Behandlung mit pegyliertem Interferon alpha oder dem neuen HBV/HDV-Eintrittsinhibitor Bulevirtid ansprechen. Da es sich bei HDV um eine Seltene Krankheit handelt, gibt es keine multizentrischen Kohorten von HDV-infizierten Patienten mit geeigneten Biobanken. Es gibt auch kein zuverlässiges tierisches Modell, an dem die Reaktionen des Wirtes untersucht werden könnten. Daher besteht ein dringender klinischer, sozialer und wirtschaftlicher Bedarf an einem besseren Verständnis der individuellen Faktoren, die den Verlauf der Infektion bestimmen, und an der Ermittlung von Patienten, die von den derzeit verfügbaren Behandlungen profitieren. Hepatitis D ist eine Prototyp-Infektion, die von einem neuen individualisierten infektionsmedizinischen Ansatz enorm profitieren könnte. Unser Ziel ist es, ein unvoreingenommenes Screening einer großen multizentrischen Kohorte gut definierter HDV-infizierter Patienten durchzuführen, gefolgt von mechanistischen Studien zur Bestimmung der funktionellen Rolle bestimmter Moleküle. Die identifizierten spezifischen Parameter könnten unmittelbare Auswirkungen auf die personalisierten Überwachungsstrategien und antiviralen Behandlungsansätze haben. D-SOLVE zielt darauf ab, die Last der Krankheit zu verringern, die Lebensqualität der Patienten zu verbessern und die durch HDV-Infektionen verursachten direkten und indirekten Kosten zu senken, indem hervorragende klinische, immunologische, bioinformatische und virologische Fachkenntnisse aus führenden europäischen Zentren kombiniert werden.
Leitung
Dauer
01.10.2022-30.09.2026
Mitglieder
Förderkennzeichen
HORIZON-HLTH-2021-DISEASE-04-07
Forschungsgebiet