Die Aktualität der Forschungsaktivitäten des CISPA zeigt sich auch an einer Vielzahl an extern geförderten Projekten, in denen die Wissenschaftler:innen spezifischen Fragen der Informationssicherheit beleuchten. Dabei agiert CISPA in einem Netzwerk aus exzellenten nationalen und internationalen Partnern, die Grundlage für interdisziplinäre Innovationsvorhaben. Im Fokus steht bei der globalen Zusammenarbeit auch die Mobilität der Forschenden aller Karrierestufen, die sich während eines Gastaufenthalts aktiv und direkt in laufende Arbeiten einbringen.
Ein Teil der Forschung am CISPA wird über Drittmittel finanziert. Die Wissenschaftler:innen werben diese in wettbewerblichen Verfahren allein oder gemeinsam mit weiteren Antragstellern ein.
Mit den Releases neuer Webstandards in Browsern (WebAssembly, WebGPU, WebUSB usw.) können immer mehr Funktionen von angeschlossenen Geräten direkt über das Internet genutzt werden. Während diese Spezifikationen aus Performance-Sicht sehr vielversprechend sind, werfen sie auch erhebliche Sicherheitsbedenken auf. In diesem Projekt analysieren wir die Sicherheitsauswirkungen neuer Funktionen, die direkten oder indirekten Zugriff auf Low-Level-Hardwarefunktionen bieten. Aufbauend auf unserer vorangegangenen Forschung werden wir (1) die Auswirkungen direkter nativer Seitenkanalangriffe aus dem Web untersuchen, (2) neue Methoden zur effizienten Portierung von Angriffen auf Browser entwickeln, um eine schnellere Risikobewertung neuartiger Angriffe zu ermöglichen, (3) untersuchen, wie Seitenkanalangriffe Geheimnisse preisgeben oder die Verfolgung von Nutzern über Hardware-Fingerabdrücke ermöglichen können, und (4) die Grundlagen für sichere Low-Level-Webstandards legen, indem wir die Wirksamkeit bestehender und neuartiger Gegenmaßnahmen (z. B. Sandboxing) mit Blick auf Hardware-/Softwareverträge untersuchen.
Leitung
Dauer
1.9.2022 – 31.8.2025
Mitglieder
Förderkennzeichen
RO 5251/1-1; SCHW 2104/2-1
Traditionell wurde Cybersicherheit als ein technisches Problem betrachtet, für das Software- und Hardwarelösungen entscheidend waren. In den letzten Jahren hat sich der Schwerpunkt jedoch von der technischen auf die menschliche Komponente der Cybersicherheit verlagert. Der Mensch wird zunehmend als "schwächstes Glied" betrachtet, oder scherzhaft als PEBCAK (problem exists between chair and keyboard) bezeichnet. Da menschliches Versagen wie auch Cyberangriffe, die auf Menschen statt auf Maschinen abzielen, zum Alltag gehören, besteht ein dringender Bedarf, Cybersicherheitsfragen auch auf dieser Ebene zu lösen. Durch ihre Ausbildung in Programmierung, versuchen Informatiker oftmals, Sicherheitsschwachstellen durch die Softwarearchitektur zu beheben. Eine Software kann zwar ein sicheres Kennwort verlangen, aber wenn der Mitarbeiter das sichere Kennwort dann auf ein Post-it schreibt und auf seinen Schreibtisch legt, ist die "verbesserte" Softwaresicherheit schnell hinfällig. Anstatt menschliche Probleme auf technologisch Weise lösen zu wollen, sollte auf vorhandene wissenschaftliche Erkenntnisse zurückgegriffen und mit Experten für menschliches Verhalten zusammengearbeitet werden. Mit dem Wissen aus dem Bereich der Psychologie lassen sich wirksamere Sensibilisierungskampagnen erstellen und die Einhaltung von Sicherheitsrichtlinien durch bewährte Maßnahmen zur Verhaltensänderung verbessern. Zudem können Menschen in der Erkennung von sozialen Cyberangriffen geschult werden, indem das Wissen aus der kognitiven Psychologie genutzt wird. Diese Zusammenarbeit führt zu einer besseren individuellen Cybersicherheit, sichereren Organisationen und einer besser funktionierenden (internationalen) Gesellschaft. Zu diesem Zweck ist die Zusammenarbeit mit Psychologen von entscheidender Bedeutung, da sie darin geschult sind, Probleme im menschlichen Verhalten zu beschreiben, zu verstehen und zu lösen. Wenn Psychologen in den Bereich der Cybersicherheit einbezogen werden, können sie bestehende psychologische Theorien und bewährte Verfahren auf Cybersicherheitsprobleme anwenden und neue psychologische Theorien zu den Besonderheiten von Cyberangriffen und Cyber-Resilienz entwickeln.
Leitung
Gegründet
2020
Dauer
01.09.2020-31.08.2023
Förderkennzeichen
ID: 2020-1-DE01-KA203-005726
Das Internet hat sich von einem bloßen Kommunikationsnetzwerk, das vor zwei Jahrzehnten von zig Millionen Menschen genutzt wurde, zu einer globalen Multimedia-Plattform für Kommunikation, soziale Netzwerke, Unterhaltung, Bildung, Handel und politischen Aktivismus entwickelt, die von mehr als zwei Milliarden Menschen genutzt wird. Dieser Wandel hat der Gesellschaft enorme Vorteile gebracht, aber auch völlig neue Bedrohungen für die Privatsphäre, die Sicherheit, die Strafverfolgung, die Informationsfreiheit und die Redefreiheit geschaffen. Im heutigen Internet sind die Prinzipien amorph, die Identitäten können fließend sein, die Benutzer nehmen teil und tauschen Informationen als Peers aus, und die Daten werden auf globalen Plattformen Dritter verarbeitet. Die bestehenden Modelle und Techniken für Sicherheit und Datenschutz, die eine vertrauenswürdige Infrastruktur und klar definierte Richtlinien, Prinzipien und Rollen voraussetzen, werden dieser Herausforderung nicht in vollem Umfang gerecht.
Das Projekt imPACT befasst sich mit der Herausforderung, Datenschutz, Rechenschaftspflicht, Konformität und Vertrauen (PACT) im Internet von morgen zu gewährleisten, wobei ein interdisziplinärer und synergetischer Ansatz zum Verständnis und zur Bewältigung der verschiedenen Rollen, Interaktionen und Beziehungen der Benutzer und ihrer gemeinsamen Auswirkungen auf die vier PACT-Eigenschaften verwendet wird. Der Schwerpunkt liegt auf Prinzipien und Methoden, die für die Bedürfnisse der einzelnen Internet-Nutzer relevant sind und die ein starkes Potential haben, zu praktischen Lösungen zu führen, und die die langfristigen Bedürfnisse des zukünftigen Internets abdecken. Wir stellen uns dieser Herausforderung mit einem Team von Forschern aus relevanten Teildisziplinen der Informatik und mit Beiträgen von externen Experten aus den Bereichen Recht, Sozialwissenschaften, Wirtschaft und Business. Das Team der PIs besteht aus international führenden Persönlichkeiten aus den Bereichen Datenschutz und Sicherheit, experimentelle verteilte Systeme, formale Methoden, Programmanalyse und -verifizierung sowie Datenbanksysteme. Indem wir uns zusammenschließen und uns für diese gemeinsame Forschung engagieren, befinden wir uns in einer einzigartigen Position, um die große Herausforderung der Vereinheitlichung der PACT-Eigenschaften zu bewältigen und eine neue Grundlage für ihre ganzheitliche Behandlung zu schaffen.
Leitung
Dauer
01.02.2015-31.01.2021
Förderkennzeichen
Grant agreement ID: 610150
Forschungsgebiet
Die Forschungsthemen des CISPA beinhalten ein enormes Potenzial für den Technologietransfer in die industrielle Anwendung. Diesbezüglich steht das CISPA bereits seit einigen Jahren in regem Austausch mit Partnern aus Industrie und Wirtschaft, so dass ein Transfer stattfindet. Unter der Annahme, dass die Verwertung in neugegründeten Unternehmen die direkteste Form des Wissens- und Technologie-transfers darstellt, gibt der Ausbau des Gründungsinkubators die Möglichkeit, spezialisierte Strukturen zur expliziten Unterstützung von Ausgründungen fortzuschreiben.
Das Ziel des Vorhabens ist es deshalb, diese Initiativen konzeptionell auszubauen und strukturell zu verankern, um ein hoch kreatives Umfeld in unmittelbarer Nähe des CISPA und im Umfeld des Saarland Informatics Campus zu schaffen.
Die Förderung von Maßnahmen durch das BMBF sieht in erster Linie folgende Bereiche vor: Sensibilisierung, Projektinitiierung, Projektförderung, Skalierung sowie das übergeordnete Management des Inkubators.
In ILLUMINATION wird ein Werkzeugkasten mit technischen Privatsphäre-Methoden und interdisziplinären Handlungsempfehlungen für die privatsphäreschonende Nutzung von zentralen LLMs im Gesundheitsbereich entwickelt. Die technischen Methoden erlauben es LLM-Anwender:innen angemessenen Datenschutz im Sinne eines „Privacy by Design“ für ihre Nutzer:innen zu implementieren. Die Handlungsempfehlungen, die auf technischen, rechtlichen, menschzentrierten und anwendungsspezifischen Perspektiven beruhen, tragen zur Stärkung verantwortungsvoller und datenschutzkonformer LLM-Praktiken bei, unterstützen bei der Navigation durch die komplexe Landschaft der LLM-Implementierung und legen den Grundstein für gesetzeskonforme Privatsphäre-Methoden in LLM-basierten Anwendungen.
Leitung
Gegründet
2024
Dauer
01.08.2024 - 31.07.2027
Förderkennzeichen
16KIS2114K
While there is a long-standing tradition of training various machine learning models for different application tasks on visual data, only the most recent advances in the domain of foundation models managed to unify those endeavors into obtaining highly powerful multi-purpose deep learning models. These models, such as DINO_v21, or SAM,2 are pre-trained on large amounts of public data which turns them into efficient feature extractors. Using only small amounts of sensitive downstream data and reduced compute resources in comparison to a from-scratch training, these feature extractors can then be adapted (through full or partial fine-tuning, transfer learning, or prompting approaches) to solve a wide range of downstream applications. Our goal is to bring foundation models and the new and powerful learning paradigms for their adaptation to the complex and sensitive medical domain with a focus on CT and MRI data.
Leitung
Gegründet
2024
Dauer
01.01.2024-31.12.2027
Mitglieder
Förderkennzeichen
ZT-I-PF-5-227
Das Projekt hat zum Ziel, Softwareentwickler:innen die Möglichkeit zu geben, schnell Informationen über Code-Snippets zu sammeln, die sie in ihrer Codebasis wiederverwenden. Dazu gehören Benachrichtigungen über Änderungen an den Codequellen, Warnungen vor Sicherheitsproblemen und Fehlern oder Zusammenfassungen von Diskussionen über solche Code-Snippets. Die Field Study Fellowship zielt darauf ab, die Software an die Bedürfnisse der Entwickler anzupassen und die Effektivität der Code-Wiederverwendung zu verbessern.
Communication efficiency is one of the central challenges for cryptography. Modern distributed computing techniques work on large quantities of data, and critically depend on keeping the amount of information exchanged between parties as low as possible. However, classical cryptographic protocols for secure distributed computation cause a prohibitive blow-up of communication in this setting. Laconic cryptography is an emerging paradigm in cryptography aiming to realize protocols for complex tasks with a minimal amount of interaction and a sub-linear overall communication complexity. If we manage to construct truly efficient laconic protocols, we could add a cryptographic layer of protection to modern data-driven techniques in computing. My initial results in laconic cryptography did not just demonstrate the potential of this paradigm, but proved to be a game-changer in solving several long standing open problems in cryptography, e.g. enabling me to construct identity-based encryption from weak assumptions. However, the field faces two major challenges: (a) Current constructions employ techniques that are inherently inefficient. (b) The most advanced notions in laconic cryptography are only known from very specific combinations of assumptions, and are therefore just one cryptanalytic breakthrough away from becoming void. This project will make a leap forward in both challenges. I will systematically address these challenges in a work program which pursues the following objectives: (i) Develop new tools and mechanisms to realize crucial cryptographic primitives in a compact way. (ii) Design efficient protocols for advanced laconic functionalities which sidestep the need for inherently inefficient low-level techniques and widen the foundation of underlying assumptions. (iii) Strengthen the conceptual bridge between laconic cryptography and cryptographically secure obfuscation, transferring new techniques and ideas between these domains.
Leitung
Gegründet
2022
Dauer
01.07.2022-30.06.2027
Förderkennzeichen
HORIZON-ERC (ERC-2021-StG)
Forschungsgebiet
Cyber-Physische Systeme (CPS), welche die physische Umgebung und zahlreiche eingebettete Computersysteme mittels digitaler Netzwerke zu einem eng gekoppelten Gesamtsystem verknüpfen, bilden die Schlüsseltechnologie der immer zahlreicher werdenden smarten Umgebungen. Die meisten dieser Anwendungen sind hochgradig sicherheitskritisch, da Fehlfunktionen der cyber-physischen Systeme unmittelbare Gefährdungen für Leib, Leben, Umwelt oder Güter nach sich ziehen. Die durchgängige Laufzeitüberwachung der Systemfunktionen durch geeignete Monitorprozesse stellt ein wichtiges Element zur Sicherstellung zuverlässigen, vorhersagbaren und sicheren Systemverhaltens dar. Die Anforderungen an die ein CPS überwachenden Monitorprozesse sind dabei extrem hoch, da fehlende Detektion von Ausnahmesituationen die vorgenannten Gefährdungen induziert, überflüssige Signalisierung umgekehrt die Systemleistung massiv herabsetzen kann. Das Projekt PreCePT leistet mittels eines Brückenschlags zwischen formalen Methoden der Informatik und Fehlermodellen der Messtechnik entscheidende Grundlagenforschung zur Deckung des Bedarfs an entsprechend zuverlässigen, nachweislich korrekten Monitorprozessen, indem es aus formalen Spezifikationen automatisch Laufzeitmonitore synthetisiert, welche die bei sensorischer Überwachung der Umwelt unvermeidbaren messtechnischen Ungenauigkeiten und partielle Beobachtbarkeit berücksichtigen. Die generierten Monitoringalgorithmen vereinen maximale Exaktheit mit harten Echtzeitgarantien und sind aufgrund stringenter Ableitung aus formalen semantischen Modellen von CPS sowie Nutzung fortschrittlicher arithmetischer Constraintsolvingtechniken in dieser Hinsicht nachweislich optimal.
Leitung
Gegründet
2023
Dauer
01.08.2024 - 31.07.2026
Förderkennzeichen
FI 936/7-1
Forschungsgebiet
The quest for a science of perspicuous computing continues. With the results that were achieved in the first funding period, we are spearheading a larger movement towards building and reasoning about software-based systems that are understandable and predictable. As a result, CPEC is gradually enlarging its scope in its second funding period. This pertains to three interrelated facets of our research:
· Deepening investigation of various feedback loops within the system lifecycle which are required to feed system analysis insights – in particular, insights from inspection-time justification – back into the design-time engineering of perspicuous systems.
· Emphasising human-centred and psychological research regarding the human-in-the-loop, reflecting the need to investigate the interaction of perspicuous systems with various groups of human stakeholders.
· Interfacing to the societal dimension of perspicuity – society-in-the-loop – echoing the increasing number of regulatory requirements regarding perspicuity put forward in recent years.
CPEC joins the pertinent forces at Saarbrücken and Dresden that are apt to master the challenge of putting perspicuous computing research into the loop. It comprises computer science experts and links to psychology and juridical expertise at Universität des Saarlandes and Technische Universität Dresden as well as the Max Planck Institute for Software Systems and the CISPA Helmholtz Center for Information Security. The participating institutions have developed a joint research agenda to deepen the transregional network of experts in perspicuous systems. It will serve our society in its need to stay in well-informed control over the computerised systems we all interact with. It enables comprehension and control in a cyber-physical world.
Source: https://www.perspicuous-computing.science/research/ (Stand: 3.5.23)
Leitung
Dauer
01.01.2023 bis 31.12.2026
Förderkennzeichen
TRR248/2
Forschungsgebiet
The central role of information technology in all aspects of our private and professional lives has led to a fundamental change in the type of program properties we care about. Up to now, the focus has been on functional correctness; in the future, requirements that reflect our societal values, like privacy, fairness, The central role of information technology in all aspects of our private and professional lives has led to a fundamental change in the type of program properties we care about. Up to now, the focus has been on functional correctness; in the future, requirements that reflect our societal values, like privacy, fairness, and explainability will be far more important. These properties belong to the class of hyperproperties, which represent sets of sets of execution traces and can therefore specify the relationship between different computations of a reactive system. Previous work has focussed on individual hyperproperties like noninterference or restricted classes such as k-hypersafety; this project sets out to develop a unified theory for general hyperproperties. We will develop a formal specification language and effective algorithms for logical reasoning, verification, and program synthesis. The central idea is to use the type and alternation structure of the logical quantifiers, ranging from classic firstorder and second-order quantification to quantifiers over rich data domains and quantitative operators for statistical analysis, as the fundamental structure that partitions the broad concept of hyperproperties into specific property classes; each particular class is then supported by algorithms that provide a uniform solution for all the properties within the class. The project will bring the analysis of hyperproperties to the level of traditional notions of safety and reliability, and provide a rigorous foundation for the debate about standards for privacy, fairness, and explainability that future software-based systems will be measured against.
Leitung
Dauer
1.11.2022-31.10.2027
Förderkennzeichen
HORIZON-ERC (ERC-2021-ADG)
Forschungsgebiet
We propose to bring together two historically disjoint lines of research: the epistemic analysis of distributed systems on the one hand, which aims at understanding the evolution of the knowledge of the components of a distributed system; and reactive synthesis, which aims at constructing such systems automatically from a formal specification given as a formula of a temporal logic.
Reactive synthesis has the potential to revolutionize the development of distributed systems. From a given logical specification, the synthesis algorithm automatically constructs an implementation that is correct-by-design. This allows the developer to focus on “what” the system should do instead of “how” it should be done. There has been a lot of success in the last years in synthesizing individual components of a distributed system. However, the complete synthesis of distributed protocols is, with currently available methods, far too expensive for practical applications.
Recent advances in the study of knowledge in distributed systems, such as the Knowledge of Preconditions principle, offer a path to significantly improve the situation. Our vision is a new class of synthesis algorithms that gainfully use this potential by constructing the distributed protocol in terms of the evolving knowledge of the components rather than the low-level evolution of the states.
We bring to the project complementing skills and expertise in the two respective fields. The proposed project will begin by carrying out a study on epistemic arguments for the correctness of existing distributed protocols. The goal is to develop a formalization of these arguments in the form of a diagrammatic proof that can be verified automatically. We will then develop systematic methods for the construction of such proofs, based on insights like the Knowledge of Preconditions principle. Finally, we will integrate our formalization of epistemic proofs into a synthesis algorithm that automatically constructs such a proof for a given specification, and then translates the proof into an actual implementation.
Leitung
Dauer
01.04.2020-01.03.2023
Mitglieder
Förderkennzeichen
I-1513-407./2019
Forschungsgebiet
Die reaktive Synthese hat das Potenzial, die Entwicklung von verteilten eingebetteten Systemen zu revolutionieren. Aus einer gegebenen logischen Spezifikation konstruiert der Synthese-Algorithmus automatisch eine Implementierung, die "correct-by-design" ist. Die Zielsetzung besteht darin, dass ein Designer die Entwurfsziele mit einem Synthese-Tool analysiert, automatisch konkurrierende oder widersprüchliche Anforderungen identifiziert und eine fehlerfreie Prototyp-Implementierung erhält. Die Programmierung und das Testen, die teuersten Phasen der Entwicklung, werden somit aus dem Entwicklungsprozess eliminiert. Jüngste Fallstudien aus der Robotersteuerung und dem Hardware-Design, wie z.B. die automatische Synthese des AMBA-AHB-Bus-Controllers, zeigen, dass diese Vorstellung prinzipiell realisierbar ist. Bislang lässt sich die Synthese jedoch nicht auf große Systeme skalieren. Selbst wenn sie erfolgreich ist, erzeugt sie Code, der viel größer und viel komplizierter ist als der Code, der von menschlichen Programmierern für die gleiche Spezifikation produziert wird. Unser Ziel ist es, diese beiden grundlegenden Mängel gleichzeitig zu beheben. Wir werden ausgabeabhängige Synthese-Algorithmen entwickeln, d.h. Algorithmen, die neben der optimalen Leistung in der Größe der Spezifikation auch in der Größe und strukturellen Komplexität der Implementierung optimal funktionieren. Zielanwendungen für unsere Algorithmen kommen sowohl aus den klassischen Bereichen der reaktiven Synthese, wie z.B. Hardwareschaltungen, als auch aus neuen und weitaus anspruchsvolleren Anwendungsgebieten, wie z.B. der verteilten Steuerung und Koordination von autonomen Fahrzeugen und Fertigungsrobotern, die weit außerhalb der Reichweite der derzeit verfügbaren Synthesealgorithmen liegen.
Im Mittelpunkt des Vorhabens steht die Entwicklung eines Überwachungssystems für den hochkritischene VTOL Betrieb. Fortschritte in der Elektromobilität und der Automatisierungstechnik ermöglichen die kommerzielle Nutzung von hochautomatisierten Luftfahrzeugen mit verteilten elektrischen Antrieben.
Die Sicherheit ist für solche Luftfahrzeuge ein wichtiger Erfolgsfaktor. Dafür muss die inhärente Komplexität des Gesamtsystems in Form präziser Anforderungen erfasst und während des Betriebes konsequent überwacht werden. Zusätzlich müssen für einen ökonomischen Betrieb der zunehmend automatisierten Luftfahrzeuge die Entwicklungs-, Betriebs- und Wartungskosten niedrig gehalten werden. Ziel des Projekts ist die automatische Überwachung der für den sicheren kommerziellen Betrieb eines autonomen Systemswichtigen Parameter. Um die Konfidenz in die Sicherheitsüberwachung zu erhöhen, wird der ausführbare Monitor automatisch aus einer formalen Spezifikation des gewünschten Verhaltens generiert. Die dadurch gewonnene Nachvollziehbarkeit verspricht Vorteile für die Zertifizierung und einen ökonomischen Betrieb. Analyse der Rückwirkung für die Zertifizierung durch sichere, unabhängige Überwachungskomponente ist ein essenzielles Thema.
Die formale Spezifikation ist getrennt vom Kontrollcode und leichter verständlich, womit Entwicklungs- und Wartungskosten eingespart werden. Darüber hinaus setzen herkömmliche zentrale Monitorverfahren die Verfügbarkeit aller relevanten Daten voraus. In einer hochgradig verteilten Avionik wie der des Volocopter ist es nötig, den Überwachungsprozess an verschiedenen Systemknoten auszuführen, wofür Algorithmen für die Überwachung entwickelt werden müssen. Im Projekt wird der Systemüberwachungsansatz auf Basis einer formalen Spezifikation auf einen Volocopter integriert. Dies verspricht substanzielle Verbesserungen sowohl im Hinblick auf die Sicherheit als auch aus ökonomischen Gesichtspunkten.
Dieses wird sich mit den großen, grundlegenden Herausforderungen befassen, die den Einsatz der KI-Technologie beeinträchtigen. Die nachhaltige Bewältigung dieser Herausforderungen erfordert einen Leuchtturm, der auf wissenschaftlicher Exzellenz und rigorosen Methoden beruht. Wir werden eine strategische Forschungsagenda entwickeln, die sich auf "technical robustness and safety”, "privacy preserving techniques and infrastructures" und "human agency and oversight” konzentriert. Darüber hinaus fokussieren wir unsere Bemühungen zur Erkennung, Verhinderung und Abschwächung von Bedrohungen und zur Behebung von Schäden auf die drei Grand Challenges “Robustness guarantees and certification”,“Private and robust collaborative learning at scale” und “Human-in-the-loop decision making: Integrated governance to ensure meaningful oversight”. Diese betrachten wir in den sechs Anwendungsfällen Gesundheit, autonomes Fahren, Robotik, Cybersicherheit, Multimedia und Dokumentenanalyse.
Im Rahmen unseres Projekts versuchen wir, robuste technische Ansätze mit rechtlichen und ethischen Grundsätzen zu verbinden, die durch sinnvolle und wirksame Governance-Architekturen unterstützt werden, um die Entwicklung und den Einsatz einer KI-Technologie zu unterstützen, die den grundlegenden europäischen Werten dient. Unsere Initiative erweitert das international anerkannte, erfolgreiche und voll funktionsfähige Exzellenznetzwerk “ELLIS”. Wir bauen auf dessen drei Säulen auf: Forschungsprogramme, eine Reihe von Forschungseinheiten und ein Doktoranden-/Postdoktorandenprogramm. Damit verbinden wir ein Netzwerk von über 100 Organisationen und mehr als 337 ELLIS-Stipendiaten und -Wissenschaftlern (113 ERC-Grants), die sich gemeinsamen Exzellenzstandards verpflichtet haben. Wir werden nicht nur ein virtuelles Exzellenzzentrum einrichten. Wir werden alle unsere Aktivitäten auch für Beiträge, Interaktionen und Zusammenarbeit mit KI-Forschenden und Industriepartner:innen öffnen, um das gesamte Feld voranzutreiben.
Leitung
Gegründet
2022
Dauer
1.09.2022-31.08.2025
Förderkennzeichen
HORIZON-CL4-2021-HUMAN-01-03
Ever since the last Coronavirus epidemic caused by SARS-CoV-1, plans and tools for the containment of epidemics are being developed. However, an appropriate early warning system for local health authorities addressing this need on a regional, targeted level is not available. In the current SARS-CoV-2 pandemic, the need for such a system becomes increasingly obvious. The heterogeneity of different regions and localized outbreaks require a locally adapted monitoring and evaluation of infection dynamics.
Early recognition of an emerging epidemic is a crucial part of a successful intervention. The comparison of Germany to other European nations illustrates how crucial a timely implementation of non-pharmaceutical interventions is for the containment of an epidemic. Hence, continuous monitoring of infection processes is indispensable. For strategic planning of political interventions, epidemiological modelling and scenario calculations for forecasting and evaluation of interventions and scenarios have shown their importance. The accuracy of such forecasts largely depends on the robustness and broadness of the underlying data. Further, there is a need for an intelligible presentation of often complex simulation results without oversimplification of their interpretation and inherent uncertainty.
In this proposal, we develop a platform that integrates data streams from various sources in a privacy preserving manner. For their analysis, a variety of methods from machine learning to epidemiological modeling are employed to detect local outbreaks early on and enable an evaluation for different assumptions and on different scales. These models will be integrated into automatized workflows and presented in an interactive web application with custom scenario simulations. The platform will be based on insights gained by retrospective and prospective evaluation of the COVID-19 pandemic, using SARS-CoV-2 as a blueprint for the prevention and containment of future respiratory virus epidemics. The platform will be transferred to the Academy for Public Health Services and optimized in pilot projects with selected local health authorities under real-world conditions.
Das Ziel von PrivateAIM ist die Entwicklung einer föderierten Plattform für maschinelles Lernen (ML) und Datenanalyse im Rahmen der Medizininformatik-Initiative (MII), bei der die Analysen zu den Daten gebracht werden und nicht die Daten zu den Analysen. Methoden, die eine verteilte Datenverarbeitung in den von der MII eingerichteten Datenintegrationszentren ermöglichen, sind aus mehreren Gründen wichtig: 1) Daten von Patientinnen und Patienten dürfen ohne Einwilligung nur verwendet werden, wenn Anonymität gewährleistet ist; 2) föderierte Technologien können dazu beitragen, die MII mit anderen Gesundheitsdatennetzen zu verbinden. Die derzeit in der MII etablierten Mechanismen weisen jedoch erhebliche Einschränkungen auf und sind beispielsweise nicht für komplexe ML- und Data-Science-Tasks geeignet. Darüber hinaus sind föderierte Plattformen, die in anderen Zusammenhängen entwickelt wurden, 1) kompliziert einzurichten und zu betreiben, 2) unterstützen eine begrenzte Anzahl von Analyse- oder ML-Methoden, 3) implementieren keine modernen Technologien zur Wahrung der Privatheit und 4) sind nicht skalierbar oder ausgereift. Das PrivateAIM-Konsortium, das von allen MII-Konsortien unterstützt wird, bringt Experten zusammen, um die nächste Generation der föderierten Analyse- und ML-Plattform für die MII zu entwickeln. Die Plattform für föderierte Lern- und Analysemethoden (FLAME) wird modernste Föderierungsmethoden mit innovativen Datenschutzmodellen für multimodale Daten kombinieren. Unter Verwendung von Komponenten zur Überwachung und Kontrolle des Schutzniveaus werden diese in eine verteilte Infrastruktur integriert, die von den Datenintegrationszentren leicht übernommen werden kann. Die Umsetzung in die Praxis wird durch die Berücksichtigung von Herausforderungen an der Schnittstelle von Technologie und Recht, die Entwicklung von Konzepten für den Betrieb durch die IT-Abteilungen der Krankenhäuser und die Abstimmung mit Ethikkommissionen sowie Datenschutzbeauftragten begleitet.
Genetische Daten sind hochgradig vertrauliche Informationen und werden daher durch strenge gesetzliche Bestimmungen geschützt, was ihre gemeinsame Nutzung aufwändig macht. Die Nutzung genetischer Informationen birgt jedoch ein großes Potenzial für die Diagnose und Behandlung von Krankheiten und ist für die Verwirklichung von personalisierter Medizin unerlässlich. Zwar wurden Mechanismen zur Wahrung der Privatsphäre geschaffen, doch sind diese entweder mit erheblichen Kosten verbunden oder schützen die Privatsphäre sensibler Patientendaten nicht vollständig. Dadurch wird die Möglichkeit des Datenaustauschs mit der Forschungsgemeinschaft eingeschränkt, was sowohl die wissenschaftliche Erkenntnisfindung als auch die Reproduzierbarkeit der Ergebnisse behindert. Daher schlagen wir einen anderen Ansatz vor, bei dem synthetische Datensätze verwendet werden, die die Eigenschaften von Patientendatensätzen teilen und gleichzeitig die Privatsphäre respektieren. Wir erreichen dies, indem wir die neuesten Fortschritte in der generativen Modellierung nutzen, um virtuelle Kohorten zu synthetisieren. Solche synthetischen Daten können mit etablierten Werkzeugketten analysiert werden, der wiederholte Zugriff hat keine Auswirkungen auf das Budget für den Datenschutz und kann sogar offen mit der Forschungsgemeinschaft geteilt werden. Während die generative Modellierung von hochdimensionalen Daten wie genetischen Daten bisher unerschwinglich war, haben die jüngsten Entwicklungen in tiefen generativen Modellen eine Reihe von Erfolgsgeschichten in einer Vielzahl von Bereichen gezeigt. Das Projekt wird sowohl Werkzeuge für die generative Modellierung genetischer Daten als auch Einblicke in die langfristige Perspektive dieser Technologie zur Lösung von Problemen in offenen Bereichen liefern. Die Ansätze werden gegen bestehende Analysen, die nicht die Privatsphäre wahren, validiert werden. Wir werden eng mit der wissenschaftlichen Gemeinschaft zusammenarbeiten und Richtlinien vorschlagen, wie Ansätze, die im Gesamtprozess der wissenschaftlichen Entdeckung praktikabel sind, eingesetzt und experimentell angewendet werden können. Dieses einzigartige Projekt wird das erste sein, das die Generierung synthetischer hochdimensionaler genomischer Informationen ermöglicht, um den datenschutzkonformen Datenaustausch in der medizinischen Gemeinschaft zu fördern.
Leitung
Dauer
1.8.2020-31.07.2023
Mitglieder
Förderkennzeichen
ZT-1-PF-5-23
Webseite
Um die großen Herausforderungen der Zukunft zu lösen, müssen Daten, Rechenleistung und Analysekompetenz in einem noch nie dagewesenen Ausmaß zusammengeführt werden. Der Bedarf an Daten ist im Zusammenhang mit den jüngsten Fortschritten im Bereich des maschinellen Lernens noch größer geworden. Daher weisen datenzentrierte digitale Systeme häufig eine starke Tendenz zu zentralisierten Strukturen auf. Die Datenzentralisierung kann zwar die Datenanalyse erheblich erleichtern, sie bringt jedoch auch einige inhärente Nachteile und Gefahren mit sich, nicht nur aus technischer, sondern vor allem auch aus rechtlicher, politischer und ethischer Sicht. Die Bewältigung dieser Probleme ist mühsam und zeitaufwendig, da sie in anspruchsvollen Sicherheits- oder Vertrauensanforderungen wurzelt. Infolgedessen werden viele Forschungsprojekte erheblich behindert, scheitern oder werden einfach nicht in Angriff genommen. In diesem interdisziplinären Projekt wollen wir die Umsetzung dezentraler, kooperativer Datenanalysearchitekturen innerhalb und außerhalb von Helmholtz erleichtern, indem wir die wichtigsten Fragen in solchen Szenarien angehen.
Trustworthy Federated Data Analytics (TFDA) wird es erleichtern, die Algorithmen auf vertrauenswürdige und gesetzeskonforme Weise zu den Daten zu bringen, anstatt einen datenzentrierten Weg zu gehen. Die TFDA wird sich mit den technischen, methodischen und rechtlichen Aspekten befassen, wenn es darum geht, die Vertrauenswürdigkeit der Analyse und die Transparenz hinsichtlich der Analyse-Ein- und Ausgaben zu gewährleisten, ohne die Datenschutzbestimmungen zu verletzen. Um die Anwendbarkeit zu demonstrieren und die Anpassungsfähigkeit der methodischen Konzepte sicherzustellen, werden wir unsere Entwicklungen im Anwendungsfall "Föderierte Strahlentherapiestudie" (Gesundheit) validieren, bevor wir die Ergebnisse verbreiten.
Leitung
Dauer
01.12.2019–30.11.2022
Mitglieder
Förderkennzeichen
ZT-I-0014
Forschungsgebiet
Webseite
Das Projekt "AlgenCY" verfolgt das Ziel, die vielfältigen Möglichkeiten und Herausforderungen, die generative KI-Methoden für die Cybersicherheit mit sich bringen, gründlich zu untersuchen und zu bewerten. Wir wollen herausfinden, wie diese Technologien wirksam zur Abwehr von Cyberbedrohungen genutzt werden können, aber auch, welche potenziellen Schwachstellen und Risiken sie möglicherweise selbst darstellen. Als Ergebnis dieser Forschung streben wir an, fundierte Vorhersagen über die zukünftigen Einflüsse generativer KI auf die Cybersicherheit zu treffen. Auf dieser Basis sollen gezielte Strategien und Lösungen entwickelt werden, um die digitale Sicherheit zu stärken. Im Rahmen dieses Teilprojekts wird das CISPA insbesondere die Sicherheitsaspekte von großen Sprachmodellen (Large Language Models, LLMs) sowie andere generative KI-Methoden untersuchen. Der Schwerpunkt liegt dabei sowohl auf der Absicherung dieser Methoden selbst als auch auf den Möglichkeiten, wie sie in der IT-Sicherheit eingesetzt werden können.
Leitung
Gegründet
2023
Dauer
01.11.2023 - 31.10.2026
Förderkennzeichen
16KIS2012
In KMU-Fuzz werden neue Konzepte erforscht und umgesetzt, um Fuzz-Testing - eine besonders vielversprechende Form von automatischem Softwaretesting - entscheidend zu verbessern. Dabei Iiegt der Fokus vor allem auf dem effizienten Testen von Netzwerkschnittstellen von Applikationen, da existierende Fuzzing-Tools in diesem Bereich momentan noch eine unzureichende Testabdeckung bieten. Durch die Erforschung von neuartigen Methoden, z.B. zustandsbasiertes Netzwerkfuzzing, Fuzz-Testingbasierend auf effizienten Checkpunktmechanismen und effizientes Protokollfuzzing, werden neuartigen Methoden entwickelt, umkomplexe Softwaresysteme automatisiert und effizient testen zu können. Der Fokus dieses Teilprojekts liegt auf der effizientenVerwendung von verschiedenen Methoden aus dem Bereich der Programmanalyse, um Fuzzing effizienter durchführen zu können.
Die Vision von GAIA-X ist die Schaffung einer sicheren, vernetzten, föderierten Dateninfrastruktur, um in Datenökosystemen Datensouveränität herzustellen. Das TELLUS-Vorhaben erweitert diese Dateninfrastruktur der verschiedenen Cloud-Ökosysteme um eine leistungsfähige Anbindung und Integration von heterogener Netzwerkinfrastruktur. Es existieren verschiedene Use Cases, die nicht nur hohe Anforderungen an Cloud-Dienste stellen, sondern insbesondere auch an Netzwerke in Bezug auf Latenz, Bandbreite, Sicherheit, Resilienz und Dynamik.
TELLUS entwickelt basierend auf solchen Use Cases ein Overlay über Kaskaden von Cloud-Anbietern, Vernetzungsdienstleistern und Cloud-Anwendern, um unter Berücksichtigung kritischer Anforderungen eine Ende-zu-Ende Vernetzung mit Garantien für Hybrid-Cloud-Szenarien zu ermöglichen. Dem GAIA-X Gedanken folgend werden durch Integration auf Basis von Standards/Schnittstellen und Systemen, Domänengrenzen überbrückt, Interoperabilität und Portabilität sichergestellt und somit dynamische Netzwerke mit variablen Bandbreiten, geringeren Latenzen, erhöhter Sicherheit und Kontrolle über den Datenfluss im Netzwerk geschaffen.
Im Rahmen dieses Teilprojekts untersucht CISPA vorrangig Sicherheits- und Compliance-Aspekte des Gesamtsystems. Dazu wird eine umfassende Risiko- und Bedrohungsanalyse durchgeführt und basierend auf den Ergebnissen werden entsprechende Schutzkonzepte entwickelt und umgesetzt. Darüber hinaus ist CISPA an einigen anderen Arbeitspaketen beteiligt und bringt dort vor allem ebenfalls Expertise im Bereiche Security mit ein.
Partner: DE-CIX (Verbundkoordinator); PlusServer; SpaceNet; Cloud&Heat; DE-CIX; IONOS; WOBCOM; KAEMI; TRUMPF; Mimetik
Computersysteme in Banken und Versicherungsgesellschaften, aber auch in autonomen Fahrzeugen oder Satelliten sind vielversprechende Ziele für Cyberattacken und müssen geschützt werden um solchen Attacken zu widerstehen, oder um sie auszuhalten und dennoch sicher zu funktionieren. Leider gewinnen Angreifer mit zunehmender Komplexität dieser Systeme immer mehr Möglichkeiten, weshalb wir bei ihrer Verteidigung annehmen müssen, dass manche Attacken erfolgreich sein könnten. Glücklicherweise existieren bereits Resilienz-Techniken, wie etwa die dreifache Replikation des Computersystems mitsamt des Protokolls, um dann durch Abstimmung das korrekte Ergebnis zu bestimmen, auch wenn eine der Instanzen wegen einer erfolgreichen Cyberattacke ein fehlerhaftes Ergebnis liefert. Damit diese Techniken angewendet werden können, müssen sie aber auf die Struktur des Systems abgestimmt sein, insbesondere darauf wie die Komponenten des Systems miteinander interagieren. Die Resilienz-Techniken, die bisher entwickelt wurden, sind auf gewisse Formen der Interaktion eingeschränkt, und die Entwicklung neuer Techniken für aufwendigere Formen der Interaktion ist immer noch eine schwierige und fehleranfällige Aufgabe. Insbesondere können Tools, die die Entwicklung solcher Protokolle durch Korrektheitsprüfungen unterstützen, üblicherweise nur auf komplett fertiggestellte Protokolle angewandt werden, und ihre Anwendung benötigt darüber hinaus seltenes Expertenwissen. Im FM-CReST Projekt haben sich Forscher vom CISPA, Deutschland, und aus dem SnT der Universität Luxembourg zusammengeschlossen, um eine neue Klasse in hohem Maße automatisierter und leicht bedienbarer Tools zu entwickeln, die beim Design beweisbar korrekter Resilienz-Protokolle Unterstützung bieten. Um dies zu erreichen, setzen wir auf Co-Design von Protokollen mit komplexen Interaktionsformen, und basieren die Entwicklung unserer Tools auf den Beobachtungen während der Protokollentwicklung, mit dem Ziel ähnliche Aufgaben in Zukunft zu vereinfachen.
Gefördert durch die Deutsche Forschungsgemeinschaft (DFG) -513487900
Leitung
Gegründet
2023
Dauer
01.12.2023-30.11.2026
Förderkennzeichen
JA 2357/4-1; Projektnummer 513487900
In diesem Projekt wollen wir Globale Synchronisationsprotokolle (GSPs) als ein neues Rechenmodell für nebenläufige Systeme mit einer parametrischen Anzahl von Komponenten einführen. Zusätzlich zu lokalen Updates einer Komponente unterstützen GSPs synchrone globale Updates des Systems, die mittels Bedingungen an den globalen Zustand des Systems beschränkt sein können. Mit dieser Kombination eignen sie sich zur Modellierung von Anwendungen, die auf globaler Synchronisation, z.B. mittels Consensus oder Leader Election, basieren - auf einem Abstraktionslevel der die interne Implementierung des Übereinstimmungsprotokolls verbirgt, aber seine Vor- und Nachbedingungen originalgetreu abbildet. Wir werden Bedingungen identifizieren, unter denen parametrierte Sicherheitsverifikation von GSPs entscheidbar bleibt, obwohl dieses Problem im Allgemeinen für die Kombination der in GSPs unterstützten Kommunikationsprimitive unentscheidbar ist. Eine vorläufige Version der GSPs unterstützt bereits globale Synchronisation und globale Transitionsbedingungen, und wir planen eine Erweiterung des Systemmodells um asynchrone Nachrichtenübermittlung sowie verschiedene Arten der Fehlerbehandlung, so dass die Entscheidbarkeit der parametrierten Verifikation erhalten bleibt. Weiterhin werden wir Bedingungen für kleine Cutoffs für die Sicherheitsverifikation identifizieren, d.h. kleine Schranken auf die Anzahl der Komponenten, die in Betracht gezogen werden müssen um parametrische Sicherheitsgarantien zu bestimmen. Basierend auf diesen Cutoffs werden wir auch einen Ansatz zur automatischen Synthese von GSPs entwickeln, die gegebene Eigenschaften per Konstruktion erfüllen. Zuletzt werden wir auch einen verfeinerungs-basierten Syntheseansatz für GSPs untersuchen, und seine Eigenschaften mit dem Cutoff-basierten Ansatz vergleichen.Unsere Erforschung entscheidbarer Fragmente von GSPs wird geleitet von Anwendungen in verschiedenen Bereichen, darunter Sensornetzwerke, Roboterschwärme und auf Blockchains basierende Anwendungen.
Leitung
Dauer
01.07.2023-30.06.2026
Förderkennzeichen
JA 2357/3-1; Project number 497132954
Forschungsgebiet
Die Kryptologie ist eine Grundlage der Informationssicherheit in der digitalen Welt. Das heutige Internet wird durch eine Form der Kryptographie geschützt, die auf komplexitätstheoretischen Härteannahmen beruht. Idealerweise sollten sie stark sein, um die Sicherheit zu gewährleisten, und vielseitig, um eine breite Palette von Funktionalitäten anzubieten und effiziente Implementierungen zu ermöglichen. Diese Annahmen sind jedoch weitgehend unerprobt, und die Internetsicherheit könnte auf Sand gebaut sein. Das Hauptziel von Almacrypt ist es, dieses Problem zu beheben, indem die Annahmen durch eine fortgeschrittene algorithmische Analyse in Frage gestellt werden.
Insbesondere stellt dieser Vorschlag die beiden Säulen der Public-Key-Verschlüsselung in Frage: Faktorisierung und diskrete Logarithmen. Kürzlich hat die PI dazu beigetragen, zu zeigen, dass das Problem der diskreten Logarithmen in einigen Fällen erheblich schwächer ist als bisher angenommen. Ein Hauptziel ist es, über die Sicherheit anderer Fälle des diskreten Logarithmusproblems, einschließlich elliptischer Kurven, und der Faktorisierung nachzudenken. Wir werden die Verallgemeinerung der neueren Techniken untersuchen und nach neuen algorithmischen Optionen mit vergleichbarer oder besserer Effizienz suchen. Wir werden auch Härteannahmen auf der Grundlage von Codes und Untermengensummen untersuchen, zwei Kandidaten für die Post-Quantenkryptographie. Wir werden die Anwendbarkeit neuerer algorithmischer und mathematischer Techniken auf die Lösung der entsprechenden vermeintlich schwierigen Problemstellungen untersuchen, die Analyse der Algorithmen verfeinern und neue Algorithmuswerkzeuge entwerfen.Die Kryptologie beschränkt sich nicht nur auf die oben genannten Annahmen: es wurden auch andere harte Probleme vorgeschlagen, die auf Post-Quantum-Sicherheit abzielen und/oder zusätzliche Funktionalitäten bieten sollen. Sollte die Sicherheit dieser anderen Annahmen von entscheidender Bedeutung sein, würden sie dem Anwendungsbereich von Almacrypt hinzugefügt werden.Sie könnten auch dazu dienen, andere Anwendungen unseres algorithmischen Fortschritts zu demonstrieren. Zusätzlich zu seinem wissenschaftlichen Ziel strebt Almacrypt auch die Gründung einer verstärkten Forschungsgemeinschaft an, die sich der algorithmischen und mathematischen Kryptologie widmet.
Leitung
Dauer
01.01.2016-31.12.2021
Förderkennzeichen
ERC Advanced Grants 669891
Forschungsgebiet
Neuartige, am Körper getragene Geräte bieten neue, skalierbare Benutzerschnittstellen, die intuitiver und direkter zu bedienen sind. Allerdings birgt die körpernahe Ein- und Ausgabe ernsthafte neue Risiken für die Privatsphäre der Nutzer: Die großen Hand- und Fingergesten, die typischerweise für die Eingabe verwendet werden, sind wesentlich anfälliger für Beobachtung durch Dritte als die etablierten Formen der Toucheingabe. Das gilt in noch größerem Maße für visuelle Ausgabe am Körper. Dies ist besonders problematisch, da am Körper getragene Geräte typischerweise bei mobilen Aktivitäten in nicht-privaten Umgebungen verwendet werden. Das primäre Ziel dieses Projekts ist es, einen Beitrag zur Skalierbarkeit von On-Body-Computing in öffentlichen Umgebungen zu leisten, indem Interaktionstechniken für die Eingabe und Ausgabe privater Informationen entwickelt werden, die eine verbesserte Widerstandsfähigkeit gegenüber Verletzungen der Privatsphäre bieten. Im Mittelpunkt unseres Ansatzes steht das Ziel, die einzigartigen Interaktionseigenschaften des menschlichen Körpers zu nutzen: hohe manuelle Geschicklichkeit, hohe taktile Sensibilität und eine große verfügbare Oberfläche für Ein- und Ausgabe, gepaart mit der Möglichkeit, Ein- und Ausgabe durch variable Körperhaltung flexibel abzuschirmen. Diese Eigenschaften können die Grundlage für neue körperbasierte Ein- und Ausgabetechniken bilden, die skalierbar und (praktisch) unbeobachtbar sind. Dieses Ziel ist bisher weitgehend unerforscht. Es ist sehr anspruchsvoll aufgrund der neuen und höchst unterschiedlichen Formen und Skalierungen von körpernahen Geräten sowie der neuartigen Formen multimodaler Ein- und Ausgabe. Diese werden durch die inhärente Komplexität sozialer Umgebungen, die jeweilige Proxemik und die Aufmerksamkeit von Nutzern und Umstehenden weiter erschwert. Um einen Design-Raum für die Interaktionen zu erstellen, werden wir die Privatsphäre von taktiler Eingabe, visueller und haptischer Ausgabe an verschiedenen Körperstellen empirisch untersuchen, abhängig von der Körperhaltung und den proxemischen Konfigurationen. Anschließend werden wir systematisch körperbezogene Eingabegesten sowie skalierbare Techniken für multimodale Interaktion konzipieren und implementieren, die die Privatsphäre in sozialen Umgebungen hinsichtlich eines generalisierten Bedrohungsmodells wahren. Wir verwenden hierbei Aufmerksamkeitsmodelle, die den menschlichen Körper beinhalten. Die neuen Interaktionstechniken werden empirisch mit Nutzern in realistischen Szenarien und im Labor evaluiert, um zu bewerten, wie ihre Eigenschaften die Benutzerfreundlichkeit, den Datenschutz und die Skalierbarkeit beeinflussen. Beides wird uns helfen, die interne und externe Validität unseres Ansatzes zu verstehen. Wir erwarten, dass die Ergebnisse dieses Projekts wesentlich dazu beitragen werden, die Grundlagen für skalierbare körperbasierte Interaktionen zu schaffen, die die Privatsphäre wahren.
Gefördert durch die Deutsche Forschungsgemeinschaft (DFG) -521601028
Leitung
Gegründet
2023
Dauer
01.04.2024-31.03.2027
Mitglieder
Förderkennzeichen
KR 5384/2-1; Projektnummer 521601028
Viele der heutigen kritischen Infrastrukturen, wie zum Beispiel Stromnetze oder Mobilfunknetze, sind verteilte Systeme. Sie bestehen aus autonomen Knoten, die über ein Peer-to-Peer-Netz verbunden sind. Ein zentrales Ziel der verteilten Datenverarbeitung ist solche Systeme fehlertolerant zu implementieren, um einzelne Fehlerpunkte zu vermeiden. Fehlertolerante Systeme bleiben sicher und verfügbar, auch wenn eine Minderheit von Knoten ausfällt oder falsche Informationen verbreitet.
Verteilte Systeme stützen sich häufig auf die Kryptografie, die sich als leistungsfähiges Werkzeug für Robustheit und Skalierbarkeit erwiesen hat. Trotz ihrer Vorteile kann die Kryptografie jedoch Leistungseinbußen verursachen oder zu Schwachstellen führen, wenn sie nicht vorsichtig eingesetzt wird. Diese beiden Aspekte erschweren den Einsatz in der Praxis erheblich. Infolgedessen verwenden viele reale Systeme sparsam mit der Kryptografie um, was zu mangelnder Robustheit und Skalierbarkeit führt.
CRYPTOSYSTEMS wird die Widerstandsfähigkeit und Effizienz verteilter Algorithmen, die das Herzstück vieler verteilter Systeme bilden, erheblich verbessern. Die Ziele des Projekts sind die Entwicklung und Erforschung formaler Sicherheitsmodelle für kryptographische verteilte Algorithmen, die reale Bedrohungen genau widerspiegeln. Außerdem wollen wir die Kryptographie nutzen, um robuste und skalierbare verteilte Algorithmen zu entwerfen, die die theoretischen Grenzen von Fehlern tolerieren. Dazu entwickeln wir außerdem neuartige Kryptografie, wie kompakte Signaturen und kommunikationseffiziente verteilte Zufallsgeneratoren, um die Effizienz und Sicherheit verteilter Algorithmen zu erhöhen. Diese Innovationen sind ein wichtiger Schritt auf dem Weg zu einem breiten Einsatz sicherer und skalierbarer verteilter Infrastrukturen.
Leitung
Dauer
5 years (60 month)
Förderkennzeichen
HORIZON-ERC (ERC-2023-StG)
Forschungsgebiet
Digitale Signaturen sind ein wesentliches und vielseitiges kryptographisches Werkzeug. In einem digitalen Signaturverfahren kann ein Unterzeichner, der über einen geheimen Schlüssel verfügt, eine Nachricht so signieren, dass die Signatur von anderen mit einem entsprechenden öffentlichen Schlüssel effizient überprüft werden kann. Gleichzeitig sollte es unmöglich sein, eine Signatur im Namen des Unterzeichners zu erstellen (solange sein geheimer Schlüssel tatsächlich geheim bleibt). Eine wichtige Variante des Signaturverfahrens ist eine Multi-Signer Version, bei der mehrere Unterzeichner gemeinsam eine kompakte Signatur für eine Nachricht erstellen können. Später kann die daraus resultierende Signatur mit ihren öffentlichen Schlüsseln (als Aggregat) effizient verifiziert werden. Auf diese Weise kann ein speichereffizienter Beweis dafür erbracht werden, dass eine bestimmte Anzahl von Personen, beispielsweise die Hälfte aller Parteien im System, eine Nachricht unterzeichnet hat. Dieser faszinierende Aspekt von Multi-Party Signatures hat in letzter Zeit im Zusammenhang mit Blockchain- und Konsensprotokollen enorme Aufmerksamkeit erregt.
Ziel dieses Projekts ist es, die Sicherheit und das Verständnis von Multi-Signer Signatures zu verbessern, um 1) modulare Frameworks für den Aufbau von Multi-Signer Signatures aus schwächeren Primitiven wie Identifikationsschemata zu entwickeln. Diese Art des Design-Ansatzes hat sich bei der Konstruktion von einfachen Signaturen als sehr erfolgreich erwiesen und wird zu Multisigner-Signaturschemata aus einer breiteren Palette mathematischer Härteannahmen führen. 2) Sicherheitsgarantien bestehender, in der Praxis verwendeter Multi-Signer Verfahren zu überprüfen und zu verbessern. Unser Hauptziel ist es, zu beweisen, dass bestehende Konstruktionen sicher gegenüber einem mächtigen Gegner sind, der Unterzeichner im Laufe der Zeit korrumpieren kann. Diese Art von Sicherheitsgarantie wird in praktischen Anwendungen, z. B. bei Konsensprotokollen, oft gefordert, wird aber von den meisten effizienten Verfahren nicht erfüllt. 3) Robustheit von Protokollen zur verteilten Schlüsselerzeugung (distributed key generation, DKG) zu verbessern. Viele Multi-Signer Verfahren verlassen sich auf einen vertrauenswürdigen Händler, um korrelierende Schlüssel zwischen den Unterzeichnern zu erstellen. Dies ist für viele natürliche Anwendungen wie Blockchain-Protokolle problematisch, bei denen ein solcher Händler möglicherweise nicht verfügbar ist. Daher können die Parteien stattdessen ein DKG-Protokoll verwenden, um gemeinsam einen korrelierenden Satz von Schlüsseln zu erstellen. Dies macht DKG-Protokolle zu einem wichtigen Instrument für die "trust-free" Ausführung von Multi-Signer Protokollen. Leider beruhen die bestehenden DKG-Protokolle auf unrealistischen Netzwerkannahmen oder tolerieren nur eine geringe Anzahl von Korruptionen. Das Ziel dieses Projekts ist es, ihre Robustheit in diesen beiden Punkten zu verbessern.
Leitung
Dauer
1.9.2022 – 31.08.2025
Mitglieder
Förderkennzeichen
LO 3021/1-1
Ziel des SYSTEMATICGRAPH-Projekts ist es, die Suche nach traktionsfähigen algorithmischen Graphen-Problemstellungen in einen systematischen und methodischen Rahmen zu stellen: Statt sich auf spezifische sporadische Problemstellungen zu konzentrieren, wollen wir ein einheitliches algorithmisches Verständnis erreichen, indem wir die gesamte Komplexitätslandschaft einer bestimmten Problemdomäne abbilden. Ein Dichotomiesatz ist ein vollständiges Klassifikationsergebnis, das die Komplexität jedes Mitglieds einer Problemfamilie charakterisiert: Es identifiziert alle Fälle, die effiziente Algorithmen zulassen, und beweist, dass alle anderen Fälle rechenintensiv sind. Das Projekt wird zeigen, dass eine solche vollständige Klassifikation für ein breites Spektrum von Graphenproblemen aus Bereichen wie dem Finden von Mustern, Routing und überlebensfähigem Netzwerkdesign durchführbar ist und dass selbst für klassische und gut untersuchte Probleme neuartige algorithmische Ergebnisse und neue Ebenen des algorithmischen Verständnisses erreicht werden können.
Leitung
Dauer
01.07.2017-30.06.2022
Förderkennzeichen
Grant agreement ID: 725978
Forschungsgebiet
TESTABLE befasst sich mit der Grand Challenge, wie moderne webbasierte und KI-gestützte Anwendungssoftware sicher und datenschutzfreundlich entwickelt und gepflegt werden kann. Mit TESTABLE soll der Grundstein für eine neue Integration von Sicherheit und Datenschutz in den Softwareentwicklungszyklus (SDLC) gelegt werden. Dazu wird eine neuartige Kombination zweier Metriken zur Quantifizierung der Sicherheits- und Datenschutzrisiken eines Programms vorgeschlagen, nämlich die Testbarkeit des Codes und Indikatoren für vulnerables Verhalten. Auf der Grundlage des neuartigen Konzepts der "testability patterns" erlaubt TESTABLE es SDLC-Akteuren (z. B. Software-/AI-Entwicklern, Managern, Testern und Prüfern) das Risiko zu verringern, indem es bessere Testtechniken für die Sicherheit und den Schutz der Privatsphäre für klassische und KI-gestützte Webanwendungen entwickelt und die Auswirkungen der Muster, die ein hohes Risikoniveau verursachen, beseitigt oder abschwächt.
Um diese Ziele zu erreichen, wird TESTABLE neue Algorithmen, Techniken und Tools entwickeln, um webbasierte Anwendungssoftware zu analysieren, zu testen und zu untersuchen. Erstens wird TESTABLE Algorithmen und Techniken zur Berechnung der Risikostufen von Webanwendungscodes bereitstellen. Zweitens wird TESTABLE neue Testverfahren bereitstellen, um die Testbarkeit von Software zu verbessern. Dies geschieht mit neuartigen statischen und dynamischen Programmanalysetechniken, die die Unzulänglichkeiten bestehender Ansätze zur Erkennung komplexer und schwer aufzuspürender Web-Schwachstellen beheben und Erkenntnisse aus dem Bereich der Sicherheitstests und des gegnerischen Maschinellen Lernens kombinieren. TESTABLE wird auch Pionierarbeit bei der Entwicklung einer neuen Generation von Techniken leisten, die auf die Prüfung und Untersuchung von Datenschutzproblemen in Webanwendungen zugeschnitten sind. Außerdem wird TESTABLE neuartige Techniken entwickeln, die Software- und KI-Entwicklern, Managern, Testern und Auditoren dabei helfen, die mit dem hohen Risiko verbundenen Muster zu beseitigen oder abzuschwächen.
TESTABLE stützt sich auf ein bewährtes Team von neun europäischen Partnern, die über umfassende Expertise in den Bereichen Sicherheitstests, Datenschutztests, Sicherheit des maschinellen Lernens und Programmanalyse verfügen und sich durch eine starke Erfolgsbilanz und einen großen Einfluss in der Sicherheitscommunity auszeichnen.
This project has received funding from the European Union's H2020-SU-DS-2020 Grant Agreement No. 101019206.
Leitung
Dauer
01.09.2021-31.08.2024
Förderung
4 835 135 €, of which 721 138,75 € for CISPA
Förderkennzeichen
101019206
Das Erkennen von Schwachstellen in Webanwendungen ist ein schwieriges Problem, für das es noch keine allgemeine Lösung gibt. Bestehende Ad-hoc-Lösungen können nur einfache Formen von Schwachstellen identifizieren, die auf der Oberfläche von Webanwendungen vorhanden sind. In diesem Projekt schlagen wir Yuri vor, einen zielorientierten Sicherheitstest-Agenten, der semantische Modelle und Programmrepräsentationen synthetisieren kann, die der menschlichen Wahrnehmung und dem Verständnis des Programmverhaltens näher kommen. Yuri kann diese Modelle nutzen, um die Erkundung der Angriffsoberfläche voranzutreiben und Sicherheitstests durchzuführen, wodurch die Abdeckung moderner webbasierter Anwendungssoftware erheblich erweitert wird.
Die Entwicklung verlässlicher und sicherer Software-Systeme verlangt systematisches und umfassendes Testen. Da strukturierte und standardisierte Datenformate über viele Software-Anwendungen hinweg zum Austausch von Daten genutzt werden, müssen die verwendeten Systeme robust und sicher auch mit manipulierten oder fehlerhaften Datensätzen umgehen können. Die für die Tests benötigten Testdaten können für strukturierte Formate, die unter anderem in elektronischen Rechnungen verwendet werden, bislang nur händisch erzeugt werden. Dadurch sind diese in ihrer Verfügbarkeit begrenzt und entsprechend kostenintensiv.
Die Forschenden im Vorhaben „InputLab“ entwickeln Verfahren zur automatischen Erzeugung von Testdaten für Datenformate, für die ein Datenschema vorliegt. Solche Schemas werden in Standardisierungsverfahren für digitale Formate mitdefiniert und tragen zur Interoperabilität verschiedener Software-Systeme bei. Die im Vorhaben generierten Testdaten können genutzt werden, um Fehlverhalten in Anwendungen auszulösen, zu diagnostizieren und reparieren. Dabei können auch subtile Fehler erkannt werden, die sich nicht durch drastisches Verhalten wie Software-Abstürze zeigen. So können schwerwiegende Probleme und Kosten vermieden werden. Damit Entwicklungsteams die Datensätze für ihre Zwecke einfacher verwenden können, sollen diese flexibel an die Eigenschaften von Beispieldatensätzen anpassbar sein.
Durch die Projektentwicklungen wird der vielfältige Bedarf an hochwertigen Testdaten für Software-Systeme mit strukturierten Formaten adressiert. Dabei soll eine möglichst kleine Anzahl an Datensätzen eine große Bandbreite fehlerhafter oder manipulierter Datenpunkte abdecken, um effektive und kosteneffiziente Tests zu ermöglichen. Gleichzeitig kann mit den erzeugten Testdaten eine Vielzahl unterschiedlicher Software-Anwendungen auf Schwachstellen untersucht und somit nachhaltig sicherer gestaltet werden.
Ziel des Projektes „Automatisierte Sicherheitsanalyse von RTOS- und MCU-basierter IoT-Firmware (ASRIOT)“ ist es, automatisierte Sicherheitsanalysen von Firmware zu erforschen, die auf Echtzeitbetriebssystemen (RTOS) und Ein-Chip-Computersystemen, sog. Mikrocontrollern (MCU), basieren, um so vertrauenswürdige Steuerungssysteme zu schaffen. Solche Steuerungssysteme werden beispielsweise zur Überwachung von Fertigungsprozessen oder der Steuerung von Fahrzeugen eingesetzt. Die anvisierte Plattform soll im Einsatz zunächst die proprietäre Firmware automatisch analysieren können, um herstellerspezifische Komponenten und Bibliotheken zu registrieren. Durch Analyse von sogenannten Binärdateien, die nach einem vorher festgelegten Schema aufgebaut werden, sollen die zusätzlichen oder angepassten Komponenten automatisch detektiert werden. Des Weiteren soll die Plattform typische Sicherheitsschwachstellen in Kommunikation, Verschlüsselung und Speicherverwendung automatisch erkennen sowie die Befunde in detaillierten Berichten aufbereiten. Die Maßnahmen werden im Rahmen des Projektes an einem integrierten Demonstrator getestet, um zum Abschluss des Projektes unmittelbar anwendbare Technologien vorweisen zu können.
Leitung
Gegründet
2023
Dauer
01.04.2023 - 31.03.2026
Förderkennzeichen
16KIS1807K
Das Ziel von ProSeCA ist es moderne Cybersicherheits-Architekturen für Fahrzeuge zu erforschen und umzusetzen. ProSeCA setzt dabei zur Gewährleistung größtmöglicher Funktions- und Datensicherheit auf einen ganzheitlichen Ansatz, mit dem auf fundamentaler Ebene typische Sicherheitsprobleme wie Speicherfehler gar nicht erst entstehen. Die Cybersicherheit von vernetzten autonomen Fahren (z.B. eine sichere interne/externe Kommunikation) ist kritisch für die Sicherheit der Passagiere und anderen Verkehrsteilnehmer. Die Vielfalt heterogener Elemente und Funktionen heutiger Automotive-Architekturen erzeugt bei steigenden Anforderungen große Angriffsflächen für CyberAngriffe.
Zwar fordert die Richtlinie UNECE R155 für künftige Neuzulassungen Cybersecurity-Management, doch fehlt bisher Erfahrung mit geeigneten Architekturen und Sicherheitsbausteinen. In diese Lücke zielt ProSeCA: Nach dem Leitgedanken „Ein System ist nur so sicher wie sein schwächstes Glied" geht es, ausgerichtet an ISO/SAE 21434, um ein Sicherheitskonzept als modularisierbare und standardisierbare vertrauenswürdige Hardware-/Softwarearchitektur für Fahrzeugsteuergeräte. Es beinhaltet als Sicherheitsbausteine neben Hardware-basierten Schutzmaßnahmen die Programmiersprache Rust und Lösungen zum automatisierten Testen der Softwarekomponenten. Ein Demonstrator zeigt die Realisierbarkeit derart neuer Architekturen als OEM-offene Lösung. Das Konsortium aus acht Partnern ist ein gezielter Ausschnitt der Automotive-Wertschöpfungskette.
Leitung
Gegründet
2023
Dauer
01.09.2023 - 30.06.2026
Förderung
PDIR
Förderkennzeichen
19A23009G
Kamaeleon befasst sich mit der Anpassung von leichten Elektrofahrzeugen durch Software, so dass die Fahrzeuge in der Lage sind, sich automatisch an unterschiedlich befahrene Flächen oder Beförderungsmittel anzupassen. Verschiedene Anforderungen der derzeit noch fest vorgeschriebenen Zulassungsvoraussetzungen müssen durch Anpassung erfüllt werden. Die Sicherheit wird in erster Linie durch die gefahrene Geschwindigkeit bezogen auf die jeweilige Verkehrsfläche, aber auch durch die Nähe zu anderen Verkehrsteilnehmer*innen operationalisiert. Die Höchstgeschwindigkeit und Dauerleistung ist aber ebenso ein Kriterium für die Zulassung von Fahrzeugen für einen bestimmten Einsatzort (z.B. Pedelec-Bürgersteig, E-Bike-Straße). Technisch gesehen wird in erster Linie die maximal fahrbare Geschwindigkeit geregelt. Durch dieses Vorgehen entsteht eine völlig neue Klasse von Fahrzeugen, die nicht durch feste Merkmale wie Leistung, Höchstgeschwindigkeit, Ausstattung usw. definiert sind, sondern deren Funktionen durch Software regelbar sind.
Leitung
Gegründet
2019
Dauer
01.04.2019 – 31.12.2022
Mitglieder
Förderkennzeichen
16SV8210
Antimikrobielle Resistenz (AMR) ist die vielleicht größte Bedrohung für die menschliche Gesundheit. Seit ihrer Entdeckung vor über einem Jahrhundert haben Antibiotika die menschliche Lebenserwartung und -qualität erheblich verbessert: Aus vielen lebensbedrohlichen Krankheiten sind leichte Unannehmlichkeiten geworden. Der falsche und übermäßige Einsatz von Antibiotika hat jedoch dazu geführt, dass Mikroben selbst gegen die fortschrittlichsten Medikamente Resistenzen entwickeln. Krankheiten, die einst als besiegt galten, werden wieder bedrohlich. Einzelne Resistenzmutationen sind bereits gut erforscht. Neue Erkenntnisse darüber, welche neuen Mutationen eine antimikrobielle Resistenz verursachen können, sind der Schlüssel zur Entwicklung von Medikamenten, die die mikrobielle Abwehr zuverlässig umgehen können. In diesem Projekt möchten wir diese Erkenntnisse durch erklärbare künstliche Intelligenz gewinnen, indem wir neuartige Methoden zur Entdeckung leicht interpretierbarer lokaler Muster entwickeln und anwenden, die im Hinblick auf eine oder mehrere Resistenzklassen bedeutsam sind. Wir beabsichtigen, eine kleine Anzahl leicht interpretierbarer Modelle zu erlernen, die zusammen genommen die Resistenzmechanismen in den Daten erklären können. Dazu verwenden wir statistisch robuste Methoden, um signifikante Untergruppen zu identifizieren und informationstheoretische Ansätze, um rauschresistente Regeln zu entdecken. Der Schlüssel zu unserem Erfolg liegt in der engen Einbindung von Fachwissen in die Entwicklung der neuen Algorithmen, der frühzeitigen Auswertung realer Daten und dem Potenzial des Partnerinstituts, besonders vielversprechende Ergebnisse im Labor zu evaluieren.
Fuzzing - das Testen von Software durch zufällig generierte Eingaben - ist eine der führenden Methoden zur Entdeckung von Software-Schwachstellen. Fuzzing ist einfach zu implementieren; einmal eingerichtet, kann es tage- und wochenlang laufen gelassen werden, wobei das System kontinuierlich mit einer Eingabe nach der anderen getestet wird. Fuzzing hat auch keine falschen Positivmeldungen: Jede Eingabe, die das Programm zum Absturz bringt, löst eine echte Schwachstelle aus, die von Angreifern ausgenutzt werden kann, und sei es nur für einen Denial-of-Service-Angriff.
Fuzzing ist jedoch langsam. Die überwältigende Mehrheit der zufällig generierten Eingaben ist ungültig und wird daher von dem zu testenden Programm zurückgewiesen. Dadurch können immer noch Fehler erkannt werden, insbesondere in den Routinen zum Parsen und Zurückweisen von Eingaben. Um nach der Eingabeverarbeitung eine tiefere Funktionalität zu erreichen, sind jedoch Eingaben erforderlich, die syntaktisch gültig sind.
Das traditionelle Mittel, um gültige Eingaben zu erzeugen, ist die formale Spezifizierung der Eingabesprache durch formale Sprachen wie reguläre Ausdrücke und Grammatiken - gut etablierte und gut verstandene Formalismen mit einer soliden und detaillierten theoretischen Grundlage und einer Vielzahl von Anwendungen in der Praxis. Die Spezifizierung einer Eingabesprache ist jedoch mit einem enormen manuellen Aufwand verbunden, der von Tagen für einfache Datenformate bis zu Monaten für komplexe Eingabesprachen reicht.
In den letzten Jahren hat die Gruppe von PI Zeller eine Reihe von Techniken entwickelt, die automatisch Grammatiken aus einem gegebenen Programm und einer Reihe von Beispieleingaben extrahieren können, und gezeigt, wie man aus diesen Grammatiken äußerst effiziente Fuzzer konstruiert. Diese Techniken sind so ausgereift, dass sie in einem kürzlich veröffentlichten Lehrbuch sogar als Open Source verfügbar sind. Dennoch sind die Lernenden der Grammatiken nach wie vor auf einen umfassenden Satz von Beispielen angewiesen, die jedes Merkmal des Eingabebereichs abdecken.
Daher ist es das Ziel des Projekts, Testgeneratoren zu schaffen, die speziell auf Eingabeprozessoren abzielen - d.h. sowohl auf Lexer (Werkzeuge, die Eingabezeichen zu Wörtern zusammensetzen) als auch auf Parser (Werkzeuge, die Wortfolgen zu syntaktischen Strukturen zusammensetzen, wie z.B. Sätze in natürlicher Sprache). Sein Ansatz besteht darin, einige triviale ungültige Eingaben (z.B. die Zeichenfolge "x") in ein Programm einzuspeisen und dann die Vergleiche, die dieses Programm durchführt, dynamisch zu verfolgen, bevor es die Eingabe als ungültig zurückweist.
Leitung
Dauer
01.06.2019 – 30.11.2021
Forschungsgebiet
Jedwedes Programmverhalten wird durch eine Programmeingabe ausgelöst. Welche Teile der Eingabe lösen das Programmverhalten aus, und wie? Das Ziel des EMPEROR-Projekts ist es, automatische Erklärungen für Programmverhalten zu erstellen - insbesondere für Programmfehler. Zu diesem Zweck (1) verwenden wir Grammatiken, die Eingaben in einzelne Elemente zerlegen; (2) lernen statistische Beziehungen zwischen Merkmalen von Eingabeelementen und Programmverhalten; und (3) verwenden systematische Tests, um abgeleitete Zusammenhänge zu stärken oder zu widerlegen, einschließlich interner Ausführungsmerkmale. Als Ergebnis erhalten wir einen Ansatz, der (1) automatisch die (Eingabe-)Bedingungen herleitet, unter denen ein bestimmtes Verhalten auftritt: "Das Programm schlägt fehl, wenn die Mailadresse ein Anführungszeichen enthält"; (2) das betreffende Verhalten über generierte Testeingaben automatisch (re)produziert: "andr'e@foo.com"; und (3) die Beziehungen zwischen Ursache und Wirkung durch generierte Testfälle, die Ausführungsmerkmale beinhalten, verfeinert und produziert: "Die Eingabe ''''''''@bar.com" verursacht eine Rekursionstiefe von mehr als 128, was zu einem Absturz führt". EMPEROR ist der Nachfolger von EMPRESS, in dem wir gezeigt haben, dass es statistische Beziehungen zwischen Eingabeelementen und Programmverhalten gibt und wie diese Beziehungen von prototypischen Anwendungen zum Testen und Debuggen genutzt werden könnten. EMPEROR übernimmt die Ansätze von EMPRESS und vereinheitlicht und erweitert sie in einem einzigen modularen Ansatz, der weit über einfache statistische Beziehungen hinausgeht. Durch das Erlernen und Verfeinern von prädiktiven und generativen Modellen wird EMPEROR in der Lage sein, Beziehungen zwischen beliebigen Eingabemerkmalen abzuleiten und zu verfeinern und so unser Verständnis dafür zu verbessern, wie und warum sich Software so verhält, wie sie es tut.
Leitung
Dauer
1.10.2021-30.09.2024
Mitglieder
Förderkennzeichen
ZE 509/7-2
Forschungsgebiet
Programme nutzen Zeichenketten (Strings), um alle Arten von Textdaten darzustellen: Namen, Kreditkartennummern, E-Mail-Adressen, URLs, Bankkonten, Farbcodes und vieles mehr.
Programmiersprachen bieten jedoch nur wenig Unterstützung, um zu überprüfen, ob der Inhalt dieser Strings auch tatsächlich den Erwartungen entspricht. Dies kann nicht nur zu Funktionsfehlern, sondern auch zu häufigen Angriffen wie Skript- oder SQL-Injektionen führen. In diesem Antrag führen wir String-Typen ein; ein Mittel, um die gültigen Werte von Strings mit Hilfe von formalen Sprachen wie regulären Ausdrücken und Grammatiken auszudrücken. Wir führen Verfahren ein, um zu spezifizieren, welche Mengen von Strings als Werte akzeptabel sind, und um dynamisch und statisch zu prüfen, ob das Programm in Bezug auf die spezifizierten String-Typen korrekt ist. Da es sich um formale Sprachen handelt, ermöglichen String-Typen auch das Erzeugen von Instanzen aus diesen Spezifikationen.
Hiermit wird ein massives automatisiertes Testen von String-Verarbeitungsfunktionen mit gültigen Eingaben möglich, wobei String-Typen wiederum String-Ergebnisse auf lexikalische, syntaktische und semantische Korrektheit prüfen. Schließlich führen wir Mittel ein, um solche Spezifikationen aus dem Code und seinen Ausführungen zu erlernen, so dass String-Typen leicht einzuführen sind. Das Konsortium bringt umfangreiche Erfahrung in der statischen Analyse von Parsing-Code, der Generierung von Unit-Tests und Orakeln sowie sprachbasierter Spezifikation und Testen mit. Ihre gemeinsame Expertise wird dieses Vorhaben zum Erfolg führen.
Leitung
Gegründet
2024
Dauer
01.09.2024 - 31.08.2027
Mitglieder
Förderkennzeichen
ZE 509/10-1
Hepatitis D ist die bei weitem schwerste Form der chronischen Virushepatitis, die häufig zu Leberversagen, hepatozellulärem Karzinom und Tod führt. Hepatitis D wird durch eine Koinfektion von Hepatitis-B-Patienten mit dem Hepatitis-D-Virus (HDV) verursacht. Weltweit sind bis zu 20 Millionen Menschen mit HDV infiziert, darunter etwa 250 000 Patienten in der Europäischen Union. Es gibt nur sehr wenige Erkenntnisse über die Pathophysiologie der Krankheit und die Wechselwirkungen zwischen Wirt und Virus, die die große interindividuelle Variabilität im Verlauf der Hepatitis D erklären. Insbesondere ist nicht bekannt, warum 20-50 % der Patienten spontan in der Lage sind, die HDV-Replikation zu kontrollieren, warum die meisten, aber nicht alle Patienten ein fortgeschrittenes Stadium der Lebererkrankung erreichen und warum nur einige Patienten auf eine antivirale Behandlung mit pegyliertem Interferon alpha oder dem neuen HBV/HDV-Eintrittsinhibitor Bulevirtid ansprechen. Da es sich bei HDV um eine Seltene Krankheit handelt, gibt es keine multizentrischen Kohorten von HDV-infizierten Patienten mit geeigneten Biobanken. Es gibt auch kein zuverlässiges tierisches Modell, an dem die Reaktionen des Wirtes untersucht werden könnten. Daher besteht ein dringender klinischer, sozialer und wirtschaftlicher Bedarf an einem besseren Verständnis der individuellen Faktoren, die den Verlauf der Infektion bestimmen, und an der Ermittlung von Patienten, die von den derzeit verfügbaren Behandlungen profitieren. Hepatitis D ist eine Prototyp-Infektion, die von einem neuen individualisierten infektionsmedizinischen Ansatz enorm profitieren könnte. Unser Ziel ist es, ein unvoreingenommenes Screening einer großen multizentrischen Kohorte gut definierter HDV-infizierter Patienten durchzuführen, gefolgt von mechanistischen Studien zur Bestimmung der funktionellen Rolle bestimmter Moleküle. Die identifizierten spezifischen Parameter könnten unmittelbare Auswirkungen auf die personalisierten Überwachungsstrategien und antiviralen Behandlungsansätze haben. D-SOLVE zielt darauf ab, die Last der Krankheit zu verringern, die Lebensqualität der Patienten zu verbessern und die durch HDV-Infektionen verursachten direkten und indirekten Kosten zu senken, indem hervorragende klinische, immunologische, bioinformatische und virologische Fachkenntnisse aus führenden europäischen Zentren kombiniert werden.
Leitung
Dauer
1.10.2022-30.09.2026
Mitglieder
Förderkennzeichen
HORIZON-HLTH-2021-DISEASE-04-07
Forschungsgebiet
Wissenschaftler:innen des CISPA bringen ihr Wissen und ihre Ressourcen in Verbünde und Netzwerke mit nationalen und internationalen Partnern ein, um ein gemeinsames Ziel mit geteilten Kräften zu erreichen. In diesen langfristig angelegten Partnerschaften engagiert sich CISPA häufig in koordinierender Funktion.
Helmholtz-Forschungszentrum für medizinische Sicherheit, Datenschutz und KI (HMSP)
Das Helmholtz-Forschungszentrum für Medizinische Sicherheit, Datenschutz und KI (HMSP) ist eine gemeinsame Initiative von sechs Helmholtz-Zentren - CISPA, DZNE, DKFZ, HMGU, HZI und MDC -, die führende Experten aus den Bereichen IT-Sicherheit, Datenschutz und KI/Maschinelle Lernverfahren sowie aus dem medizinischen Bereich zusammenbringt, um eine sichere und datenschutzgerechte Verarbeitung medizinischer Daten mit Technologien der nächsten Generation zu ermöglichen. Ziel ist es, wissenschaftliche Durchbrüche im Schnittpunkt von Sicherheit, Datenschutz und KI/Maschinellem Lernen mit der Medizin zu erreichen und eine Technologie zu entwickeln, die neue Formen effizienter medizinischer Analytik ermöglicht und gleichzeitig den Patienten vertrauenswürdige Sicherheits- und Datenschutzgarantien sowie die Einhaltung heutiger und künftiger gesetzlicher Vorschriften bietet.
Leitung
Gegründet
2019
Mitglieder
Forschungsgebiet
Webseite
Das CISPA-Stanford Center for Cybersecurity ist ein gemeinsames Zentrum für Cybersicherheitsforschung des CISPA und der Stanford University, das das hohe Potenzial einer für beide Seiten vorteilhaften Zusammenarbeit zwischen CISPA und Stanford auf dem Gebiet der Cybersicherheit erkennt und dem Wunsch der Wissenschaftler auf beiden Seiten nach gemeinsamer Forschung folgt.
Die Zusammenarbeit hat die folgenden zwei miteinander verflochtenen Ziele:
Um diese Ziele zu erreichen, gründeten CISPA und die Stanford University diese Zusammenarbeit zum CISPA-Stanford Center for Cybersecurity mit entsprechenden Forschungsaktivitäten am CISPA und an der Stanford University. Das Zentrum befasst sich mit den besonderen Karrierebedürfnissen junger deutscher Wissenschaftler im Bereich der Cybersicherheit. Es fördert die berufliche Entwicklung einer kleinen Anzahl ausgewählter, herausragender Persönlichkeiten, indem es ihnen die Möglichkeit bietet, zwei Jahre lang an der Stanford University als Visiting Assistant Professors im Bereich der Cybersicherheit zu arbeiten und dann nach Deutschland zurückzukehren, um ihre Forschung als Senior Researcher am CISPA und schliesslich als Professor an einer deutschen Universität oder als Forschungsleiter in der Industrie fortzusetzen.
Webseite
Ziel dieser Initiative ist es, die Stärken zweier der größten und renommiertesten Institutionen zu bündeln: Das CISPA Helmholtzzentrum für Informationssicherheit und das INRIA/Loria in Nancy werden gemeinsam die Cybersicherheitsforschung und entsprechende Transfer- und Innovationsaktivitäten zwischen Frankreich und Deutschland stärken und entlang der starken deutsch-französischen Achse eine fokussierte Forschung zu disruptiven Innovationen für die digitale Souveränität ermöglichen. Zu den zentralen Themen gehören die Selbstbestimmung beim Data Profiling, europäische Internet- und Kryptographie-Standards, in Europa entwickelte und eingehend evaluierte Betriebssysteme zur Sicherung kritischer Infrastrukturen, der Schutz der Privatsphäre und Sicherheitsgarantien in automatisierten KI-Prozessen sowie Secure Networking in Industry 4.0 und autonome Systeme. Das Zentrum wird bilaterale deutsch-französische Forschungsgruppen aufbauen. Neben der transnationalen Zusammenarbeit wird die Förderung des wissenschaftlichen Nachwuchses ein Kernelement sein. Nachwuchswissenschaftler:innen sollen die Möglichkeit erhalten, ihre Forschungsinteressen durch individuelle Betreuung bereits in einem frühen Stadium ihrer wissenschaftlichen Laufbahn selbständig voranzutreiben.
CISPA, KAIST und KIST Europe MoU streben die Initiierung gemeinsamer Forschungsprojekte in den Bereichen der Cybersicherheits-Technologien an. Die Partner unterstützen die wissenschaftliche Zusammenarbeit und den Austausch zwischen den akademischen Mitgliedern der Institutionen. Die wichtigsten Bereiche der Zusammenarbeit sind: Systemsicherheit, Web-Sicherheit und Kryptographie.
Die Partner haben bereits Drittmittel eingeworben, um sich auf spezifische Forschungsthemen von gemeinsamem Interesse konzentrieren zu können. In jährlichen Treffen diskutieren die Forscher aus Deutschland und Korea laufende Projekte untereinander und mit Forschern aus anderen deutschen oder koreanischen Institutionen.
In der im Oktober 2018 unterzeichneten Absichtserklärung identifizieren Dcypher und CISPA den Bedarf für gemeinsame Forschungsprojekte und für das Eingehen von Synergien, insbesondere in den Bereichen:
System- und Service-Security by Design
Verteidigung von neu entwickelten und älteren Systemen
Entscheidungsfindung in sozio-ökonomischen Umgebungen
Schutz vor Missbrauch und missbräuchlicher Verwendung persönlicher Daten
Nach der Einstellung von DCYPHER im Oktober 2020 wird die Zusammenarbeit mit den Niederlanden in einem anderen Format fortgeführt werden.
Leitung
Gegründet
2018
Dauer
October 2018 – October 2020
Mitglieder
Das CISPA- Helmholtz-Zentrum für Informationssicherheit (CISPA) und die Leibniz Universität Hanno-ver (LUH) haben sich zusammengetan, um die Forschung in den Bereichen Cybersicherheit und Da-tenschutz voranzutreiben. Die Initiative mit initialem Fokus auf Nutzerzentrierte Sicherheit, Daten-schutz und Sicherheit in der Industrie wird vom Land Niedersachsen finanziell gefördert. Die Koope-ration umfasst eine gemeinsame Berufung von CISPA und LUH, die Ansiedlung einer Nachwuchs-gruppe sowie einer unselbstständigen Betriebsstätte des CISPA in Hannover. Zur Weiterentwicklung der Zusammenarbeit wurde ein Kooperationsgremium eingerichtet, in dem auch Niedersachsens Wissenschaftsministerium und das Wirtschaftsministerium vertreten sind. Neben der Forschung spie-len auch der Transfer der Forschungsergebnisse, z.B. durch Industriekooperationen, und die Nach-wuchsförderung eine zentrale Rolle in der Kooperation.
Die Kooperation zwischen dem CISPA Helmholtz-Zentrum für Informationssicherheit in Saarbrücken und Inria, French National Institute for Research in Digital Science and Technology, dem frankreichweit agierenden, nationalen Forschungsinstitut für digitale Wissenschaft und Technologie, hat zum Ziel, die deutsch-französische wissenschaftliche Zusammenarbeit zu stärken, indem beide Zentren ihre jeweiligen nationalen Perspektiven einbringen und diese im europäischen Umfeld reflektieren. Die Zusammenarbeit umfasst unter anderem gemeinsame Forschungsprojekte, den Austausch von Forschenden und akademischem Personal sowie Workshops und Konferenzen.
Forschungsgebiete:
Algorithmische Grundlagen und Kryptographie, Vertrauenswürdige Informationsverarbeitung, Verlässliche Sicherheitsgarantien, Erkennung und Vermeidung von Cyberangriffen, Sichere vernetzte und mobile Systeme, Empirische und verhaltensorientierte Sicherheit