Die Aktualität der Forschungsaktivitäten des CISPA zeigt sich auch an einer Vielzahl an extern geförderten Projekten, in denen die Wissenschaftler:innen spezifischen Fragen der Informationssicherheit beleuchten. Dabei agiert CISPA in einem Netzwerk aus exzellenten nationalen und internationalen Partnern, die Grundlage für interdisziplinäre Innovationsvorhaben. Im Fokus steht bei der globalen Zusammenarbeit auch die Mobilität der Forschenden aller Karrierestufen, die sich während eines Gastaufenthalts aktiv und direkt in laufende Arbeiten einbringen.
Ein Teil der Forschung am CISPA wird über Drittmittel finanziert. Die Wissenschaftler:innen werben diese in wettbewerblichen Verfahren allein oder gemeinsam mit weiteren Antragstellern ein.
Along with releases of new web standards in browsers (WebAssembly, WebGPU, WebUSB, etc.), more and more features of connected devices are directly usable from the web. While these specifications hold great promise from a performance perspective, they keep raising significant security concerns. In this project, we aim to analyze the security implications of new features that provide direct or indirect access to low-level hardware features. Building on our previous research, we will (1) investigate the impact of directly mounting native side-channel attacks from the web, (2) develop new methods to efficiently port attacks to browsers to facilitate a faster risk assessment for novel attacks, (3) explore how side-channel attacks can leak secrets or enable user tracking via hardware fingerprints, and (4) lay the foundations for secure low-level web standards by exploring the effectiveness of existing and novel countermeasures (eg. sandboxing) through the lens of hardware/software contracts.
Leitung
Dauer
1.9.2022 – 31.8.2025
Mitglieder
Förderkennzeichen
RO 5251/1-1; SCHW 2104/2-1
Traditionally, cybersecurity has been viewed as a technical problem, for which software and hardware solutions were key. However, in recent years, the focus has moved from the technical to the human aspect of cyber security. People are more and more considered ‘the weakest link’, or light-heartedly referred to as PEBCAK (problem exists between chair and keyboard). With human error and cyber-attacks aimed at individuals rather than machines becoming every-day occurrences, there is a strong need to solve cybersecurity issues on this level. Coming from a programming background, computer scientists usually aim to solve these weaknesses in the architecture of software. However, a piece of software can ask for a strong password, but if the employee who needs to create the strong password, writes it down on a post-it that is left on his desk, the ‘improved’ software security is easily becoming obsolete. Instead of trying to solve human problems with technological solutions, or reinventing the wheel, a better solution is to look at existing scientific knowledge and work with experts on human behaviour. Knowledge in the field of psychology can create more effective awareness campaigns, improve compliance with security policies through tried and tested behavioural change interventions, and train people in detecting social cyber-attacks through the use of existing knowledge in the cognitive psychology domain. These collaborations lead to improved individual cybersecurity, safer organisations, and a better functioning (international) society. To achieve this, working with psychologists is key as they are trained to describe, understand and solve human behaviour issues. By bringing psychologists into the cybersecurity field, they can apply existing psychological theories and best practices to cybersecurity problems, as well as develop new psychological theories on the specifics of cyberattacks and cyber resilience.
Leitung
Gegründet
2020
Dauer
01.09.2020-31.08.2023
Förderkennzeichen
ID: 2020-1-DE01-KA203-005726
Das Internet hat sich von einem bloßen Kommunikationsnetzwerk, das vor zwei Jahrzehnten von zig Millionen Menschen genutzt wurde, zu einer globalen Multimedia-Plattform für Kommunikation, soziale Netzwerke, Unterhaltung, Bildung, Handel und politischen Aktivismus entwickelt, die von mehr als zwei Milliarden Menschen genutzt wird. Dieser Wandel hat der Gesellschaft enorme Vorteile gebracht, aber auch völlig neue Bedrohungen für die Privatsphäre, die Sicherheit, die Strafverfolgung, die Informationsfreiheit und die Redefreiheit geschaffen. Im heutigen Internet sind die Prinzipien amorph, die Identitäten können fließend sein, die Benutzer nehmen teil und tauschen Informationen als Peers aus, und die Daten werden auf globalen Plattformen Dritter verarbeitet. Die bestehenden Modelle und Techniken für Sicherheit und Datenschutz, die eine vertrauenswürdige Infrastruktur und klar definierte Richtlinien, Prinzipien und Rollen voraussetzen, werden dieser Herausforderung nicht in vollem Umfang gerecht.
Das Projekt imPACT befasst sich mit der Herausforderung, Datenschutz, Rechenschaftspflicht, Konformität und Vertrauen (PACT) im Internet von morgen zu gewährleisten, wobei ein interdisziplinärer und synergetischer Ansatz zum Verständnis und zur Bewältigung der verschiedenen Rollen, Interaktionen und Beziehungen der Benutzer und ihrer gemeinsamen Auswirkungen auf die vier PACT-Eigenschaften verwendet wird. Der Schwerpunkt liegt auf Prinzipien und Methoden, die für die Bedürfnisse der einzelnen Internet-Nutzer relevant sind und die ein starkes Potential haben, zu praktischen Lösungen zu führen, und die die langfristigen Bedürfnisse des zukünftigen Internets abdecken. Wir stellen uns dieser Herausforderung mit einem Team von Forschern aus relevanten Teildisziplinen der Informatik und mit Beiträgen von externen Experten aus den Bereichen Recht, Sozialwissenschaften, Wirtschaft und Business. Das Team der PIs besteht aus international führenden Persönlichkeiten aus den Bereichen Datenschutz und Sicherheit, experimentelle verteilte Systeme, formale Methoden, Programmanalyse und -verifizierung sowie Datenbanksysteme. Indem wir uns zusammenschließen und uns für diese gemeinsame Forschung engagieren, befinden wir uns in einer einzigartigen Position, um die große Herausforderung der Vereinheitlichung der PACT-Eigenschaften zu bewältigen und eine neue Grundlage für ihre ganzheitliche Behandlung zu schaffen.
Leitung
Dauer
01.02.2015-31.01.2021
Förderkennzeichen
Grant agreement ID: 610150
Forschungsgebiet
Die Forschungsthemen des CISPA beinhalten ein enormes Potenzial für den Technologietransfer in die industrielle Anwendung. Diesbezüglich steht das CISPA bereits seit einigen Jahren in regem Austausch mit Partnern aus Industrie und Wirtschaft, so dass ein Transfer stattfindet. Unter der Annahme, dass die Verwertung in neugegründeten Unternehmen die direkteste Form des Wissens- und Technologie-transfers darstellt, gibt der Ausbau des Gründungsinkubators die Möglichkeit, spezialisierte Strukturen zur expliziten Unterstützung von Ausgründungen fortzuschreiben.
Das Ziel des Vorhabens ist es deshalb, diese Initiativen konzeptionell auszubauen und strukturell zu verankern, um ein hoch kreatives Umfeld in unmittelbarer Nähe des CISPA und im Umfeld des Saarland Informatics Campus zu schaffen.
Die Förderung von Maßnahmen durch das BMBF sieht in erster Linie folgende Bereiche vor: Sensibilisierung, Projektinitiierung, Projektförderung, Skalierung sowie das übergeordnete Management des Inkubators.
Communication efficiency is one of the central challenges for cryptography. Modern distributed computing techniques work on large quantities of data, and critically depend on keeping the amount of information exchanged between parties as low as possible. However, classical cryptographic protocols for secure distributed computation cause a prohibitive blow-up of communication in this setting. Laconic cryptography is an emerging paradigm in cryptography aiming to realize protocols for complex tasks with a minimal amount of interaction and a sub-linear overall communication complexity. If we manage to construct truly efficient laconic protocols, we could add a cryptographic layer of protection to modern data-driven techniques in computing. My initial results in laconic cryptography did not just demonstrate the potential of this paradigm, but proved to be a game-changer in solving several long standing open problems in cryptography, e.g. enabling me to construct identity-based encryption from weak assumptions. However, the field faces two major challenges: (a) Current constructions employ techniques that are inherently inefficient. (b) The most advanced notions in laconic cryptography are only known from very specific combinations of assumptions, and are therefore just one cryptanalytic breakthrough away from becoming void. This project will make a leap forward in both challenges. I will systematically address these challenges in a work program which pursues the following objectives: (i) Develop new tools and mechanisms to realize crucial cryptographic primitives in a compact way. (ii) Design efficient protocols for advanced laconic functionalities which sidestep the need for inherently inefficient low-level techniques and widen the foundation of underlying assumptions. (iii) Strengthen the conceptual bridge between laconic cryptography and cryptographically secure obfuscation, transferring new techniques and ideas between these domains.
Leitung
Gegründet
2022
Dauer
01.07.2022-30.06.2027
Förderkennzeichen
HORIZON-ERC (ERC-2021-StG)
Forschungsgebiet
The quest for a science of perspicuous computing continues. With the results that were achieved in the first funding period, we are spearheading a larger movement towards building and reasoning about software-based systems that are understandable and predictable. As a result, CPEC is gradually enlarging its scope in its second funding period. This pertains to three interrelated facets of our research:
· Deepening investigation of various feedback loops within the system lifecycle which are required to feed system analysis insights – in particular, insights from inspection-time justification – back into the design-time engineering of perspicuous systems.
· Emphasising human-centred and psychological research regarding the human-in-the-loop, reflecting the need to investigate the interaction of perspicuous systems with various groups of human stakeholders.
· Interfacing to the societal dimension of perspicuity – society-in-the-loop – echoing the increasing number of regulatory requirements regarding perspicuity put forward in recent years.
CPEC joins the pertinent forces at Saarbrücken and Dresden that are apt to master the challenge of putting perspicuous computing research into the loop. It comprises computer science experts and links to psychology and juridical expertise at Universität des Saarlandes and Technische Universität Dresden as well as the Max Planck Institute for Software Systems and the CISPA Helmholtz Center for Information Security. The participating institutions have developed a joint research agenda to deepen the transregional network of experts in perspicuous systems. It will serve our society in its need to stay in well-informed control over the computerised systems we all interact with. It enables comprehension and control in a cyber-physical world.
Source: https://www.perspicuous-computing.science/research/ (Stand: 3.5.23)
Leitung
Dauer
01.01.2023 bis 31.12.2026
Förderkennzeichen
TRR248/2
Forschungsgebiet
The central role of information technology in all aspects of our private and professional lives has led to a fundamental change in the type of program properties we care about. Up to now, the focus has been on functional correctness; in the future, requirements that reflect our societal values, like privacy, fairness, The central role of information technology in all aspects of our private and professional lives has led to a fundamental change in the type of program properties we care about. Up to now, the focus has been on functional correctness; in the future, requirements that reflect our societal values, like privacy, fairness, and explainability will be far more important. These properties belong to the class of hyperproperties, which represent sets of sets of execution traces and can therefore specify the relationship between different computations of a reactive system. Previous work has focussed on individual hyperproperties like noninterference or restricted classes such as k-hypersafety; this project sets out to develop a unified theory for general hyperproperties. We will develop a formal specification language and effective algorithms for logical reasoning, verification, and program synthesis. The central idea is to use the type and alternation structure of the logical quantifiers, ranging from classic firstorder and second-order quantification to quantifiers over rich data domains and quantitative operators for statistical analysis, as the fundamental structure that partitions the broad concept of hyperproperties into specific property classes; each particular class is then supported by algorithms that provide a uniform solution for all the properties within the class. The project will bring the analysis of hyperproperties to the level of traditional notions of safety and reliability, and provide a rigorous foundation for the debate about standards for privacy, fairness, and explainability that future software-based systems will be measured against.
Leitung
Dauer
1.11.2022-31.10.2027
Förderkennzeichen
HORIZON-ERC (ERC-2021-ADG)
Forschungsgebiet
We propose to bring together two historically disjoint lines of research: the epistemic analysis of distributed systems on the one hand, which aims at understanding the evolution of the knowledge of the components of a distributed system; and reactive synthesis, which aims at constructing such systems automatically from a formal specification given as a formula of a temporal logic.
Reactive synthesis has the potential to revolutionize the development of distributed systems. From a given logical specification, the synthesis algorithm automatically constructs an implementation that is correct-by-design. This allows the developer to focus on “what” the system should do instead of “how” it should be done. There has been a lot of success in the last years in synthesizing individual components of a distributed system. However, the complete synthesis of distributed protocols is, with currently available methods, far too expensive for practical applications.
Recent advances in the study of knowledge in distributed systems, such as the Knowledge of Preconditions principle, offer a path to significantly improve the situation. Our vision is a new class of synthesis algorithms that gainfully use this potential by constructing the distributed protocol in terms of the evolving knowledge of the components rather than the low-level evolution of the states.
We bring to the project complementing skills and expertise in the two respective fields. The proposed project will begin by carrying out a study on epistemic arguments for the correctness of existing distributed protocols. The goal is to develop a formalization of these arguments in the form of a diagrammatic proof that can be verified automatically. We will then develop systematic methods for the construction of such proofs, based on insights like the Knowledge of Preconditions principle. Finally, we will integrate our formalization of epistemic proofs into a synthesis algorithm that automatically constructs such a proof for a given specification, and then translates the proof into an actual implementation.
Leitung
Dauer
01.04.2020-01.03.2023
Mitglieder
Förderkennzeichen
I-1513-407./2019
Forschungsgebiet
Die reaktive Synthese hat das Potenzial, die Entwicklung von verteilten eingebetteten Systemen zu revolutionieren. Aus einer gegebenen logischen Spezifikation konstruiert der Synthese-Algorithmus automatisch eine Implementierung, die "correct-by-design" ist. Die Zielsetzung besteht darin, dass ein Designer die Entwurfsziele mit einem Synthese-Tool analysiert, automatisch konkurrierende oder widersprüchliche Anforderungen identifiziert und eine fehlerfreie Prototyp-Implementierung erhält. Die Programmierung und das Testen, die teuersten Phasen der Entwicklung, werden somit aus dem Entwicklungsprozess eliminiert. Jüngste Fallstudien aus der Robotersteuerung und dem Hardware-Design, wie z.B. die automatische Synthese des AMBA-AHB-Bus-Controllers, zeigen, dass diese Vorstellung prinzipiell realisierbar ist. Bislang lässt sich die Synthese jedoch nicht auf große Systeme skalieren. Selbst wenn sie erfolgreich ist, erzeugt sie Code, der viel größer und viel komplizierter ist als der Code, der von menschlichen Programmierern für die gleiche Spezifikation produziert wird. Unser Ziel ist es, diese beiden grundlegenden Mängel gleichzeitig zu beheben. Wir werden ausgabeabhängige Synthese-Algorithmen entwickeln, d.h. Algorithmen, die neben der optimalen Leistung in der Größe der Spezifikation auch in der Größe und strukturellen Komplexität der Implementierung optimal funktionieren. Zielanwendungen für unsere Algorithmen kommen sowohl aus den klassischen Bereichen der reaktiven Synthese, wie z.B. Hardwareschaltungen, als auch aus neuen und weitaus anspruchsvolleren Anwendungsgebieten, wie z.B. der verteilten Steuerung und Koordination von autonomen Fahrzeugen und Fertigungsrobotern, die weit außerhalb der Reichweite der derzeit verfügbaren Synthesealgorithmen liegen.
Im Mittelpunkt des Vorhabens steht die Entwicklung eines Überwachungssystems für den hochkritischene VTOL Betrieb. Fortschritte in der Elektromobilität und der Automatisierungstechnik ermöglichen die kommerzielle Nutzung von hochautomatisierten Luftfahrzeugen mit verteilten elektrischen Antrieben.
Die Sicherheit ist für solche Luftfahrzeuge ein wichtiger Erfolgsfaktor. Dafür muss die inhärente Komplexität des Gesamtsystems in Form präziser Anforderungen erfasst und während des Betriebes konsequent überwacht werden. Zusätzlich müssen für einen ökonomischen Betrieb der zunehmend automatisierten Luftfahrzeuge die Entwicklungs-, Betriebs- und Wartungskosten niedrig gehalten werden. Ziel des Projekts ist die automatische Überwachung der für den sicheren kommerziellen Betrieb eines autonomen Systemswichtigen Parameter. Um die Konfidenz in die Sicherheitsüberwachung zu erhöhen, wird der ausführbare Monitor automatisch aus einer formalen Spezifikation des gewünschten Verhaltens generiert. Die dadurch gewonnene Nachvollziehbarkeit verspricht Vorteile für die Zertifizierung und einen ökonomischen Betrieb. Analyse der Rückwirkung für die Zertifizierung durch sichere, unabhängige Überwachungskomponente ist ein essenzielles Thema.
Die formale Spezifikation ist getrennt vom Kontrollcode und leichter verständlich, womit Entwicklungs- und Wartungskosten eingespart werden. Darüber hinaus setzen herkömmliche zentrale Monitorverfahren die Verfügbarkeit aller relevanten Daten voraus. In einer hochgradig verteilten Avionik wie der des Volocopter ist es nötig, den Überwachungsprozess an verschiedenen Systemknoten auszuführen, wofür Algorithmen für die Überwachung entwickelt werden müssen. Im Projekt wird der Systemüberwachungsansatz auf Basis einer formalen Spezifikation auf einen Volocopter integriert. Dies verspricht substanzielle Verbesserungen sowohl im Hinblick auf die Sicherheit als auch aus ökonomischen Gesichtspunkten.
That will address major challenges hampering the deployment of AI technology. These grand challenges are fundamental in nature. Addressing them in a sustainable manner requires a lighthouse rooted in scientific excellence and rigorous methods. We will develop a strategic research agenda which is supported by research programmes that focus on “technical robustness and safety”,“privacy preserving techniques and infrastructures” and “human agency and oversight”. Furthermore, we focus our efforts to detect, prevent, and mitigate threats and enable recovery from harm by 3 grand challenges: “Robustness guarantees and certification”,“Private and robust collaborative learning at scale” and “Human-in-the-loop decision making: Integrated governance to ensure meaningful oversight” that cut across 6 use cases: health, autonomous driving, robotics, cybersecurity, multi-media, and document intelligence. Throughout our project, we seek to integrate robust technical approaches with legal and ethical principles supported by meaningful and effective governance architectures to nurture and sustain the development and deployment of AI technology that serves and promotes foundational European values. Our initiative builds on and expands the internationally recognized, highly successful and fully operational network of excellence ELLIS. We build on its 3 pillars: research programmes, a set of research units, and a PhD/PostDoc programme, thereby connecting a network of over 100 organizations and more than 337 ELLIS Fellows and Scholars (113 ERC grants) committed to shared standards of excellence. Not only will we establish a virtual center of excellence, but all our activities will also be inclusive and open to input, interactions, and collaboration of AI researchers and industrial partners in order to drive the entire field forward.
Leitung
Gegründet
2022
Dauer
1.09.2022-31.08.2025
Förderkennzeichen
HORIZON-CL4-2021-HUMAN-01-03
Ever since the last Coronavirus epidemic caused by SARS-CoV-1, plans and tools for the containment of epidemics are being developed. However, an appropriate early warning system for local health authorities addressing this need on a regional, targeted level is not available. In the current SARS-CoV-2 pandemic, the need for such a system becomes increasingly obvious. The heterogeneity of different regions and localized outbreaks require a locally adapted monitoring and evaluation of infection dynamics.
Early recognition of an emerging epidemic is a crucial part of a successful intervention. The comparison of Germany to other European nations illustrates how crucial a timely implementation of non-pharmaceutical interventions is for the containment of an epidemic. Hence, continuous monitoring of infection processes is indispensable. For strategic planning of political interventions, epidemiological modelling and scenario calculations for forecasting and evaluation of interventions and scenarios have shown their importance. The accuracy of such forecasts largely depends on the robustness and broadness of the underlying data. Further, there is a need for an intelligible presentation of often complex simulation results without oversimplification of their interpretation and inherent uncertainty.
In this proposal, we develop a platform that integrates data streams from various sources in a privacy preserving manner. For their analysis, a variety of methods from machine learning to epidemiological modeling are employed to detect local outbreaks early on and enable an evaluation for different assumptions and on different scales. These models will be integrated into automatized workflows and presented in an interactive web application with custom scenario simulations. The platform will be based on insights gained by retrospective and prospective evaluation of the COVID-19 pandemic, using SARS-CoV-2 as a blueprint for the prevention and containment of future respiratory virus epidemics. The platform will be transferred to the Academy for Public Health Services and optimized in pilot projects with selected local health authorities under real-world conditions.
Genetische Daten sind hochgradig vertrauliche Informationen und werden daher durch strenge gesetzliche Bestimmungen geschützt, was ihre gemeinsame Nutzung aufwändig macht. Die Nutzung genetischer Informationen birgt jedoch ein großes Potenzial für die Diagnose und Behandlung von Krankheiten und ist für die Verwirklichung von personalisierter Medizin unerlässlich. Zwar wurden Mechanismen zur Wahrung der Privatsphäre geschaffen, doch sind diese entweder mit erheblichen Kosten verbunden oder schützen die Privatsphäre sensibler Patientendaten nicht vollständig. Dadurch wird die Möglichkeit des Datenaustauschs mit der Forschungsgemeinschaft eingeschränkt, was sowohl die wissenschaftliche Erkenntnisfindung als auch die Reproduzierbarkeit der Ergebnisse behindert. Daher schlagen wir einen anderen Ansatz vor, bei dem synthetische Datensätze verwendet werden, die die Eigenschaften von Patientendatensätzen teilen und gleichzeitig die Privatsphäre respektieren. Wir erreichen dies, indem wir die neuesten Fortschritte in der generativen Modellierung nutzen, um virtuelle Kohorten zu synthetisieren. Solche synthetischen Daten können mit etablierten Werkzeugketten analysiert werden, der wiederholte Zugriff hat keine Auswirkungen auf das Budget für den Datenschutz und kann sogar offen mit der Forschungsgemeinschaft geteilt werden. Während die generative Modellierung von hochdimensionalen Daten wie genetischen Daten bisher unerschwinglich war, haben die jüngsten Entwicklungen in tiefen generativen Modellen eine Reihe von Erfolgsgeschichten in einer Vielzahl von Bereichen gezeigt. Das Projekt wird sowohl Werkzeuge für die generative Modellierung genetischer Daten als auch Einblicke in die langfristige Perspektive dieser Technologie zur Lösung von Problemen in offenen Bereichen liefern. Die Ansätze werden gegen bestehende Analysen, die nicht die Privatsphäre wahren, validiert werden. Wir werden eng mit der wissenschaftlichen Gemeinschaft zusammenarbeiten und Richtlinien vorschlagen, wie Ansätze, die im Gesamtprozess der wissenschaftlichen Entdeckung praktikabel sind, eingesetzt und experimentell angewendet werden können. Dieses einzigartige Projekt wird das erste sein, das die Generierung synthetischer hochdimensionaler genomischer Informationen ermöglicht, um den datenschutzkonformen Datenaustausch in der medizinischen Gemeinschaft zu fördern.
Leitung
Dauer
1.8.2020-31.07.2023
Mitglieder
Förderkennzeichen
ZT-1-PF-5-23
Webseite
Um die großen Herausforderungen der Zukunft zu lösen, müssen Daten, Rechenleistung und Analysekompetenz in einem noch nie dagewesenen Ausmaß zusammengeführt werden. Der Bedarf an Daten ist im Zusammenhang mit den jüngsten Fortschritten im Bereich des maschinellen Lernens noch größer geworden. Daher weisen datenzentrierte digitale Systeme häufig eine starke Tendenz zu zentralisierten Strukturen auf. Die Datenzentralisierung kann zwar die Datenanalyse erheblich erleichtern, sie bringt jedoch auch einige inhärente Nachteile und Gefahren mit sich, nicht nur aus technischer, sondern vor allem auch aus rechtlicher, politischer und ethischer Sicht. Die Bewältigung dieser Probleme ist mühsam und zeitaufwendig, da sie in anspruchsvollen Sicherheits- oder Vertrauensanforderungen wurzelt. Infolgedessen werden viele Forschungsprojekte erheblich behindert, scheitern oder werden einfach nicht in Angriff genommen. In diesem interdisziplinären Projekt wollen wir die Umsetzung dezentraler, kooperativer Datenanalysearchitekturen innerhalb und außerhalb von Helmholtz erleichtern, indem wir die wichtigsten Fragen in solchen Szenarien angehen.
Trustworthy Federated Data Analytics (TFDA) wird es erleichtern, die Algorithmen auf vertrauenswürdige und gesetzeskonforme Weise zu den Daten zu bringen, anstatt einen datenzentrierten Weg zu gehen. Die TFDA wird sich mit den technischen, methodischen und rechtlichen Aspekten befassen, wenn es darum geht, die Vertrauenswürdigkeit der Analyse und die Transparenz hinsichtlich der Analyse-Ein- und Ausgaben zu gewährleisten, ohne die Datenschutzbestimmungen zu verletzen. Um die Anwendbarkeit zu demonstrieren und die Anpassungsfähigkeit der methodischen Konzepte sicherzustellen, werden wir unsere Entwicklungen im Anwendungsfall "Föderierte Strahlentherapiestudie" (Gesundheit) validieren, bevor wir die Ergebnisse verbreiten.
Leitung
Dauer
01.12.2019–30.11.2022
Mitglieder
Förderkennzeichen
ZT-I-0014
Forschungsgebiet
Webseite
In KMU-Fuzz werden neue Konzepte erforscht und umgesetzt, um Fuzz-Testing - eine besonders vielversprechende Form von automatischem Softwaretesting - entscheidend zu verbessern. Dabei Iiegt der Fokus vor allem auf dem effizienten Testen von Netzwerkschnittstellen von Applikationen, da existierende Fuzzing-Tools in diesem Bereich momentan noch eine unzureichende Testabdeckung bieten. Durch die Erforschung von neuartigen Methoden, z.B. zustandsbasiertes Netzwerkfuzzing, Fuzz-Testingbasierend auf effizienten Checkpunktmechanismen und effizientes Protokollfuzzing, werden neuartigen Methoden entwickelt, umkomplexe Softwaresysteme automatisiert und effizient testen zu können. Der Fokus dieses Teilprojekts liegt auf der effizientenVerwendung von verschiedenen Methoden aus dem Bereich der Programmanalyse, um Fuzzing effizienter durchführen zu können.
Die Vision von GAIA-X ist die Schaffung einer sicheren, vernetzten, föderierten Dateninfrastruktur, um in Datenökosystemen Datensouveränität herzustellen. Das TELLUS-Vorhaben erweitert diese Dateninfrastruktur der verschiedenen Cloud-Ökosysteme um eine leistungsfähige Anbindung und Integration von heterogener Netzwerkinfrastruktur. Es existieren verschiedene Use Cases, die nicht nur hohe Anforderungen an Cloud-Dienste stellen, sondern insbesondere auch an Netzwerke in Bezug auf Latenz, Bandbreite, Sicherheit, Resilienz und Dynamik.
TELLUS entwickelt basierend auf solchen Use Cases ein Overlay über Kaskaden von Cloud-Anbietern, Vernetzungsdienstleistern und Cloud-Anwendern, um unter Berücksichtigung kritischer Anforderungen eine Ende-zu-Ende Vernetzung mit Garantien für Hybrid-Cloud-Szenarien zu ermöglichen. Dem GAIA-X Gedanken folgend werden durch Integration auf Basis von Standards/Schnittstellen und Systemen, Domänengrenzen überbrückt, Interoperabilität und Portabilität sichergestellt und somit dynamische Netzwerke mit variablen Bandbreiten, geringeren Latenzen, erhöhter Sicherheit und Kontrolle über den Datenfluss im Netzwerk geschaffen.
Im Rahmen dieses Teilprojekts untersucht CISPA vorrangig Sicherheits- und Compliance-Aspekte des Gesamtsystems. Dazu wird eine umfassende Risiko- und Bedrohungsanalyse durchgeführt und basierend auf den Ergebnissen werden entsprechende Schutzkonzepte entwickelt und umgesetzt. Darüber hinaus ist CISPA an einigen anderen Arbeitspaketen beteiligt und bringt dort vor allem ebenfalls Expertise im Bereiche Security mit ein.
Partner: DE-CIX (Verbundkoordinator); PlusServer; SpaceNet; Cloud&Heat; DE-CIX; IONOS; WOBCOM; KAEMI; TRUMPF; Mimetik
Die Kryptologie ist eine Grundlage der Informationssicherheit in der digitalen Welt. Das heutige Internet wird durch eine Form der Kryptographie geschützt, die auf komplexitätstheoretischen Härteannahmen beruht. Idealerweise sollten sie stark sein, um die Sicherheit zu gewährleisten, und vielseitig, um eine breite Palette von Funktionalitäten anzubieten und effiziente Implementierungen zu ermöglichen. Diese Annahmen sind jedoch weitgehend unerprobt, und die Internetsicherheit könnte auf Sand gebaut sein. Das Hauptziel von Almacrypt ist es, dieses Problem zu beheben, indem die Annahmen durch eine fortgeschrittene algorithmische Analyse in Frage gestellt werden.
Insbesondere stellt dieser Vorschlag die beiden Säulen der Public-Key-Verschlüsselung in Frage: Faktorisierung und diskrete Logarithmen. Kürzlich hat die PI dazu beigetragen, zu zeigen, dass das Problem der diskreten Logarithmen in einigen Fällen erheblich schwächer ist als bisher angenommen. Ein Hauptziel ist es, über die Sicherheit anderer Fälle des diskreten Logarithmusproblems, einschließlich elliptischer Kurven, und der Faktorisierung nachzudenken. Wir werden die Verallgemeinerung der neueren Techniken untersuchen und nach neuen algorithmischen Optionen mit vergleichbarer oder besserer Effizienz suchen. Wir werden auch Härteannahmen auf der Grundlage von Codes und Untermengensummen untersuchen, zwei Kandidaten für die Post-Quantenkryptographie. Wir werden die Anwendbarkeit neuerer algorithmischer und mathematischer Techniken auf die Lösung der entsprechenden vermeintlich schwierigen Problemstellungen untersuchen, die Analyse der Algorithmen verfeinern und neue Algorithmuswerkzeuge entwerfen.Die Kryptologie beschränkt sich nicht nur auf die oben genannten Annahmen: es wurden auch andere harte Probleme vorgeschlagen, die auf Post-Quantum-Sicherheit abzielen und/oder zusätzliche Funktionalitäten bieten sollen. Sollte die Sicherheit dieser anderen Annahmen von entscheidender Bedeutung sein, würden sie dem Anwendungsbereich von Almacrypt hinzugefügt werden.Sie könnten auch dazu dienen, andere Anwendungen unseres algorithmischen Fortschritts zu demonstrieren. Zusätzlich zu seinem wissenschaftlichen Ziel strebt Almacrypt auch die Gründung einer verstärkten Forschungsgemeinschaft an, die sich der algorithmischen und mathematischen Kryptologie widmet.
Leitung
Dauer
01/01/2016-31/21/2021
Förderkennzeichen
ERC Advanced Grants 669891
Forschungsgebiet
Digital signatures are a fundamental and versatile cryptographic tool. In a digital signature scheme, a signer holding a secret key can sign a message in such a way that anyone can efficiently verify the signature using a corresponding public key. On the other hand, it should be impossible to create a signature in the signer's name (so long as its secret key indeed remains secret). An important variant of signature scheme is a multi-signer version where multiple signers can jointly create a compact signature on a message. Later on the resulting signature can be efficiently verified against (an aggregate of) all of their public keys. This allows to create a storage efficient proof that a certain number, say half of all parties in the system, has signed a message. This intriguing aspect of multi-signer signatures has recently received an enormous amount of attention in the context of blockchain and consensus protocols and.
The aim of this project is to improve the security and understanding of multi-signer signatures to 1) develop modular frameworks for building multi-signer signatures from weaker primitives such as identification schemes. This type of design approach has seen much success in the construction of basic signatures and will lead to multi-signer signature schemes from a wider array of mathematical hardness assumptions. 2) To revisit and improve the security guarantees of existing multi-signer schemes used in practice. Our main aim is to prove existing constructions secure with respect to a powerful adversary that can dynamically corrupt signers over the course of time. This type of security guarantee is often required in practical applications, e.g., consensus protocols, yet it is not satisfied by most efficient schemes. And 3) to improve the robustness of distributed key generation (DKG) protocols. Many multi-signer schemes rely on a trusted dealer to set up correlated keys among the signers. This is problematic for many natural applications such as blockchain protocols, where such a dealer might not be available. Therefore, parties can instead use a DKG protocol, to jointly set up such a correlated set of keys. This makes DKG protocols a crucial tool for running multi-signer protocols in a trust free manner. Unfortunately, existing DKG protocols rely on unrealistic network assumptions or tolerate only a small number of corruptions. The goal of this project is to improve their robustness in both of these regards.
Leitung
Dauer
1.9.2022 – 31.08.2025
Mitglieder
Förderkennzeichen
LO 3021/1-1
Ziel des SYSTEMATICGRAPH-Projekts ist es, die Suche nach traktionsfähigen algorithmischen Graphen-Problemstellungen in einen systematischen und methodischen Rahmen zu stellen: Statt sich auf spezifische sporadische Problemstellungen zu konzentrieren, wollen wir ein einheitliches algorithmisches Verständnis erreichen, indem wir die gesamte Komplexitätslandschaft einer bestimmten Problemdomäne abbilden. Ein Dichotomiesatz ist ein vollständiges Klassifikationsergebnis, das die Komplexität jedes Mitglieds einer Problemfamilie charakterisiert: Es identifiziert alle Fälle, die effiziente Algorithmen zulassen, und beweist, dass alle anderen Fälle rechenintensiv sind. Das Projekt wird zeigen, dass eine solche vollständige Klassifikation für ein breites Spektrum von Graphenproblemen aus Bereichen wie dem Finden von Mustern, Routing und überlebensfähigem Netzwerkdesign durchführbar ist und dass selbst für klassische und gut untersuchte Probleme neuartige algorithmische Ergebnisse und neue Ebenen des algorithmischen Verständnisses erreicht werden können.
Leitung
Dauer
01.07.2017-30.06.2022
Förderkennzeichen
Grant agreement ID: 725978
Forschungsgebiet
TESTABLE addresses the grand challenge of building and maintaining modern web-based and AI-powered application software secure and privacy-friendly. TESTABLE intends to lay the foundations for a new integration of security and privacy into the software development lifecycle (SDLC), by proposing a novel combination of two metrics to quantify the security and privacy risks of a program, i.e. the code testability and vulnerable behavior indicators. Based on the novel concept of ""testability patterns,"" TESTABLE will empower the SDLC actors (e.g. software/AI developers, managers, testers, and auditors) to reduce the risk by building better security and privacy testing techniques for classical and AI-powered web applications, and removing or mitigating the impact of the patterns causing the high-risk levels.
To achieve these goals, TESTABLE will develop new algorithms, techniques, and tools to analyze, test, and study web-based application software. First, TESTABLE will deliver algorithms and techniques to calculate the risk levels of the web application's code. Second, TESTABLE will provide new testing techniques to improve software testability. It will do so with novel static and dynamic program analysis techniques by tackling the shortcomings of existing approaches to detect complex and hard-to-detect web vulnerabilities, and combining ideas from the security testing and adversarial machine learning fields. TESTABLE will also pioneer the creation of a new generation of techniques tailored to test and study privacy problems in web applications. Finally, TESTABLE will deliver novel techniques to assist software/AI developers, managers, testers, and auditors to remove or mitigate the patterns associated with the high risk.
TESTABLE relies on a long-standing team of nine European partners with strong expertise in security testing, privacy testing, machine learning security, and program analysis, and who strive for excellence with a proven strong track record and impact in the security communities.
Leitung
Dauer
01.09.2021-31.08.2024
Förderung
4 835 135 €, of which 721 138,75 € for CISPA
Förderkennzeichen
101019206
Das Erkennen von Schwachstellen in Webanwendungen ist ein schwieriges Problem, für das es noch keine allgemeine Lösung gibt. Bestehende Ad-hoc-Lösungen können nur einfache Formen von Schwachstellen identifizieren, die auf der Oberfläche von Webanwendungen vorhanden sind. In diesem Projekt schlagen wir Yuri vor, einen zielorientierten Sicherheitstest-Agenten, der semantische Modelle und Programmrepräsentationen synthetisieren kann, die der menschlichen Wahrnehmung und dem Verständnis des Programmverhaltens näher kommen. Yuri kann diese Modelle nutzen, um die Erkundung der Angriffsoberfläche voranzutreiben und Sicherheitstests durchzuführen, wodurch die Abdeckung moderner webbasierter Anwendungssoftware erheblich erweitert wird.
Kamaeleon befasst sich mit der Anpassung von leichten Elektrofahrzeugen durch Software, so dass die Fahrzeuge in der Lage sind, sich automatisch an unterschiedlich befahrene Flächen oder Beförderungsmittel anzupassen. Verschiedene Anforderungen der derzeit noch fest vorgeschriebenen Zulassungsvoraussetzungen müssen durch Anpassung erfüllt werden. Die Sicherheit wird in erster Linie durch die gefahrene Geschwindigkeit bezogen auf die jeweilige Verkehrsfläche, aber auch durch die Nähe zu anderen Verkehrsteilnehmer*innen operationalisiert. Die Höchstgeschwindigkeit und Dauerleistung ist aber ebenso ein Kriterium für die Zulassung von Fahrzeugen für einen bestimmten Einsatzort (z.B. Pedelec-Bürgersteig, E-Bike-Straße). Technisch gesehen wird in erster Linie die maximal fahrbare Geschwindigkeit geregelt. Durch dieses Vorgehen entsteht eine völlig neue Klasse von Fahrzeugen, die nicht durch feste Merkmale wie Leistung, Höchstgeschwindigkeit, Ausstattung usw. definiert sind, sondern deren Funktionen durch Software regelbar sind.
Leitung
Gegründet
2019
Dauer
01.04.2019 – 31.12.2022
Mitglieder
Förderkennzeichen
16SV8210
Antimicrobial Resistance (AMR) is perhaps the most urgent threat to human health. Since their discovery over a century ago, antibiotics have greatly improved human life expectancy and quality: many diseases went from life-threatening to mild inconveniences. Miss- and over-usage of these drugs, however, has caused microbes to develop resistance to even the most advanced drugs; diseases once considered conquered are becoming devastating again. While individual resistance mutations are well-researched, knowing which new mutations can cause antimicrobial resistance is key to developing drugs that reliably sidestep microbial defenses. In this project we propose to gain this knowledge via explainable artificial intelligence, by developing and applying novel methods for discovering easily interpretable local patterns that are significant with regard to one or multiple classes of resistance. That is, we propose to learn a small set of easily interpretable models that together explain the resistance mechanisms in the data, using statistically robust methods for discovering significant subgroups, as well as information theoretic approaches to discovering succinct sets of noise-robust rules. Key to our success will be the tight integration of domain expertise into the development of the new algorithms, early evaluation on real-world data, and the potential available in the host institute to evaluate particularly promising results in the lab.
Fuzzing - das Testen von Software durch zufällig generierte Eingaben - ist eine der führenden Methoden zur Entdeckung von Software-Schwachstellen. Fuzzing ist einfach zu implementieren; einmal eingerichtet, kann es tage- und wochenlang laufen gelassen werden, wobei das System kontinuierlich mit einer Eingabe nach der anderen getestet wird. Fuzzing hat auch keine falschen Positivmeldungen: Jede Eingabe, die das Programm zum Absturz bringt, löst eine echte Schwachstelle aus, die von Angreifern ausgenutzt werden kann, und sei es nur für einen Denial-of-Service-Angriff.
Fuzzing ist jedoch langsam. Die überwältigende Mehrheit der zufällig generierten Eingaben ist ungültig und wird daher von dem zu testenden Programm zurückgewiesen. Dadurch können immer noch Fehler erkannt werden, insbesondere in den Routinen zum Parsen und Zurückweisen von Eingaben. Um nach der Eingabeverarbeitung eine tiefere Funktionalität zu erreichen, sind jedoch Eingaben erforderlich, die syntaktisch gültig sind.
Das traditionelle Mittel, um gültige Eingaben zu erzeugen, ist die formale Spezifizierung der Eingabesprache durch formale Sprachen wie reguläre Ausdrücke und Grammatiken - gut etablierte und gut verstandene Formalismen mit einer soliden und detaillierten theoretischen Grundlage und einer Vielzahl von Anwendungen in der Praxis. Die Spezifizierung einer Eingabesprache ist jedoch mit einem enormen manuellen Aufwand verbunden, der von Tagen für einfache Datenformate bis zu Monaten für komplexe Eingabesprachen reicht.
In den letzten Jahren hat die Gruppe von PI Zeller eine Reihe von Techniken entwickelt, die automatisch Grammatiken aus einem gegebenen Programm und einer Reihe von Beispieleingaben extrahieren können, und gezeigt, wie man aus diesen Grammatiken äußerst effiziente Fuzzer konstruiert. Diese Techniken sind so ausgereift, dass sie in einem kürzlich veröffentlichten Lehrbuch sogar als Open Source verfügbar sind. Dennoch sind die Lernenden der Grammatiken nach wie vor auf einen umfassenden Satz von Beispielen angewiesen, die jedes Merkmal des Eingabebereichs abdecken.
Daher ist es das Ziel des Projekts, Testgeneratoren zu schaffen, die speziell auf Eingabeprozessoren abzielen - d.h. sowohl auf Lexer (Werkzeuge, die Eingabezeichen zu Wörtern zusammensetzen) als auch auf Parser (Werkzeuge, die Wortfolgen zu syntaktischen Strukturen zusammensetzen, wie z.B. Sätze in natürlicher Sprache). Sein Ansatz besteht darin, einige triviale ungültige Eingaben (z.B. die Zeichenfolge "x") in ein Programm einzuspeisen und dann die Vergleiche, die dieses Programm durchführt, dynamisch zu verfolgen, bevor es die Eingabe als ungültig zurückweist.
Leitung
Dauer
01.06.2019 – 30.11.2021
Mitglieder
Forschungsgebiet
All program behavior is triggered by some program input. Which parts of the input do trigger program behaviors, and how? In the EMPEROR project, we aim to automatically produce explanations for program behaviors—notably program failures. To this end, we (1) use grammars that separate inputs into individual elements; (2) learn statistical relations between features of input elements and program behavior; and (3) use systematic tests to strengthen or refute inferred associations, including internal features of the execution. As a result, we obtain an approach that (1) automatically infers the (input) conditions under which a specific behavior occurs: “The program fails whenever the mail address contains a quote character”; (2) automatically (re)produces behaviors of interest via generated test inputs: “andr'e@foo.com”; and (3) refines and produces cause-effect relationships via generated test cases, involving execution features: “The input ''''''''@bar.com” causes a recursion depth of more than 128, leading to a crash”. EMPEROR is the successor to EMPRESS, in which we showed that statistical relations between input elements and program behavior exist, and how prototypical implementations would exploit them for testing and debugging. EMPEROR takes the approaches from EMPRESS and unifies and extends them in a single modular approach, going way beyond simple statistical relations. By learning and refining predictive and generative models, EMPEROR will be able to infer and refine relationships involving arbitrary input features and thus boost our understanding of how and why software behaves as it does.
Leitung
Dauer
1.10.2021-30.09.2024
Mitglieder
Förderkennzeichen
ZE 509/7-2
Forschungsgebiet
Hepatitis D is by far the most severe form of chronic viral hepatitis frequently leading to liver failure, hepatocellular carcinoma and death. Hepatitis D is caused by coinfection of hepatitis B patients with the hepatitis D virus (HDV). Up to 20 Million individuals are infected with HDV worldwide including about 250.000 patients in the European Union. There is very limited knowledge on disease pathophysiology and host-virus interactions explaining the large interindividual variability in the course of hepatitis D. It is inparticular unknown why 20-50% are spontaneously able to control HDV replication, why the majority but not all patients progress to advanced stages of liver disease and why only some patients show off-treatment responses to antiviral treatment with either pegylated interferon alpha or the novel HBV/HDV entry inhibitor bulevirtide. As HDV is an orphan disease, no multicenter cohorts of HDV infected patients are available with appropriate biobanking. There is also no reliable animal model available allowing to study host responses. Thus, there is an urgent clinical, social and economic need to better understand individual factors determining the outcome of infection and to identify subjects benefitting from currently available treatments. Hepatitis D is a protype infection which could hugely benefit from a novel individualized infectious medicine approach. We here aim to perform an unbiased screening of a large multicenter cohort of well-defined HDV-infected patients followed by mechanistic studies to determine the functional role of distinct molecules. Identified specific parameters could have an immediate impact on the personalized surveillance strategies and antiviral treatment approaches. D-SOLVE aims to reduce disease burden, improve patient?s quality of life and safe direct and indirect costs caused by HDV infection by combining exceptional clinical, immunological, bioinformatical and virological expertise from leading centers in Europe.
Leitung
Dauer
1.10.2022-30.09.2026
Mitglieder
Förderkennzeichen
HORIZON-HLTH-2021-DISEASE-04-07
Forschungsgebiet
Wissenschaftler:innen des CISPA bringen ihr Wissen und ihre Ressourcen in Verbünde und Netzwerke mit nationalen und internationalen Partnern ein, um ein gemeinsames Ziel mit geteilten Kräften zu erreichen. In diesen langfristig angelegten Partnerschaften engagiert sich CISPA häufig in koordinierender Funktion.
Helmholtz-Forschungszentrum für medizinische Sicherheit, Datenschutz und KI (HMSP)
Das Helmholtz-Forschungszentrum für Medizinische Sicherheit, Datenschutz und KI (HMSP) ist eine gemeinsame Initiative von sechs Helmholtz-Zentren - CISPA, DZNE, DKFZ, HMGU, HZI und MDC -, die führende Experten aus den Bereichen IT-Sicherheit, Datenschutz und KI/Maschinelle Lernverfahren sowie aus dem medizinischen Bereich zusammenbringt, um eine sichere und datenschutzgerechte Verarbeitung medizinischer Daten mit Technologien der nächsten Generation zu ermöglichen. Ziel ist es, wissenschaftliche Durchbrüche im Schnittpunkt von Sicherheit, Datenschutz und KI/Maschinellem Lernen mit der Medizin zu erreichen und eine Technologie zu entwickeln, die neue Formen effizienter medizinischer Analytik ermöglicht und gleichzeitig den Patienten vertrauenswürdige Sicherheits- und Datenschutzgarantien sowie die Einhaltung heutiger und künftiger gesetzlicher Vorschriften bietet.
Leitung
Gegründet
2019
Mitglieder
Forschungsgebiet
Webseite
Das CISPA-Stanford Center for Cybersecurity ist ein gemeinsames Zentrum für Cybersicherheitsforschung des CISPA und der Stanford University, das das hohe Potenzial einer für beide Seiten vorteilhaften Zusammenarbeit zwischen CISPA und Stanford auf dem Gebiet der Cybersicherheit erkennt und dem Wunsch der Wissenschaftler auf beiden Seiten nach gemeinsamer Forschung folgt.
Die Zusammenarbeit hat die folgenden zwei miteinander verflochtenen Ziele:
Um diese Ziele zu erreichen, gründeten CISPA und die Stanford University diese Zusammenarbeit zum CISPA-Stanford Center for Cybersecurity mit entsprechenden Forschungsaktivitäten am CISPA und an der Stanford University. Das Zentrum befasst sich mit den besonderen Karrierebedürfnissen junger deutscher Wissenschaftler im Bereich der Cybersicherheit. Es fördert die berufliche Entwicklung einer kleinen Anzahl ausgewählter, herausragender Persönlichkeiten, indem es ihnen die Möglichkeit bietet, zwei Jahre lang an der Stanford University als Visiting Assistant Professors im Bereich der Cybersicherheit zu arbeiten und dann nach Deutschland zurückzukehren, um ihre Forschung als Senior Researcher am CISPA und schliesslich als Professor an einer deutschen Universität oder als Forschungsleiter in der Industrie fortzusetzen.
Webseite
Ziel dieser Initiative ist es, die Stärken zweier der größten und renommiertesten Institutionen zu bündeln: Das CISPA Helmholtzzentrum für Informationssicherheit und das INRIA/Loria in Nancy werden gemeinsam die Cybersicherheitsforschung und entsprechende Transfer- und Innovationsaktivitäten zwischen Frankreich und Deutschland stärken und entlang der starken deutsch-französischen Achse eine fokussierte Forschung zu disruptiven Innovationen für die digitale Souveränität ermöglichen. Zu den zentralen Themen gehören die Selbstbestimmung beim Data Profiling, europäische Internet- und Kryptographie-Standards, in Europa entwickelte und eingehend evaluierte Betriebssysteme zur Sicherung kritischer Infrastrukturen, der Schutz der Privatsphäre und Sicherheitsgarantien in automatisierten KI-Prozessen sowie Secure Networking in Industry 4.0 und autonome Systeme. Das Zentrum wird bilaterale deutsch-französische Forschungsgruppen aufbauen. Neben der transnationalen Zusammenarbeit wird die Förderung des wissenschaftlichen Nachwuchses ein Kernelement sein. Nachwuchswissenschaftler:innen sollen die Möglichkeit erhalten, ihre Forschungsinteressen durch individuelle Betreuung bereits in einem frühen Stadium ihrer wissenschaftlichen Laufbahn selbständig voranzutreiben.
CISPA, KAIST und KIST Europe MoU streben die Initiierung gemeinsamer Forschungsprojekte in den Bereichen der Cybersicherheits-Technologien an. Die Partner unterstützen die wissenschaftliche Zusammenarbeit und den Austausch zwischen den akademischen Mitgliedern der Institutionen. Die wichtigsten Bereiche der Zusammenarbeit sind: Systemsicherheit, Web-Sicherheit und Kryptographie.
Die Partner haben bereits Drittmittel eingeworben, um sich auf spezifische Forschungsthemen von gemeinsamem Interesse konzentrieren zu können. In jährlichen Treffen diskutieren die Forscher aus Deutschland und Korea laufende Projekte untereinander und mit Forschern aus anderen deutschen oder koreanischen Institutionen.
In der im Oktober 2018 unterzeichneten Absichtserklärung identifizieren Dcypher und CISPA den Bedarf für gemeinsame Forschungsprojekte und für das Eingehen von Synergien, insbesondere in den Bereichen:
System- und Service-Security by Design
Verteidigung von neu entwickelten und älteren Systemen
Entscheidungsfindung in sozio-ökonomischen Umgebungen
Schutz vor Missbrauch und missbräuchlicher Verwendung persönlicher Daten
Nach der Einstellung von DCYPHER im Oktober 2020 wird die Zusammenarbeit mit den Niederlanden in einem anderen Format fortgeführt werden.
Leitung
Gegründet
2018
Dauer
October 2018 – October 2020
Mitglieder
Das CISPA- Helmholtz-Zentrum für Informationssicherheit (CISPA) und die Leibniz Universität Hanno-ver (LUH) haben sich zusammengetan, um die Forschung in den Bereichen Cybersicherheit und Da-tenschutz voranzutreiben. Die Initiative mit initialem Fokus auf Nutzerzentrierte Sicherheit, Daten-schutz und Sicherheit in der Industrie wird vom Land Niedersachsen finanziell gefördert. Die Koope-ration umfasst eine gemeinsame Berufung von CISPA und LUH, die Ansiedlung einer Nachwuchs-gruppe sowie einer unselbstständigen Betriebsstätte des CISPA in Hannover. Zur Weiterentwicklung der Zusammenarbeit wurde ein Kooperationsgremium eingerichtet, in dem auch Niedersachsens Wissenschaftsministerium und das Wirtschaftsministerium vertreten sind. Neben der Forschung spie-len auch der Transfer der Forschungsergebnisse, z.B. durch Industriekooperationen, und die Nach-wuchsförderung eine zentrale Rolle in der Kooperation.