Das IEEE Symposium on Security and Privacy ist die führende Konferenz zur Präsentation von Entwicklungen im Bereich Computersicherheit und elektronischer Datenschutz sowie zur Vernetzung von Forschenden und Praktiker:innen auf diesem Gebiet. Das 45. IEEE Symposium on Security and Privacy findet vom 12. bis 14. Mai 2025 im Hyatt Regency San Francisco statt.
Die Forschenden führten 21 Interviews mit erfahrenen Entwickler:innen kryptographischer Bibliotheken, um zu verstehen, wie Entscheidungen beim Design kryptographischer APIs getroffen werden und welche Herausforderungen dabei bestehen. Sie fanden heraus, dass Designentscheidungen durch kryptographische Standards, bestehende Bibliotheken, Legacy-Code und die persönliche Intuition der Entwickler:innen beeinflusst werden. Eine zentrale Herausforderung besteht darin, Sicherheit, Benutzerfreundlichkeit und Flexibilität in Einklang zu bringen. Häufig fehlt ein systematischer Ansatz zur Definition oder Bewertung von Usability; stattdessen verlassen sich Entwickler:innen auf persönliche Erfahrung, Nutzerfeedback und informelles Testen. Obwohl kryptographische Standards Orientierung bieten, lassen sie oft wichtige Designentscheidungen offen, sodass subjektive Einschätzungen notwendig werden. Zudem stellten die Forschenden fest, dass der Druck, Abwärtskompatibilität zu wahren, Entwickler:innen an veraltete oder weniger sichere Designmuster binden kann. Es mangelt an empirischer, praxisnaher Forschung, die Entwickler:innen direkt bei der Gestaltung benutzbarer kryptographischer APIs unterstützt.
Diese Studie leistet einen gesellschaftlichen Beitrag, indem sie konkrete Ansätze zur Verbesserung der Entwicklung kryptographischer Bibliotheken aufzeigt – eines essenziellen Bausteins für sichere Software. Indem sie den Bedarf nach besserer Usability-Leitlinien betont und eine stärkere Integration von Usability-Aspekten in Standardisierungsprozesse anregt, weist die Forschung auf eine Zukunft hin, in der kryptographische Werkzeuge sowohl sicherer als auch einfacher zu verwenden sind – ein entscheidender Schritt hin zu einer sicheren digitalen Infrastruktur für alle.
Diese Studie untersucht, wie Ratschläge zu digitaler Sicherheit und Datenschutz wirksamer an Alltagsnutzer:innen vermittelt werden können. Ausgehend von der Erkenntnis, dass viele Menschen sich von Sicherheitsempfehlungen überfordert fühlen, entwickelten die Forschenden eine mobile App namens „Security App“. Diese gibt den Nutzerinnen über einen Zeitraum von 30 Tagen täglich eine kurze, umsetzbare Aufgabe. Die Aufgaben basieren auf von Expert:innen geprüften Empfehlungen und sollen durch Wiederholung und Einfachheit sichere Gewohnheiten fördern.
Eine kontrollierte Studie mit 74 Teilnehmenden zeigte, dass das App-Format gut ankam. Die meisten Nutzer:innen empfanden die Aufgaben als verständlich, machbar und relevant. Zudem berichteten sie von einem gestärkten Sicherheitsbewusstsein und mehr Vertrauen im Umgang mit digitalen Risiken. Die Teilnehmenden, die die App nutzten, übernahmen signifikant häufiger sicheres Verhalten — etwa das Sichern von Daten, das Aktualisieren von Software oder die Nutzung von Zwei-Faktor-Authentifizierung — als eine Vergleichsgruppe. Teilweise hielten diese Verhaltensänderungen auch 30 Tage nach Studienende noch an.
Allerdings wurde nicht jeder Ratschlag gleichermaßen angenommen. Aufgaben rund um Passwortmanager wurden etwa häufiger abgelehnt oder als weniger hilfreich bewertet —ein Hinweis darauf, dass Vertrauens- und Nutzungsprobleme weiterhin die Verbreitung bestimmter Sicherheitswerkzeuge erschweren. Zudem empfanden einige Teilnehmende die App in bestimmten Bereichen als zu starr oder wünschten sich mehr Personalisierung.
Insgesamt legen die Ergebnisse nahe, dass sich digitale Sicherheitsratschläge effektiver vermitteln lassen, wenn sie in kleine, konkrete Handlungsschritte aufgeteilt und in einem vertrauten, gewohnheitsbildenden Format angeboten werden. Für die Gesellschaft bietet dieser Ansatz eine alltagstaugliche Möglichkeit, digitale Resilienz zu stärken—ohne technisches Fachwissen vorauszusetzen—und adressiert damit ein zentrales Hindernis auf dem Weg zu besserer persönlicher Cybersicherheit.
Diese Forschung untersucht die mit iOS 14 eingeführte Berechtigung zum Zugriff auf das lokale Netzwerk, die Geräte im Heimnetzwerk von Nutzer:innen vor unautorisiertem Zugriff durch Apps schützen soll. Die Studie bewertet sowohl die technische Sicherheit dieser Berechtigung als auch das Verständnis und Verhalten der Nutzer:innen im Umgang damit.
Aus technischer Sicht zeigt die Analyse mehrere Schwachstellen auf. So lässt sich die Berechtigung etwa über bestimmte App-Komponenten wie Webviews umgehen, und sie erfasst nicht alle relevanten Netzwerkkonfigurationen – insbesondere in komplexeren Heimnetzwerken oder bei VPN-Verbindungen. Dadurch können Apps auf vernetzte Geräte zugreifen, ohne dass eine Zustimmung der Nutzer:innen erforderlich ist.
Zur Einschätzung der tatsächlichen Nutzung des lokalen Netzwerks durch Apps wurden über 10.000 Apps auf iOS- und Android-Plattformen analysiert. Die Ergebnisse zeigen, dass 1–1,4 % der Apps auf beiden Plattformen lokale Netzwerkkommunikation durchführen. Auf iOS verzögerten viele Apps diesen Zugriff bis nach einer Nutzerinteraktion, was vermutlich auf die sichtbare Berechtigungsabfrage zurückzuführen ist. Android verfügt derzeit über keine vergleichbare Berechtigungsmechanik.
Auch die Nutzerhinweise bei der Abfrage der Berechtigung wurden untersucht. Diese enthalten häufig vage oder irreführende Formulierungen wie „Ihr Netzwerk“ und erwecken mitunter fälschlich den Eindruck, die Berechtigung sei für grundlegenden Internetzugang erforderlich. Eine Nutzerbefragung mit 150 iOS-Nutzer:innen ergab, dass viele zwar potenzielle Datenschutzrisiken erkennen, jedoch weit verbreitete Missverständnisse bestehen. So glaubten viele Teilnehmende fälschlicherweise, die Berechtigung sei notwendig für die Nutzung von Bluetooth oder Internet.
Die Studie macht deutlich, dass sowohl die technische Durchsetzung von Datenschutzmechanismen als auch die Kommunikation mit Nutzer:innen verbessert werden müssen. Eine Berechtigung kann nur dann wirksam sein, wenn sie den Zugriff tatsächlich einschränkt und es den Nutzer:innen ermöglicht, informierte Entscheidungen zu treffen. Für die Gesellschaft unterstreicht diese Forschung die Bedeutung einer besseren Abstimmung zwischen Datenschutzmaßnahmen und dem Verständnis der Nutzer:innen – damit Kontrolle über digitale Umgebungen nicht bloß formaler Natur ist, sondern auch in der Praxis wirksam wird.
In diesem Paper wird TokenWeaver vorgestellt – ein neuartiges Protokoll, das die Sicherheit und den Datenschutz in vertrauenswürdigen Hardware-Umgebungen verbessern soll, insbesondere im Fall von Kompromittierungen. Trusted Execution Environments (TEE) – etwa in Smartphones oder sicheren Cloud-Diensten – schützen sensible Informationen. Doch auch sie können Ziel von Angriffen werden. Ist eine TEE einmal kompromittiert, ist es äußerst schwierig, das Vertrauen in ihre Sicherheit wiederherzustellen.
Die zentrale Idee von TokenWeaver ist es, einem kompromittierten Gerät zu ermöglichen, sich selbst zu „heilen“ – also seinen sicheren Zustand wiederzuerlangen – ohne die Privatsphäre der Nutzer:innen zu gefährden. Bisher galten diese beiden Ziele als schwer vereinbar: Um Angriffe zu erkennen, musste man meist das Gerät identifizieren – was die Anonymität der Nutzer:innen gefährdete.
TokenWeaver löst dieses Dilemma durch zwei miteinander verbundene Systeme: eine verknüpfbare Kette, mit der Anbieter wie Intel oder Google Angriffe erkennen und darauf reagieren können, und eine nicht verknüpfbare Kette, über die Nutzer:innen anonym mit Diensten interagieren können. Die Innovation liegt darin, wie beide Ketten zusammenarbeiten: Sie erkennen Kompromittierungen und stellen Sicherheit wieder her – ohne dass dabei jemand, auch nicht der Anbieter, die Aktivitäten der Nutzer:innen über Dienste hinweg nachverfolgen kann.
Das Protokoll wurde nicht nur entworfen, sondern auch formell verifiziert – mithilfe moderner Werkzeuge, die beweisen, dass es selbst unter Angriffen korrekt funktioniert. Zudem wurde ein funktionierender Prototyp entwickelt, der zeigt, dass das System auch in der Praxis hinsichtlich Geschwindigkeit und Speicherbedarf umsetzbar ist.
Gesellschaftlich trägt diese Arbeit dazu bei, digitale Systeme widerstandsfähiger und datenschutzfreundlicher zu machen. Sie liefert einen Plan dafür, wie Geräte nach einem Hack wieder Vertrauen aufbauen können – ohne die Nutzer*innen staatlicher oder kommerzieller Überwachung auszusetzen. Das ist besonders wichtig, da immer mehr kritische Dienste – von Banken bis zur Gesundheitsversorgung – auf sichere digitale Interaktionen angewiesen sind.
Diese Studie untersucht, wie Forschende im Bereich Usable Privacy and Security (UPS) Transparenz in ihrer Arbeit wahrnehmen und praktizieren. Transparenz bedeutet in diesem Kontext, alle relevanten Forschungsdetails – etwa Methoden, Daten und Materialien – offenzulegen, sodass andere die Forschung nachvollziehen, bewerten und gegebenenfalls replizieren können.
Die Autor:innen führten ausführliche Interviews mit 24 UPS-Forschenden unterschiedlicher Fachrichtungen und Erfahrungsstufen. Die Ergebnisse zeigen: Obwohl Transparenz grundsätzlich als zentrales Element guter wissenschaftlicher Praxis angesehen wird, stehen ihrer konsequenten Umsetzung zahlreiche Hürden im Weg. Dazu zählen der Mangel an klaren, formellen Richtlinien, begrenzte zeitliche und personelle Ressourcen sowie die Sorge, durch zu viel Offenheit Schwächen offenzulegen und dadurch stärkere Kritik im Peer Review zu riskieren.
Transparenzpraktiken beruhen derzeit häufig auf individueller Motivation und unausgesprochenen Community-Normen, anstatt auf verbindlichen Standards. Zwar setzen viele Forschende Praktiken wie das Teilen von Fragebögen oder Code um, dies geschieht jedoch meist ohne äußere Anreize oder formalisierte Unterstützung. Besonders bei der Veröffentlichung personenbezogener Daten stellen ethische Fragen eine zusätzliche Herausforderung dar.
Die Interviewten sprachen sich für mehr Unterstützung, klarere Leitlinien und gezielte Anreize zur Förderung transparenter Berichterstattung aus. Vorgeschlagen wurden unter anderem formelle Transparenzrichtlinien, Anerkennung transparenter Forschung in Begutachtungsverfahren sowie angepasste Evaluationsprozesse für Artefakte, die den Besonderheiten von UPS-Forschung Rechnung tragen.
Im weiteren gesellschaftlichen Kontext zeigt die Studie, wie transparente Forschungspraxis die Glaubwürdigkeit und Reproduzierbarkeit wissenschaftlicher Erkenntnisse im Bereich Datenschutz und IT-Sicherheit stärkt. Eine transparente Forschung trägt dazu bei, vertrauenswürdige und zugängliche Erkenntnisse zu schaffen – eine wichtige Voraussetzung für Fortschritt sowohl in der Wissenschaft als auch in der Praxis. Dies erfordert jedoch bewusste Veränderungen in den Normen der Fachgemeinschaft, im Publikationswesen und in der institutionellen Unterstützung.
In dieser Forschung widmen sich die Autor:innen einem praktischen Problem vieler blockchain-basierter Dienste, die nach einem sogenannten Schwellenwertmodell („threshold model“) arbeiten: Wie lässt sich fair und sicherstellen, dass nur diejenigen Server bezahlt werden, die tatsächlich zur Erfüllung einer angeforderten Aufgabe beigetragen haben? Während Blockchains wie Ethereum dies mithilfe von Smart Contracts ermöglichen, stellt dies bei Bitcoin und ähnlichen Systemen mit eingeschränkter Skriptfähigkeit eine Herausforderung dar.
Zur Lösung dieses Problems stellen die Forschenden VITĀRIT vor – ein neuartiges Protokoll, das sichere und faire Zahlungen für Threshold-Dienste direkt auf Bitcoin erlaubt. Solche Dienste umfassen beispielsweise das Generieren zufälliger Zahlen mittels verifizierbarer Zufallsfunktionen (VRFs), bei denen mindestens t + 1 von n Servern antworten müssen, um die Anfrage zu erfüllen. Ziel ist es, sicherzustellen, dass nur die tatsächlich beitragenden Server – und zwar nur einmal – bezahlt werden, ohne dass eine zentrale Instanz oder ein Smart Contract nötig ist.
Das zentrale Innovationsmerkmal ist ein leichtgewichtiges Transaktionsverfahren, das ausschließlich auf Standard-Bitcoin-Skripten basiert. Das Protokoll nutzt neue kryptografische Bausteine wie verifizierbare, nicht-bindende Verschlüsselung (verifiable non-committing encryption) und Adaptor-Signaturen, um den sicheren Austausch von Teilergebnissen und Zahlungen zwischen Client und Servern zu ermöglichen. VITĀRIT verhindert dabei betrügerisches Verhalten – etwa, dass ein Server ohne Leistung oder mehrfach bezahlt wird.
Ein Prototyp von VITĀRIT belegt die Effizienz und Praxistauglichkeit des Ansatzes. Die Performanzmessungen zeigen geringe Rechenzeiten auf Seiten von Clients und Servern. Im Vergleich zu herkömmlichen Smart-Contract-Lösungen senkt VITĀRIT zudem deutlich die rechnerischen und finanziellen Aufwände, etwa durch den Wegfall von Ethereum-Gebühren (Gas).
Gesellschaftlich trägt diese Arbeit dazu bei, dezentrale Dienste auf einer breiteren Basis von Blockchain-Plattformen nutzbar und sicher zu machen – insbesondere auf solchen wie Bitcoin, die keine komplexen Smart Contracts unterstützen. Sie stärkt Prinzipien wie Datenschutz, Effizienz und Vertrauen – zentrale Pfeiler der Vision dezentraler digitaler Infrastrukturen.