Die ACM Conference on Computer and Communications Security (CCS) ist die jährliche Flaggschiffkonferenz der Special Interest Group on Security, Audit and Control (SIGSAC) der Association for Computing Machinery (ACM). Die Konferenz bringt Informationssicherheitsforschende, Praktiker:innen, Entwickler:innen und Benutzer:innen aus der ganzen Welt zusammen, um neueste Ideen und Ergebnisse zu erforschen.
Wenn verschiedene Gruppen gemeinsam ein KI-Modell trainieren wollen, müssen sie ihre Daten schützen. Eine Möglichkeit besteht darin, den Berechnungen zufälliges Rauschen hinzuzufügen, sodass niemand erkennen kann, welche Daten von wem stammen. Dafür gibt es zwei Hauptansätze: Entweder fügt jede Gruppe ihr eigenes Rauschen hinzu – was viel Rauschen erfordert und die Ergebnisse weniger genau macht – oder das Rauschen wird gemeinsam in einer sicheren Berechnung erzeugt. Letzteres erhält die Genauigkeit, war bisher jedoch sehr langsam und kommunikationsaufwendig.
Die Forschenden stellen nun eine neue Methode vor, um dieses Problem zu lösen. Anstatt das Rauschen auf komplexe Weise zu berechnen, schlagen sie vor, es aus vorberechneten Tabellen zu entnehmen, die die benötigte Zufälligkeit annähern. Dadurch wird der Prozess wesentlich schneller und der Kommunikationsaufwand sinkt. In ihren Experimenten war die neue Methode über 200-mal schneller als frühere Ansätze und funktionierte auch bei vielen Teilnehmenden zuverlässig. Zudem ist sie flexibel und kann für verschiedene Arten von Rauschen eingesetzt werden.
Für die Gesellschaft bedeutet das, dass sichere Zusammenarbeit mit sensiblen Daten einfacher wird. Unterschiedliche Organisationen können gemeinsam KI-Modelle trainieren, ohne private Informationen preiszugeben – und dabei dennoch eine hohe Modellgenauigkeit erreichen.
Die Forschenden haben das Sicherheitsprotokoll SPDM (Security Protocol and Data Model) in der Version 1.2 umfassend untersucht. Dieses Protokoll wird von großen IT-Unternehmen genutzt, um die sichere Kommunikation zwischen Hardware-Komponenten und in Cloud-Umgebungen zu gewährleisten. Während frühere Analysen nur einzelne Teile des Protokolls betrachtet hatten, haben die Autor:innen erstmals das gesamte Zusammenspiel aller Bestandteile modelliert und mit dem Analysewerkzeug Tamarin geprüft. Dabei stießen sie überraschend auf eine gravierende Sicherheitslücke: In einem bestimmten Betriebsmodus konnte ein:e Angreifer:in die Authentifizierung vollständig umgehen. Der Angriff wurde praktisch umgesetzt, an die Entwickler:innen gemeldet und als kritische Sicherheitslücke (CVE, Schweregrad 9 von 10) eingestuft.
Die Forschenden entwickelten daraufhin eine Korrektur und erbrachten den ersten formalen Sicherheitsbeweis für die überarbeitete Version des Protokolls. Diese Korrektur wurde sowohl in die Referenzsoftware als auch in den Standard selbst übernommen.
Die Arbeit zeigt, dass es nicht ausreicht, nur einzelne Bausteine eines Sicherheitsprotokolls zu prüfen. Erst eine ganzheitliche Analyse deckt mögliche Angriffspunkte auf, die durch das Zusammenspiel verschiedener Komponenten entstehen können. Die Ergebnisse tragen dazu bei, dass Schwachstellen schneller erkannt und behoben werden, bevor sie großflächig ausgenutzt werden können.
Die Forschenden zeigen, dass aktuelle, hochmoderne Anti-Gesichtserkennungs-Schutzmechanismen (AFR) hauptsächlich gegen statische Gesichtserkennungs-Tracking-Strategien (FR) bewertet werden, die jedoch die Fähigkeiten entschlossener, adaptiver Angreifer nicht realistisch abbilden. Um diese Lücke zu schließen, stellen sie DynTracker vor – eine einfache, aber äußerst wirkungsvolle Angriffsmethode, die ihre Galeriedatenbank dynamisch mit neu erkannten Bildern aktualisiert und so eine kontinuierliche Nachverfolgung ermöglicht.
Zum Schutz vor solchen adaptiven Bedrohungen schlagen die Autoren DivTrackee vor, ein System, das die Diversität von AFR-Störungen durch textgesteuerte Bildgenerierung erhöht und Mechanismen einsetzt, die die Ähnlichkeit zwischen veränderten Bildern gezielt reduzieren. Die experimentellen Ergebnisse zeigen, dass DynTracker bestehende AFR-Abwehrmechanismen vollständig aushebelt, während DivTrackee die Erfolgsquote der Angriffe deutlich senkt und gleichzeitig eine hohe visuelle Bildqualität beibehält.
Insgesamt macht die Studie die Schwächen aktueller AFR-Schutzansätze deutlich und weist auf einen zuverlässigeren Weg hin, um die Privatsphäre von Gesichtern gegenüber fortschrittlichen Erkennungssystemen zu wahren.
Die Studie untersucht die Sicherheit von Webbrowsern, die täglich unzählige Skripte und Programme aus unbekannten Quellen ausführen. Moderne Browser nutzen dazu Software-basierte Isolierung (SFI), etwa Googles V8 Heap Sandbox, die Milliarden von Nutzer:innen schützt. Diese trennt vertrauenswürdige Daten von einem „unsicheren“ Speicherbereich, in dem potenziell manipulierte Inhalte verarbeitet werden.
Die Forschenden zeigen, dass solche Systeme bislang kaum gezielt getestet wurden. Sie entwickelten deshalb ein neues Testwerkzeug, das die reale Angreiferperspektive nachbildet: Alle Speicherzugriffe von vertrauenswürdigem Code auf unsichere Daten werden manipuliert, um Schwachstellen an der Sicherheitsgrenze aufzudecken. Bei der Anwendung auf die V8-Sandbox entdeckte das Team 19 bislang unbekannte Sicherheitslücken, darunter Pufferüberläufe und Speicherfehler, die das Schutzkonzept umgehen können.
Die Ergebnisse machen deutlich, dass selbst weit verbreitete Sicherheitsmechanismen fehleranfällig sind und systematisch geprüft werden müssen. Für die Gesellschaft bedeutet dies: Nur durch verbesserte Testmethoden lässt sich langfristig sicherstellen, dass zentrale Anwendungen wie Browser oder Cloud-Dienste wirksam vor Angriffen geschützt bleiben.
Moderne Smartphones, Laptops und Cloud-Server setzen in großem Umfang auf ARM-Prozessoren. Diese Chips verfügen über versteckte Leistungsmerkmale wie Caches, die für normale Software eigentlich unsichtbar sein sollen. Doch genau diese Mechanismen können unter bestimmten Bedingungen geheime Informationen preisgeben–oft mittels sehr präziser Zeitmessung
Doch was passiert, wenn eine solche Zeitmessung nicht verfügbar ist, wie es bei modernen ARM-Systemen zunehmend der Fall ist? Ein Forschungsteam vom CISPA Helmholtz-Zentrum für Informationssicherheit und von Google hat ExfilState entwickelt, eine Software, die automatisch aufdeckt, wie Prozessoren auch ohne Zeitmessung ungewollt Informationen preisgeben können. Statt auf Zeitmessungen setzt ExfilState darauf, kleinste Unterschiede im sichtbaren Zustand des Prozessors–etwa in Registern oder Fehlermeldungen–zu erkennen, wenn sich der interne Cache in unterschiedlichen Zuständen befindet
Auf 160 Geräten mit 37 verschiedenen ARM-Prozessor-Designs entdeckte das Team fünf bislang unbekannte Seitenkanäle–versteckte Wege, über die Informationen abfließen können. Zwei davon sind weit verbreitet und auf fast allen getesteten ARM-Prozessoren zuverlässig ausnutzbar. Die Forschenden zeigten, dass Angreifer sie nutzen könnten, um kryptographische Schlüssel aus verbreiteter Verschlüsselungssoftware zu stehlen, neue, ohne Zeitmessung auskommende Varianten von Angriffen wie Spectre durchzuführen und sogar neue Abwehrmechanismen zu entwickeln, die Angriffe stoppen, sobald sensible Daten den Cache verlassen.
Dieses Forschungsteam untersuchte, wie blinde und sehbehinderte Menschen mit Passwörtern umgehen und welche Rolle Passwortmanager dabei spielen. Grundlage war eine Interviewstudie mit 33 Teilnehmenden. Alle Befragten nutzten Passwortmanager zumindest in Ansätzen, vor allem wegen der praktischen Vorteile beim Speichern und automatischen Ausfüllen von Zugangsdaten. Die eigentlichen Sicherheitsfunktionen – das Erzeugen langer, zufälliger Passwörter – wurden jedoch kaum genutzt. Der Grund liegt in fehlender Barrierefreiheit: Viele Funktionen sind für Menschen mit Sehbehinderung schwer zugänglich oder fühlen sich nicht zuverlässig an.
Dadurch entstehen Unsicherheiten und ein Mangel an Kontrolle. Einige Betroffene greifen deshalb auf riskante Alternativen zurück, etwa das Wiederverwenden einfacher Passwörter oder das schriftliche Festhalten sensibler Daten in Braille-Notizen. Diese Strategien zeigen, dass Passwortmanager zwar grundsätzlich hilfreich sein können, ihre Gestaltung jedoch nicht konsequent auf die Bedürfnisse dieser Nutzer:innen eingeht.
Die Forschenden betonen, dass Verbesserungen in der praktischen Barrierefreiheit und eine stärkere Einbindung von Menschen mit Sehbehinderung in die Entwicklung entscheidend wären. So könnten Passwortmanager ihr volles Potenzial entfalten: sichere, zufällige Passwörter einfach nutzbar machen – ohne die Selbstbestimmung der Betroffenen einzuschränken.
Für die Gesellschaft bedeutet das: Digitale Sicherheit kann nur dann inklusiv funktionieren, wenn Hilfsmittel so gestaltet sind, dass alle sie gleichermaßen bedienen können. Verbesserte Barrierefreiheit schützt nicht nur einzelne Gruppen, sondern trägt zu mehr allgemeiner Sicherheit im digitalen Alltag bei.
Die Forschenden untersuchen, wie zuverlässig aktuelle Bildsicherheits-Klassifikatoren ungeeignete Inhalte wie Gewalt, Hass oder sexuelle Darstellungen erkennen. Bisherige Modelle wurden meist auf reale Bilder trainiert, während KI-generierte Bilder zunehmend neue Herausforderungen darstellen. Mit UnsafeBench entwickelten die Autorinnen und Autoren ein Benchmarking-Framework mit über 10.000 annotierten Bildern (real und KI-generiert, elf Kategorien). Damit prüften sie fünf gängige Klassifikatoren und drei Modelle auf Basis großer visuell-sprachlicher Systeme. Ergebnis: Konventionelle Klassifikatoren erkennen nur wenige Kategorien und schneiden besonders bei KI-Bildern deutlich schlechter ab. Auch gegenüber Manipulationen sind sie anfällig. VLMs wie GPT-4V sind leistungsfähiger, zeigen aber ebenfalls Schwächen, etwa beim Erkennen von Hasssymbolen.
Als Gegenmaßnahme stellten die Forschenden PerspectiveVision vor, ein feinjustiertes Modell, das sowohl auf realen als auch auf KI-generierten Daten trainiert wurde. Es verbessert sowohl die Erkennungsrate als auch die Robustheit gegen Angriffe.
Die Arbeit zeigt, dass existierende Filtersysteme unzureichend sind, um die wachsenden Risiken durch KI-generierte problematische Inhalte zu bewältigen. Für die Gesellschaft bedeutet dies, dass bessere Moderationswerkzeuge notwendig sind, um Online-Plattformen sicherer zu gestalten.
Die Forschenden analysieren, wie das Document Object Model (DOM) — die zentrale Struktur, mit der JavaScript Webseiteninhalte liest und verändert — als Angriffsvektor missbraucht werden kann. Sie führen eine kombinierte statische und dynamische Analyse durch, um sogenannte DOM-Gadgets zu identifizieren: Codefragmente, die DOM-Inhalte lesen und sicherheitsrelevante Aktionen auslösen. Solche Gadgets gehen über bekannte „Script-Gadgets“ hinaus und ermöglichen unter anderem das Hijacking von Netzwerkaufrufen, Cross-Site-Request-Forgery oder Manipulationen der Nutzeroberfläche, ohne notwendigerweise direkt JavaScript-Ausführung zu verursachen. Die Autor:innen crawlen die Top-15k-Domains, werteten 522k Seiten mit 10,3 Milliarden JavaScript-Zeilen aus und fanden 2,6 Millionen potenzielle DOM-zu-Sink-Datenflüsse; 357k Instanzen wurden verifiziert (betroffen ~15 % der Domains). Für 657 Gadgets auf 37 Sites konnten die nötigen Markup-Injektionspunkte automatisch nachgewiesen werden. Etwa 10 % der untersuchten Flows enthielten keine Validierungs- oder Sanitization-Schritte. Außerdem beschreiben die Forschenden vier Techniken, um DOM-Elemente umzuordnen, die für die Ausnutzung vieler Gadgets nötig sind. Die Studie macht deutlich, dass das Vertrauen in DOM-Daten weit verbreitet, aber oft unzureichend geschützt ist. Für die Gesellschaft bedeutet dies, dass Web-Entwickler und Standard-Wächter die Rolle des DOM in Vertrauensgrenzen überdenken und bestehende Werkzeuge zur Identifikation und Behebung solcher Schwachstellen weiterentwickeln sollten, um die Sicherheit alltäglicher Webanwendungen zu erhöhen.
Die Autor:innen untersuchen, wie Konsistenzprobleme bei Sicherheitsheadern die Websicherheit beeinflussen. Sie führten eine differenzielle Testreihe mit 177.146 Tests für 16 sicherheitsrelevante Header in 16 Browserkonfigurationen (über 97 % Marktanteil) durch und führten insgesamt über elf Millionen Testläufe aus. Dabei fanden sie 5.606 Tests (3,16 %), die sich browserübergreifend inkonsistent verhielten, und leiteten die Unterschiede auf 42 ursächliche Fehler zurück; 31 davon waren bisher unbekannt und führten zu 36 eingereichten Bugreports bei Browsern und Spezifikationen. Viele Berichte führten bereits zu Korrekturen. Die Forschenden beschreiben außerdem ein neues Clustering-Verfahren zur Ursachenanalyse und stellen ihr Testframework Open Source bereit, sodass Anbieter kontinuierlich prüfen können. Bei einer späteren Wiederholung auf aktuellen Browserversionen bestätigten sie viele Korrekturen, entdeckten jedoch vier neue Fehler. Diese Arbeit liefert konkrete Messdaten und Werkzeugunterstützung, um Implementierungsfehler zu finden und Browserkonformität zu verbessern, was die Zuverlässigkeit von sicherheitsrelevanten Mechanismen im Web erhöht.
Die Autor:innen adressieren ein zentrales Problem bei der Sicherheit vernetzter Embedded-Geräte: Rehosting-basierte Fuzzing-Methoden schaffen es oft nicht, komplexe, mehrschichtige Netzwerkstacks so zu stimulieren, dass Eingaben in tiefere Protokoll- und Anwendungslogik gelangen. Sie stellen Pemu vor, ein automatisches System, das zunächst aktiv Protokolle erkennt (u. a. durch Auswerten ausgehender Frames und Coverage-Tests), dann fehlende Adress-/Kontextinformationen ableitet und Rohfuzzing-Daten in wohlgeformte, mehrere Schichten umfassende Netzwerkpakete kapselt. Dadurch erreichen Fuzzing-Eingaben weiter innenliegende Schichten und die Anwendungslogik des Firmwares. In Kombination mit drei Rehosting-Fuzzern (Fuzzware, Hoedur, SEmu) steigert Pemu die durchschnittliche Basic-Block-Coverage um 40.7 %, 39.2 % bzw. 8.5 %. Pemu rekonstruierte bekannte Fehlfunktionen und entdeckte fünf neue Bugs; Artefakte und Code sind öffentlich verfügbar. Diese Arbeit ermöglicht ein tieferes, skalierbares Testen von Embedded-Netzwerkstacks und trägt so zur Reduktion kritischer Sicherheitslücken in vernetzten Geräten bei.
Die Autor:innen verbessern die automatische Verifikation von Sicherheitsprotokollen, die Schleifen oder induktiv definierte Datenstrukturen verwenden — Szenarien, bei denen Werkzeuge wie Tamarin oft nicht terminieren oder aufwändige, manuelle Hilfslemmas benötigen. Sie adaptieren das Konzept zyklischer Beweise (cyclic proofs) an Tamarins Constraint-Reduktionsmechanismus: formalisiert, mit neuen Reduktionsregeln (gezielte Abschwächung/„weakening“ und Schnitt/„cut“), Soundness-Beweis und praktischen Heuristiken zur Backlink-Suche. Die Implementierung ermöglicht kompaktere, stärker automatisierte Beweise; in einer Evaluation über vierzehn Fallstudien — von einfachen Beispielen bis zu einem detaillierten Signal-Modell — lassen sich viele Lemmas ohne oder mit deutlich weniger zusätzlichen Hilfslemmas beweisen (u. a. Nachrichtengeheimnis für Signal). Die Arbeit erhöht damit die praktische Automatisierung bei Beweisen für Protokolle mit Schleifen. Für die Gesellschaft bedeutet dies, dass formale Werkzeuge zuverlässiger und effizienter zur Absicherung kritischer Kommunikationsprotokolle eingesetzt werden können.
Jeder Prozessor folgt einer Spezifikation–die sogenannte Instruction Set Architecture (ISA). Sie legt die grundlegenden Befehle fest (z. B. Addieren, Laden, Speichern), die Software nutzen kann. RISC-V ist eine offene ISA–dadurch kann jeder eigene, kompatible Prozessoren entwickeln. Diese Offenheit hat eine Welle neuer Chips für Laptops, Server und eingebettete Systeme ausgelöst.
Doch auch wenn die Spezifikation offen ist, bleiben die meisten konkreten CPU-Designs proprietär–wie auch bei x86 oder ARM. Das erschwert die unabhängige Überprüfung auf Sicherheitslücken.
Ein Forschungsteam am CISPA hat deshalb RISCover entwickelt–eine Software, die reale RISC-V-Prozessoren automatisch auf Designfehler testet, ohne Einblick in ihre internen Baupläne zu benötigen. RISCover führt kurze Testprogramme aus und vergleicht die Ergebnisse auf verschiedenen CPUs. Zeigt sich ein abweichendes Verhalten, deutet dies auf einen Fehler oder eine Schwachstelle hin.
Bei Tests mit acht weit verbreiteten RISC-V-Prozessoren entdeckte das Team vier schwerwiegende Lücken. Am gravierendsten ist die GhostWrite Schwachstelle (CVE-2024-44067): Diese ermöglicht es unprivilegierter Software, direkt in den physischen Speicher zu schreiben und so die vollständige Kontrolle über ein System zu übernehmen. Außerdem fanden die Forscher Befehlsfolgen, die Prozessoren sofort zum Stillstand bringen können–ein effektiver Denial-of-Service-Angriff.
Da Hardwarefehler im Gegensatz zu Softwarefehlern kaum nachträglich behoben werden können, ist frühe Entdeckung entscheidend. RISCover hilft dabei, solche Schwachstellen rechtzeitig offenzulegen und die Sicherheit des wachsenden RISC-V-Ökosystems zu stärken.
Das Forschungsteam untersuchte, wie US-Unternehmen in ihren offiziellen SEC-10-K-Berichten über Mitarbeiterschulungen zur Cybersicherheit berichten. Diese Jahresberichte müssen börsennotierte Unternehmen bei der U.S. Securities and Exchange Commission einreichen. Sie enthalten Informationen über Finanzen, Risiken und Geschäftstätigkeit und seit Ende 2023 auch einen Abschnitt zur Cybersicherheit.
In der Analyse von Tausenden solcher Berichte zeigte sich, dass rund 78% der Unternehmen Schulungen zum Sicherheitsbewusstsein anbieten. Manche machten nur vage Angaben, andere beschrieben detaillierte oder verpflichtende Programme. Mitarbeiter wurden oft als Schwachstelle dargestellt, leicht zu täuschen oder als mögliches Risiko von innen. Ein kleinerer Teil der Unternehmen erwähnte zusätzliche Maßnahmen wie Multi-Faktor-Authentifizierung (11%) oder Meldewege für verdächtiges Verhalten (8%).
Unternehmen, die einem Cybersicherheitsrahmenwerk des National Institute of Standards and Technology (NIST) folgen, einer US-Behörde für Standards und Richtlinien, kombinierten häufiger Schulungen mit weiteren Schutzmaßnahmen. Unterschiede zeigten sich zudem nach Unternehmensgröße und Branche.
Dies ist die erste große unabhängige Studie, die aufzeigt, wie verbreitet Cybersicherheitsschulungen in US-Unternehmen tatsächlich sind. Die Ergebnisse geben Führungskräften, CISOs und politischen Entscheidungsträgern ein klareres Bild für ihre Entscheidungen und können helfen, Investitionen in Cybersicherheit gezielter zu steuern. Alle Daten und Analyse-Skripte wurden veröffentlicht, sodass die Studie vollständig nachvollziehbar ist und ihre Ergebnisse reproduziert werden können.
Verschlüsselte E-Mails sollen vertrauliche Informationen schützen und sicherstellen, dass nur Absender und Empfänger sie lesen können. Dennoch hat ein Forschungsteam am CISPA gezeigt, dass Angreifer E-Mail Programme dazu bringen können, geheime Nachrichten preiszugeben.
Der Angriff missbraucht CSS – die normalerweise für Schriftarten und Layouts verwendeten Stilregeln – um den gesamten Inhalt einer verschlüsselten E-Mail wiederherzustellen. Durch die Kombination von Funktionen wie benutzerdefinierten Schriftarten, Container Abfragen und Animationen zeigt das Forschungsteam, wie jedes Zeichen einer entschlüsselten Nachricht einer Netzwerkabfrage zugeordnet werden kann. Sobald das Opfer die E-Mail öffnet, übermitteln diese Abfragen den Text unbemerkt an den Angreifer – ohne eine erforderliche Benutzerinteraktion oder Warnsignale.
Die Analyse über mehrere weit verbreitete E-Mail Programme macht deutlich, dass die eigentliche Schwachstelle nicht in der Verschlüsselung selbst liegt, sondern in der Art und Weise, wie E-Mail Programme formatierte Inhalte darstellen. Das Projekt stellt klar, dass CSS als ernstzunehmendes Sicherheitsrisiko betrachtet werden muss, und fordert eine stärkere Trennung zwischen vertrauenswürdigem Inhalt und externem Styling in E-Mail-Clients. Die Ergebnisse führten bereits zu Änderungen in wichtigen Softwareprojekten, darunter Updates für Mozilla Thunderbird und Meta's Code Verify.
Kryptographie-Wettbewerbe tragen oft zur Entwicklung und Standardisierung neuer kryptographischer Verfahren bei. Sie helfen dabei, aus einer Liste eingereichter Vorschläge diejenigen Grundbausteine und Algorithmen auszuwählen, die bestimmte kryptographische Probleme sicher und effizient lösen. In den letzten Jahrzehnten haben mehrere Wettbewerbe, die vom NIST und anderen Forschungs- und Regulierungsorganisationen durchgeführt wurden, zu Standards geführt – etwa für symmetrische und asymmetrische Verschlüsselung, Hashfunktionen, digitale Signaturen und quantensichere Kryptographie. Während diese Wettbewerbe umfangreiche technische Forschung zu den eingereichten Verfahren angeregt haben, ist bislang wenig über die menschlichen Aspekte ihrer Abläufe bekannt – also darüber, wie diese Faktoren die Wettbewerbsergebnisse beeinflussen und welche Wirkung sie auf die wahrgenommene Sicherheit kryptographischer Verfahren haben.
Um die menschlichen Aspekte von Kryptographie-Wettbewerben zu untersuchen, haben die Froschenden 20 erfahrene Teilnehmende solcher Wettbewerbe interviewt. Sie befragten sie zu ihren Erfahrungen, zur Einschätzung der Wirkung dieser Wettbewerbe und zu ihren Vorschlägen für zukünftige Veranstaltungen. Wir stellten fest, dass Wettbewerbe Aufmerksamkeit auf ein bestimmtes kryptographisches Gebiet lenken, Forschung und Motivation fördern und durch gemeinschaftliche Überprüfung und Zusammenarbeit Vertrauen in die Verfahren schaffen. Unsere Teilnehmenden betonten die entscheidende Bedeutung von Transparenz, Fairness und Vertrauenswürdigkeit der Wettbewerbsorganisatoren und hoben die Notwendigkeit klarer und offener Kommunikation hervor.
Auf Grundlage dieser Erkenntnisse schlagen die Autor:innen Strategien für zukünftige Wettbewerbe vor, um die Beteiligung zu maximieren und transparente, vertrauenswürdige Prozesse und Ergebnisse zu gewährleisten. Wir empfehlen eine stärkere Moderation des sozialen Umgangs auf offiziellen Kanälen, um Fairness sicherzustellen und potenzielle Beitragende nicht abzuschrecken. Außerdem sind substanzielle Beteiligung der Industrie und systematische Rückmeldungen entscheidend. Transparente Organisation und Bewertung heben den Wettbewerb insgesamt an und fördern sichere, weit verbreitete Standards.