E-mail senden E-Mail Adresse kopieren

2022-03-22
Annabelle Theobald

CISPA-PhD-Student Xinlei He erhält begehrtes Norton Labs Graduate Fellowship

Das Unternehmen NortonLifeLock fördert Xinlei Hes innovative Forschung zu Sicherheit und Datenschutz von Machine-Learning-Systemen mit 20.000 Dollar.

Xinlei He, Doktorand in der Forschungsgruppe von CISPA-Faculty Dr. Yang Zhang, wurde mit dem Norton Labs Graduate Fellowship ausgezeichnet. Das IT-Sicherheitsunternehmen NortonLifeLock (vormals Symantec) fördert mit diesem Stipendium herausragende Doktoranden und innovative Forschung mit konkretem Praxisbezug. „Ich fühle mich sehr geehrt als Doktorand im Anfangsstadium und das ist eine tolle Bestätigung für mich und meine Arbeit. Mein Doktorvater Yang und meine Kolleg:innen haben mir sehr geholfen, bessere Forschungsvisionen zu entwickeln und solidere Arbeiten zu verfassen“, sagt He. Neben der finanziellen Förderung bietet das Unternehmen den Preisträgern ein bezahltes Praktikum an einem der Standorte der Norton Labs. Diese befinden sich unter anderem in Kanada, den USA, Irland oder Frankreich. „Das ist eine gute Möglichkeit, die reellen Probleme der Industrie zu sehen. Zwischen der akademischen Forschung und der täglichen Wirklichkeit in den Unternehmen klafft oft eine Lücke. Das Praktikum könnte mir helfen, die beiden Dinge noch besser zusammenzubringen."

Der gebürtige Chinese beschäftigt sich am CISPA derzeit hauptsächlich mit der Sicherheit von sogenannten selbstüberwachten Machine-Learning-Modellen (self supervised learning). Es handelt sich dabei um neuartige Modelle, die mit der Hilfe künstlicher neuronaler Netze lernen, ohne dass Menschen die dafür benötigten Trainingsdaten zuvor händisch klassifizieren müssen. Trainingsdaten zu klassifizieren, also einem Modell zum Beispiel vorzugeben, was auf einem Foto zu sehen ist, ist dabei enorm zeitaufwendig. Für ein erfolgreiches Training werden häufig Millionen gelabelte Beispieldatensätze gebraucht, die gar nicht so einfach zu bekommen sind. Selbstüberwachte Lernmethoden werden daher zunehmend beliebter.

Eine besonders populäre Art des selbstüberwachten Lernens ist das sogenannte kontrastive Lernen. Mit diesem Ansatz können Lernalgorithmen durch den Fokus auf bestimmte Eigenschaften von Bildern Ähnlichkeiten und Unterschiede erkennen. Ohne zu wissen, was genau auf dem Bild zu sehen ist, können sie diese Eigenschaften in einem Vektor abstrakt darstellen und diese Repräsentationen von Fotos nutzen, um verschiedene Aufgaben zu lösen.

In seinem Paper „Quantifying and Mitigating Privacy Risks of Contrastive Learning“, das er Ende des Jahres 2021 auch auf der renommierten Sicherheitskonferenz CCS vorgestellt hat, hat Xinlei He erstmals eine Analyse der Datenschutzrisiken dieser Lernmethode vorgenommen. „Kontrastives Lernen zeigt sich als anfällig für sogenannte Attribute-Inference-Attacken. Das bedeutet: Angreifer:innen können aus dem Output der Modelle Rückschlüsse auf sensible Informationen in den Daten ziehen, die mit deren eigentlicher Aufgabe nichts zu tun haben. Denn die Modelle tendieren dazu, zu viele Merkmale der Trainingsdaten in der Repräsentation abzubilden.“ Um dieses Problem zu lösen, hat He den kontrastiven Lernmechanismus Talos entwickelt. Dabei werden sensible Daten, die für die Aufgabenerfüllung nicht gebraucht werden, für die Modelle sozusagen zensiert und damit der Datenschutz bei ihrem Einsatz deutlich erhöht.

Xinlei He will sich auch in Zukunft verstärkt mit dem Thema selbstüberwachtes Machine Learning beschäftigen. „Ich denke in diesem Bereich gibt es noch viel zu tun, was Sicherheit, Datenschutz und Robustheit betrifft.“ Das Fellowship wird ihm helfen, seine Vision weiter voranzutreiben. „Es bestärkt mich auch darin, diese Richtung weiter zu verfolgen."