VERTEIDIGUNG GEGEN AUSWEICH- UND INFERENZANGRIFFE. DATENSCHUTZ.
Mit dem Fortschritt der Techniken des maschinellen Lernens haben wir eine schnelle Übernahme dieser Technologie in einem breiten Spektrum von Anwendungsszenarien erlebt. Mit der zunehmenden Verbreitung des maschinellen Lernens werden solche Ansätze Teil der Angriffsfläche moderner IT-Systeme und -Infrastrukturen. Daher erforschen wir Angriffsvektoren und Abwehrmechanismen heutiger und zukünftiger intelligenter Systeme, die auf der KI und der Technologie des maschinellen Lernens aufbauen.
Ausweichangriffe. Obwohl es im letzten Jahrzehnt einen Leistungssprung bei maschinellen Lernsystemen gegeben hat, sind noch viele Fragen offen, um solche Modelle in kritischen Systemen mit garantierter Robustheit einsetzen zu können. Insbesondere Techniken des Deep Learning haben sich bei einer Vielzahl von Aufgaben als leistungsfähig erwiesen, sind aber ebenso sehr anfällig für kontradiktorische Manipulationen der Eingabedaten. Erfolgreiche Angriffe, die den Output und das Verhalten eines intelligenten Systems verändern, können schwerwiegende Folgen haben, die von Unfällen autonomer Fahrsysteme bis hin zur Umgehung von Malware oder Einbruchserkennung reichen. Wir erforschen die Robustheit von Modellen des maschinellen Lernens sowohl unter gutartigen Bedingungen als auch unter gegnerischer Manipulation und entwickeln neue Modelle und Abwehrmechanismen, um vor Klassen solcher Angriffe zu schützen.
Inferenzangriffe. Dienstleistungen des maschinellen Lernens werden von einer Reihe von Anbietern angeboten, die es den Kunden leicht machen, z.B. intelligente Dienste für ihr Unternehmen zu ermöglichen. Auf der Grundlage eines Datensatzes wird ein maschinelles Lernmodell trainiert, auf das dann z.B. über eine Online-API zugegriffen werden kann. Die Daten und das Modell des maschinellen Lernens selbst sind wichtige Vermögenswerte und stellen häufig geistiges Eigentum dar. Unsere jüngste Forschung hat ergeben, dass solche Vermögenswerte zu Kund:innen durchsickern können, die den Dienst nutzen. Daher kann eine Gegner:in die durchgesickerten Informationen ausnutzen, um Zugang zu den Daten und/oder dem Modell des maschinellen Lernens zu erhalten, indem sie nur den Dienst nutzt. Wir bemühen uns um ein grundlegendes Verständnis dieser neuartigen Inferenzangriffe auf maschinelle Lernmodelle und schlagen Abwehrmaßnahmen vor, die einen sicheren und geschützten Einsatz von maschinellen Lernmodellen ermöglichen.
Datenschutz. Der Erfolg der heutigen Algorithmen des maschinellen Lernens wird weitgehend durch große Datensätze angetrieben. Viele Bereiche von praktischem Interesse sind auf den Menschen ausgerichtet und zielen darauf ab, unter realen Bedingungen zu arbeiten. Daher ist die Sammlung von Daten aus der realen Welt oft der Schlüssel zum Erfolg solcher Methoden. Dies wird häufig durch die Nutzung von Benutzerdaten oder Crowdsourcing-Bemühungen erreicht. Wir erforschen datenschutzgerechte maschinelle Lernverfahren, die das Durchsickern privater Informationen oder Linking-Angriffe z.B. in verteilten und kollaborativen Lernumgebungen verhindern. Wir suchen nach grundlegenden Ansätzen, die starke Datenschutzgarantien für moderne maschinelle Lernmodelle bieten und gleichzeitig einen hohen Nutzen des Gesamtsystems erhalten.