E-mail senden E-Mail Adresse kopieren

2024-11-22
Annabelle Theobald

Sicher im Schwarm: Wie Large-Language-Modelle Roboterschwärme verlässlicher machen

„Gemeinsam ist man stark“, sagt Schwarmrobotik-Forscher Dr. Volker Strobel, der gefördert von der Helmholtz Information & Data Science Academy (HIDA), drei Monate lang am CISPA Gastforscher war und zusammen mit CISPA-Faculty Prof. Dr. Mario Fritz an Sicherheitsaspekten von Schwarmrobotern gearbeitet hat. In diesem Interview erzählt er uns von dem Austauschprogramm, seiner Faszination für Schwarmintelligenz und seiner gewinnbringenden Zusammenarbeit mit Mario Fritz.

Den Wissensaustausch zu fördern, neue Forschungskooperationen zu ermöglichen und neue oder aufkommende Forschungsthemen im Bereich der Informations- und Datenwissenschaften zu erkunden, ist das erklärte Ziel des Helmholtz Visiting Researcher Grants. Mit dieser Förderung unterstützt HIDA Doktorand:innen und Postdocs dabei Kurzzeit-Forschungsaufenthalte von einem bis zu drei Monaten in den 18 Helmholtz-Zentren zu realisieren. Volker Strobel, der als Postdoc an der Université Libre de Bruxelles arbeitet, hat diese Chance genutzt. Im Austausch mit CISPA-Forscher Mario Fritz hat er sich tiefer den Sicherheitsaspekten von Schwarmrobotik gewidmet und ist dabei auf ganz neue Forschungsideen gekommen.

Hallo Volker, wie bist du auf den Helmholtz Visiting Researcher Grant aufmerksam geworden und schließlich ans CISPA gekommen?

HIDA hatte einen Aufruf gestartet, sich für den Helmholtz Visiting Researcher Grant zu bewerben und kam damit zur richtigen Zeit. Ich habe vor Kurzem eine große Forschungsförderung für die Arbeit zu Sicherheitsaspekten in der Schwarmrobotik eingeworben. Ich arbeite in Brüssel mit Professor Dr. Marco Dorigo zusammen, einem absoluten Experten in Bezug Schwarmrobotik. Er forscht schon über zwanzig Jahre an verschiedenen Themen rund um Roboterschwärme. Mit Sicherheitsaspekten kennen wir uns aber bislang noch nicht so gut aus. Deshalb fand ich die Möglichkeit zum Austausch, eine super Gelegenheit, um Synergieeffekte zu erzielen. Ich habe mir dann die Schwerpunkte der Helmholtz-Zentren angeschaut und bin schnell auf Marios Arbeit gestoßen. Er forscht auch an der Sicherheit von Robotern und KI-Systemen. Nachdem mein Proposal dann von HIDA angenommen wurde, konnte ich im Juli 2024 starten.

Bevor wir zu deiner Forschung kommen, sag mir noch, wie die Unterstützung von HIDA genau aussieht.

Mit dem von HIDA ausgelobten Helmholtz Visiting Research Grant sind sehr weitreichende Unterstützungen verbunden, bis hin zu einem Forschungsstipendium vom gastgebenden Helmholtz-Zentrum, das für die Dauer des Aufenthalts die komplette Finanzierung übernehmen kann. In meinem Fall hat aus eher praktischen Gründen die Uni in Brüssel weiter mein Gehalt gezahlt, aber ich habe über den Grant Mietzuschuss, Mobilitätshilfen, einen Zuschuss zur Krankenversicherung hier in Deutschland und sogar einen Zuschuss zu den Kinderbetreuungskosten in dieser Zeit bekommen. Das ist schon super.

Was genau ist Schwarmrobotik und wo kommen Roboterschwärme zum Einsatz?

Hinter Schwarmrobotik steckt die grundsätzliche Idee, statt eines sehr komplexen Roboters, viele weniger komplexe Roboter an bestimmten Problemen arbeiten zu lassen. Der Forschungsbereich ist stark inspiriert von der Beobachtung der Natur, etwa vom Verhalten von Bienenvölkern und Ameisenkolonien. Der Schwarm kommt gemeinsam zu Problemlösungen, die für die einzelnen Mitglieder undenkbar wären. Es geht also darum komplexe Aufgaben auch ohne zentrale Steuerung zu erledigen. Die Roboter sammeln Informationen und teilen ihre Erkenntnisse nur mit dem lokal nächsten Mitglied ihres Schwarms.

Bisher werden Roboterschwärme noch nicht großflächig eingesetzt, aber es gibt viele Anwendungsszenarien. So könnten sie zum Beispiel in der Katastrophenhilfe eine große Rolle spielen, etwa wenn Drohnenschwärme eingesetzt werden, um Lawinenopfer zu orten. Aber auch in der Landwirtschaft können sie gewinnbringend eingesetzt werden. Zudem spielen sie für die Forschung eine Rolle. So können Schwärme zum Beispiel für die Erkundung der Tiefsee eingesetzt werden.

Was ist der Vorteil davon, kein zentrales Steuerelement zu haben und stattdessen viele autonome Einheiten?

Roboterschwärme können im besten Fall sehr viel schneller und flexibler auf Abweichungen reagieren. Zudem sind sie fehlertoleranter. Auch wenn Teile des Schwarms ausfallen, können die verbliebenen Mitglieder noch weiterarbeiten. Roboterschwärme lassen sich zudem gut skalieren. Herausfordernd ist allerdings noch sicherzustellen, dass sie auch gute und verlässliche Entscheidungen treffen und das auch dann, wenn zum Beispiel einer der Roboter gehackt wurde. Damit stellt sich automatisch auch die Frage, wo der Mensch in den Prozess eingebunden werden muss und Kontrolle ausübt. Je autonomer die Roboter entscheiden können, um so effektiver können sie sein. Aber man muss dann auch auf ihre Verlässlichkeit vertrauen können. Wir müssen immer einen Kompromiss zwischen Autonomie und Sicherheit finden.

Sicherheit ist das richtige Stichwort. Woran genau haben Mario und du zusammen gearbeitet?

Zunächst dachte ich, Marios Hintergrund im sogenannten förderierten Lernen würde die Basis für unsere Zusammenarbeit bilden. Denn beim föderierten maschinellen Lernen geht es auch darum, den Lernprozess zu dezentralisieren und statt einem großen Modell viele kleine zu trainieren. Mario ist aber gerade besonders aktiv in der Erforschung von Sicherheitsaspekten bei Large-Language-Modellen und wir haben hier schnell einen ganz anderen Ansatz gefunden, der super spannend ist. 

Wie sieht der aus?

Mario hatte in einem Experiment mehrere Softwareagenten, hinter denen jeweils ein Large-Language-Modell steckte, miteinander verhandeln und gemeinsam Entscheidungen treffen lassen. Also ein Szenario wie: Die Bürgermeister:innen verschiedener Städte müssen zu einem gemeinsamen Entschluss kommen, obwohl sie ganz unterschiedliche Interessen vertreten. Large-Language-Modelle sind darin tatsächlich wahnsinnig gut. In ihnen steckt viel Weltwissen und auch ein ethisches Grundverständnis. Wenn wir diese Fähigkeiten in Roboterschwärme einbringen können, bringt das ein großes Plus an Sicherheit, was die Qualität ihrer Entscheidungen angeht.

Large-Language-Modelle, kurz LLMs, sind große Sprachmodelle, die auf Basis von neuronalen Netzen trainiert wurden und komplexe Texte verstehen und selbst erzeugen können. Sie liegen zum Beispiel Chatbots wie ChatGPT zugrundeliegen. Wie habt ihr gezeigt, dass sie die Roboterschwärme durch sie tatsächlich bessere Entscheidungen treffen?

Wir haben zum Beispiel einen Roboterschwarm mit LLMs und Kameras ausgestattet und ihnen die Aufgabe gestellt, ein Feld abzusuchen und uns zu melden, wo Getreide wächst und wo Unkraut. Dann haben wir zwei Probleme eingebaut, ohne die Roboter dezidiert darauf vorzubereiten oder ihnen zu sagen, wie sie reagieren sollen. Einmal haben wir – zumindest laut der virtuellen Daten – eine verletzte Person im Feld versteckt. Die Roboter, die diese Stelle im Feld untersuchten, meldeten uns dann autonom, dass eine verletzte Person dort sei. Im echten Leben könnte nun ein Mensch nachsehen und entsprechend Hilfe holen. Im zweiten Fall haben wir einen der Roboter so programmiert, dass er die tatsächlichen Daten ignoriert und immer nur Unkraut meldet. Auch hier haben uns die anderen Roboter von sich aus aufmerksam gemacht, dass die Aussagen dieses Roboters vermutlich nicht stimmen, da alle anderen sowohl Getreide als auch Unkraut orten. Mithilfe der LLMs können die Roboter besser miteinander kommunizieren und wir sofort verstehen, was passiert.

Das hört sich super spannend an, aber sind LLMs so einfach in diese Roboter einzubauen? Ich dachte es geht darum, die Roboter möglichst einfach zu halten.

Ja, das stimmt und die Hardwarelimits von den aktuellen Robotern sind schon ein Thema. Ein LLM auf einem Roboter auszuführen ist durchaus komplexer als einen einfacheren Controller. Aber trotzdem ist das nicht unrealistisch, denn LLMs lassen auch heute schon auf sehr kleinen Rechnern ausführen. Wir gehen zudem davon aus, dass die Hardware in den nächsten Jahren noch kleiner wird und die Software effizienter. Wir sehen das also nicht als eine große Hürde.

Könnten damit die Roboter in Zukunft schlau genug sein, ganz ohne den Menschen Entscheidungen zu treffen?

Es ist damit zumindest denkbar, Menschen nur noch in Ausnahmefällen eingreifen zu lassen. LLMs haben zumindest ein Stück weit so etwas wie gesunden Menschenverstand und wissen, wie menschliche Entscheidungen aussehen.

Der interdisziplinäre Austausch, den HIDA dir ermöglicht hat, scheint an dieser Stelle ja sehr wertvoll gewesen zu sein. 

Absolut. Es war total spannend, Marios Perspektive auf meine Themen zu bekommen. Und obwohl wir ganz andere Forschungsschwerpunkte haben, hat er sofort alles verstanden und hatte super gute Ideen. Das hat meine Forschung ganz massiv beeinflusst und ich denke, wir werden auch noch weiter zusammenarbeiten.

Das hört sich toll an. Volker, ich danke dir für das Gespräch.