E-mail senden E-Mail Adresse kopieren

2024-04-03
Annabelle Theobald

ELSA-Treffen in London bringt wichtige Ergebnisse zur Kontrolle von KI-Systemen hervor

Am 18. März 2024 haben sich Forschende des ELSA – European Lighthouse on Secure and Safe AI im Alan Turing Institute in London getroffen, um über ihre Arbeit zur menschlichen Aufsicht und Kontrolle von künstlicher Intelligenz zu reden. Diskutiert wurden dabei die vielfältigen technischen, rechtlichen und ethischen Herausforderungen, die es bei der Implementierung von Kontrollmechanismen in KI-Systeme gibt, aber vor allem wurden neue Ansätze präsentiert, die zu sichereren und vertrauenswürdigeren Systemen führen.

Wie sehr können wir den Vorhersagen von künstlicher Intelligenz (KI) vertrauen und wie messen wir deren Zuverlässigkeit? Wo und wie sollten Menschen kontrollierend und regulierend in weit verbreitete KI-Systeme wie Chatbots eingreifen? Wie können wir einen sinnvollen rechtlichen Rahmen für den Einsatz von KI-Systemen schaffen? Wie können Deepfakes erkannt und gekennzeichnet werden? Das sind nur einige der Fragen, mit denen sich ELSA-Partner von so namhaften Institutionen wie dem Alan Turing Institute, der University of Birmingham und der Lancaster University Tag für Tag stellen. Plamen Angelov, Professor an der Lancaster University, leitet das sogenannte Workpackage drei von ELSA, das neben fünf weiteren Arbeitseinheiten sicherstellt, dass das ELSA-Netzwerk fokussiert die großen Herausforderungen sicherer KI in verschiedensten Anwendungsbereichen angehen kann.

Vertrauen ist gut, Kontrolle ist besser

Workpackage drei widmet sich in seiner Arbeit der sogenannten „Human Agency and Oversight“, konkret also der Frage, wie bei all der rasanten Entwicklung die Autonomie und Entscheidungsmacht von Menschen nicht von den KI-Systemen untergraben wird. Neue Entwicklungen wie der geplante EU AI Act, der den rechtlichen Rahmen für den Einsatz von KI in der EU zukünftig definieren wird, und die enorme Zunahme der Verbreitung von KI-Systemen im alltäglichen Leben und kreativen Schaffen, zum Beispiel in Form von Chatbots wie ChatGPT, machen diese Frage nur noch brisanter. Angelov erklärt, welche Auswirkungen diese Entwicklungen auf seine Arbeit haben, so: „Es stellen sich jetzt wichtige Fragen. Diese sind zum Beispiel: Wie können wir Wissen teilen und davon profitieren und gleichzeitig die Sicherheit und Vertrauenswürdigkeit der Systeme garantieren? Wie gehen wir mit den berechtigten Sorgen um den Datenschutz beim Teilen von großen Datenmengen für den Einsatz von generativer KI um? Und welche Anforderungen stellt diese Praxis an das Urheberrecht? Die aktuellen Entwicklungen haben unsere Forschung nicht grundlegend verändert, verstärken aber die überragende Bedeutung, die menschlichen Handelns und Aufsicht beim Einsatz von KI spielen.“

ELSA schafft nachhaltige Ergebnisse

Die großen Herausforderungen sicherer KI lassen sich dabei nicht nur kleinteilig in einzelnen Forschungsarbeiten angehen. Sie müssen in ihrem größeren Kontext verstanden und erst einmal wirklich definiert werden, sodass Expert:innen in ganz Europa daran arbeiten können. Deshalb haben die ELSA-Forschenden verschiedene Workshops organisiert, in denen Forschende ihr Wissen untereinander und mit politischen Entscheidungsträger:innen teilen können. Zudem haben sie Challenges und Competitions organisiert, mit denen sie die KI-Forschungscommunity herausfordern, ihre Ideen und ihr Wissen einzubringen. Zudem haben die Forschenden des Workpackages eine Reihe von Methoden präsentiert, die darauf abzielen, KI-Systeme so zu entwickeln, dass ihre Ergebnisse „by design“ interpretierbar sind. Die konkreten Anwendungsbereiche, auf die sich die Forschenden dabei konzentrieren sind Robotik und Multimedia. „Indem wir die Frage, wie wir Menschen bei der Entscheidungsfindung von künstlicher Intelligenz einbinden können, mit diesen konkreten Anwendungsfällen verknüpfen, können wir die „Grand Challenge“, also das komplexe Problem menschlicher Aufsicht über die Systeme genau definieren“, sagt Angelov. CISPA-Faculty und ELSA-Koordinator Professor Mario Fritz beschreibt, wie die Arbeit des Exzellenznetzwerks ELSA damit nachhaltig dazu beiträgt, die großen Probleme sicherer künstlicher Intelligenz nicht nur zu benennen, sondern auch zu lösen: „Wir legen mit unserer Arbeit den Grundstein dafür, dass Forschende in ganz Europa sich konkreten Problemstellungen sicherer KI widmen und mit ihren Ergebnissen die digitale Zukunft Europas mitgestalten können. Es geht letztlich darum, die Fähigkeiten der Systeme für uns nutzbar zu machen, sie aber gleichzeitig so zu gestalten, dass wir ihnen auch beim Einsatz in kritischen Bereichen vertrauen können. Keine leichte Aufgabe. Aber, wir sind mit ELSA auf dem richtigen Weg.“