E-mail senden E-Mail Adresse kopieren

2021-09-10
Annabelle Theobald

Wie sicher ist bequem?

CISPA-Forscher Alexander Ponticello beleuchtet mit seinem SOUPS-Paper neue Authentifizierungsmechanismen für Sprachassistent:innen

„Alexa, überweise Sabrina 20 Euro“ – „Ok, nenne mir jetzt deine PIN” – so oder so ähnlich hört sich so manches Gespräch in Wohnzimmern in den USA an. Dort ist es bereits möglich, Bankgeschäfte via Cortana, Siri, Alexa und Co. zu erledigen. Bis diese Services auch in Europa angeboten werden, ist wahrscheinlich nur noch eine Frage der Zeit. Auch für andere sicherheitskritische Dienste, zum Beispiel per Sprachbefehl die Haustür auf- und zuzuschließen, müssen sich Nutzer:innen gegenüber ihren digitalen Helfer:innen authentifizieren. Das geht bislang meist über das laute Aussprechen einer PIN. Aber ist das sicher genug? Damit bei der Gestaltung solcher Authentifizierungsmechanismen das Sicherheitsbedürfnis von Nutzer:innen mitgedacht werden kann, erforscht Alexander Ponticello, welche Risiken die User:innen fürchten, wie sie die Interaktion mit ihren Sprachassistent:innen wahrnehmen und womit sie sich sicher fühlen. Der gebürtige Südtiroler, der unter der Leitung von CISPA-Faculty Dr. Katharina Krombholz forscht, hat sein Paper „Exploring Authentication for Security-Sensitive Tasks on Smart Home Voice Assistants“ auf dem Seventeenth Symposium on Usable Privacy and Security (SOUPS 2021) vorgestellt.

„Sprachassistent:innen stehen mittlerweile in vielen Wohn- und Schlafzimmern, sie sind in Smartphones und Autos eingebaut und ihre Einsatzfelder erweitern sich rasant. Sobald sich die Dienste weiter auf sensible Lebensbereiche wie Gesundheit oder Finanzen ausdehnen, steigen auch die Anforderungen an ihre Sicherheit und Vertrauenswürdigkeit enorm“, erklärt Alexander Ponticello, der am CISPA zu Usable Security forscht. Doch was genau brauchen Menschen, um den Systemen ihr Vertrauen zu schenken und welchen Preis sind sie bereit für diese Sicherheit zu zahlen? Um das herauszufinden, hat der 28-Jährige in einer qualitativen Studie Besitzer:innen von Sprachassistent:innen zu ihrem Nutzungsverhalten und ihrem Sicherheitsempfinden befragt. 

„Wir haben dabei spannende Einsichten gewonnen.“ So trauen die meisten der 16 Studien-Teilnehmer:innen der laut ausgesprochenen PIN als Authentifizierungsmethode nicht und wünschten sich stattdessen eine Identifikation über biometrische Spracherkennung – oder eine Kombination beider Sicherheitsfunktionen. Bei der Authentifizierung über eine PIN fürchten Nutzer:innen vor allem, dass andere diese mithören könnten. Diese Sorge umfasste dabei nicht nur Fremde oder Kriminelle, sondern je nach Art der Interaktion auch Partner:innen, Freund:innen und Kinder. So gaben zwar fast alle Studien-Teilnehmer:innen an, ihren Freund:innen grundsätzlich zu vertrauen. Bei dem Gedanken, dass diese die Authentifizierungs-PIN für Banküberweisungen kennen, fühlten sich viele aber nicht wohl. Auch im Beisein von Kindern wünschen sich einige Nutzer:innen einen diskreteren Athentifizierungsmechanismus. Sie fürchten, diese könnten – je nach Alter – die PIN nutzen, um zum Beispiel Geld aufs Handy zu laden. Partner:innen gegenüber war das Vertrauen größer. Sorge bereitete User:innen hier vor allem die Vorstellung, dass das Wissen um die PIN nach einer Trennung missbraucht werden könnte.

Es macht für die Anwender:innen außerdem einen Unterschied, in welchen Räumen die Assistent:innen stehen. Während das Schlafzimmer allgemein als privater Raum gilt, in dem der Schutz bei der Authentifizierung geringer ausfallen darf, weil dort keine Mithörer:innen erwartet werden, muss zum Beispiel im Wohnzimmer der Schutz nach Meinung vieler Studien-Teilnehmer:innen deutlich stärker ausfallen. „Es gab auch Anzeichen, dass es Unterschiede je nach Wohnsituation gibt. So wiesen Aussagen daraufhin, dass Städter oft das Gefühl haben, dass immer jemand mithören kann, während Landbewohner sich darum nicht sorgen. Die Geräte und ihre Sicherheitsmechanismen sollten deshalb aus Nutzer:innenperspektive auf die jeweilige Situation angepasst werden können. Ein “diskreter Modus“ oder die Fähigkeit der Geräte zu erkennen, wo und in welchem Kontext sie verwendet werden, könnte es User:innen künftig erlauben, sensible Dienste zu nutzen, ohne große Aufmerksamkeit auf sich zu ziehen. „Das bringt allerdings neue Datenschutz-Herausforderungen mit sich“, sagt Ponticello. Die Sorge, dass die Unternehmen hinter den Sprachassistent:innen die geteilten Daten weitergeben könnten, treibt dabei schon jetzt fast alle Teilnehmer:innen um.

Dass die bequemste Lösung oft nicht die sicherste ist, ist den meisten Teilnehmer:innen bewusst und sie nehmen diesen Tausch in Kauf. Für sie geht die Nutzung von Sprachassistent:innen mit einem Lebensgefühl einher. „Es geht nicht nur um die reine Funktionalität. Vielmehr wird mit den Geräten Unbeschwertheit und ein gewisses Nebenbei assoziiert.“ Viele Nutzer:innen empfinden die digitalen Helfer als eine Art Butler und schreiben ihnen fast schon menschliche Züge zu. Sicherheitsmechanismen für solche Plattformen dürfen dieses Gefühl nicht zerstören. „Das ist aus Sicherheitsperspektive eine wirklich harte Beschränkung“, erklärt Ponticello. Security-Mechanismen anderer Plattformen einfach auf diese Systeme zu übertragen, sei aus diesem Grund nicht möglich. Nur, wenn Nutzer:innen diese verstehen und akzeptieren, können die Mechanismen ihren Zweck erfüllen. „Sonst sind Anwendungsfehler vorprogrammiert.“

Vertrauen in Anwendungen und Dienste baut sich normalerweise über Zeit auf. Da Sprachassistent:innen noch nicht so lange auf dem Markt sind, sind viele Nutzer:innen noch skeptisch. „Es gibt aber viele wichtige und sinnvolle Anwendungsfelder für die Dienste. So können die Sprachassistent:innen zum Beispiel Blinden und Sehbehinderten, oder auch alten Menschen deutlich das Leben erleichtern“, sagt Ponticello. „Deshalb lohnt es sich unbedingt, hier weiter zu forschen und die Geräte für solche Anwendungen sicher zu machen.“