E-mail senden
E-Mail Adresse kopieren
⬤
EN
DE
(current)
Back to previous menu level
Menu
Home
Forschung
Übersicht
Algorithmische Grundlagen und Kryptographie
Vertrauenswürdige Informationsverarbeitung
Verlässliche Sicherheitsgarantien
Erkennung und Vermeidung von Cyberangriffen
Sichere vernetzte und mobile Systeme
Empirische und verhaltensorientierte Sicherheit
Publikationen
Projekte und Kooperationen
Auszeichnungen
Über uns
Übersicht
Organisation
Die Medienseite des Direktors
Ausschreibungen/Veröffentlichungen
rechnungsstellung/xrechnung
Personen
Karriere
Übersicht
FAQ
Job Openings
News & Events
Übersicht
Podcast
zine
Glossar
Presse
Videos
No Coffee, No Research
Display
Technologietransfer
Übersicht
Startups und Entrepreneurship
Product Labs
Kontakt
Wissenstransfer
Übersicht
Cysec Lab
Cysec Lab News
Citizen Science
Kontakt
Home
Forschung
Publikationen
ModScan: Measuring Stereotypical Bias in Large Vision-Language Models from Vision and Language Modalities
2024-11-12
ModScan: Measuring Stereotypical Bias in Large Vision-Language Models from Vision and Language Modalities
Zusammenfassung
-
Tags
Vertrauenswürdige Informationsverarbeitung
Konferenzbeitrag
Conference on Empirical Methods in Natural Language Processing (EMNLP)
Veröffentlichungsdatum
2024-11-12
Letztes Änderungsdatum
2024-09-27
Autor:innen
Yukun Jiang
Yukun Li
Xinyue Shen
Yugeng Liu
Michael Backes
Yang Zhang