E-mail senden E-Mail Adresse kopieren

2023-07-21
Annabelle Theobald

Das CISPA ist mit acht Papern auf der ICML vertreten

Die ICML, kurz für International Conference on Machine Learning, ist eine der Top-Konferenzen im Bereich des maschinellen Lernens weltweit. Viele CISPA-Forschende haben mit ihren Forschungsarbeiten die Fachjury überzeugt und präsentieren sie vom 23. bis 29. Juli in Hawaii.

Welche Schwachstellen Machine-Learning-Modelle haben, welche neuen Arten von Datenvergiftungsattacken es gibt, oder welche rechtlichen Fragen sich in Bezug auf eigenschöpferische künstliche Intelligenz ergeben: Diese Themen sind nur ein sehr kleiner Ausschnitt dessen, was ab dem 23. Juli Forschende aus der ganzen Welt auf der ICML, die dieses Jahr im sonnigen Hawaii stattfindet, diskutieren werden.

Neben Poster-Sessions und Paper-Präsentationen ziehen auch viele Fachworkshops die internationale Forschungscommunity nach Hawaii. Einer davon ist der „2nd Workshop on Formal Verification of Machine Learning“, an dessen Organisation Partner:innen des EU geförderten virtuellen Exzellenznetzwerkes ELSA – European Lighthouse on Secure and Safe AI beteiligt sind. ELSA wird von CISPA-Faculty Prof. Dr. Mario Fritz koordiniert und lobt in diesem Jahr die „Outstanding Paper Awards“ aus, mit denen regelmäßig die beeindruckendsten aller eingereichten Arbeiten ausgezeichnet werden.

Die auf der ICML angenommenen Paper, an denen CISPA-Forschende beteiligt sind, sind:

  • “Why Random Pruning Is All We Need to Start Sparse” von Advait Gadhikar, Sohom Mukherjee, Rebekka Burkholz
     
  • “On the Relationship Between Explanation and Prediction: A Causal View, Amir-Hossein Karimi” von Krikamol Muandet, Simon Kornblith, Bernhard Schölkopf, Been Kim
     
  • “Nonlinear Causal Discovery with Latent Confounders” von David Kaltenpoth, Jilles Vreeken
     
  • “Generated Graph Detection” von Yihan Ma, Zhikun Zhang, Ning Yu, Xinlei He, Michael Backes, Yun Shen, Yang Zhang
     
  • “Data Poisoning Attacks Against Multimodal Encoders” von Ziqing Yang, Xinlei He, Zheng Li, Michael Backes, Mathias Humbert, Pascal Berrang, Yang Zhang
     
  • “Special Properties of Gradient Descent with Large Learning Rates” von Amirkeivan Mohtashami, Martin Jaggi, Sebastian Stich
     
  • “Revisiting Gradient Clipping: Stochastic bias and tight convergence guarantees” von Anastasiia Koloskova, Hadrien Hendrikx, Sebastian Stich
     
  • “Conformal Prediction Sets for Graph Neural Networks” von Soroush H. Zargarbashi, Simone Antonelli, Aleksandar Bojchevski