Stuhlsatzenhaus 5
66123 Saarbrücken (Germany)
Rebekka Burkholz ist seit September 2021 als tenure-track Fakultätsmitglied am Helmholtzzentrum CISPA für Informationssicherheit in Saarbrücken tätig, wo sie die Gruppe für netzwerkbasiertes maschinelles Lernen leitet. Das Ziel ihrer Gruppe ist, unser theoretisches Verständnis tiefer neuronaler Netze zu vertiefen und Algorithmen in diesem Bereich auf Grundlage der gewonnenen Einsichten zu verbessern und robuster und zu gestalten. Die Methoden, die ihre Gruppe entwickelt, sind oftmals inspiriert von biologischen Anwendungen, insbesondere in der Molekularbiologie und Genetik.
Von 2019-2021 hat Rebekka Burkholz als PostDoc am Department für Biostatistik an der Harvard T.H. Chan School of Public Health in der Gruppe von John Quackenbush geforscht. Zuvor war sie als PostDoc und Doktorandin an der ETH Zürich. Von 2017-2018 war sie am Institut für Maschinelles Lernen in der Gruppe von Joachim Buhmann und von 2013-2017 am Lehrstuhl für Systemdesign von Frank Schweitzer. 2016 hat sie am ETH Risk Center promoviert und mit ihrer Arbeit über systemisches Risiko den Zurich Dissertationspreis gewonnen. Zudem hat sie CSF Best Contribution Award für ihre Arbeit bezüglich systemischen Risikos im internationalen Nahrungsmittelhandel erhalten. Zuvor studierte sie Mathematik und Physik an der TU Darmstadt und für ein Jahr an der Lund Universität in Schweden.
Genome Biology
Nucleic Acids Research
NeurIPS
Thirty-sixth Conference on Neural Information Processing SystemsNeurIPS 2022
ICML
Proceedings of the 39th International Conference on Machine LearningInternational Conference on Machine Learning (ICML)
ICLR
International Conference on Learning RepresentationsThe Tenth International Conference on Learning Representations
ICLR
International Conference on Learning RepresentationsThe Tenth International Conference on Learning Representations
Nature Methods
Pruning deep neural networks for lottery tickets
Deep learning has achieved major breakthroughs in a variety of tasks. Yet, it comes at a considerable computational cost, which is exaggerated by the recent trend towards ever wider and deeper neural network architectures. Instead, many problems can be solved with the help of extremely sparse neural network architectures but finding and training them is a non-trivial task. According to the recent lottery ticket hypothesis, such sparse architectures can be identified by pruning large randomly initialized neural networks. In this seminar, we will present recent algorithmic advancements in this direction, gain theoretical insights into the existence of lottery tickets, identify open problems, and discuss common challenges in the quest for winning lottery tickets.
In this seminar, students will learn to present, discuss, and summarize papers related to the lottery ticket hypothesis. Specifically, each student will get a single topic assigned to them, consisting of two papers (a lead and follow-up paper). Each student will
In addition to your review you will have to submit 3 questions that you will ask the presenter of the paper.
Presentation: (40%). You will prepare and deliver a 30 min presentation (followed by 15 mins question/discussion) of the paper assigned to you. You will have the possibility to get feedback on your slides before the presentation.