Auf dieser Seite finden Sie Informationen über Vorträge folgender Seminare:
Rhein-Main Kolloquium Stochastik: Gemeinsames Kolloquium der Arbeitsgruppen Stochastik TU Darmstadt / Gutenberg-Universität Mainz / Goethe-Universität Frankfurt
Stochastisches Kolloquium: Forschungsseminar des Schwerpunkts Stochastik
Oberseminar Stochastik: Forschungsseminar für Doktoranden und Masterstudenten
Oberseminar Stochastische Prozesse und Ihre Anwendungen: Das Oberseminar des FG Stochastik (Prof. Blath) findet regelmäßig statt. Es richtet sich an Bachelor- und MasterkandidatInnen und junge WissenschaftlerInnen der Arbeitsgruppe Stochastik.
Blockseminar in Riezlern im Haus Bergkranz: Infos zum Haus Bergkranz gibt es hier
Verweis auf weitere interessante Vorträge: außerhalb des Frankfurter Schwerpunkts Stochastik
Oberseminar Stochastische Prozesse und ihre Anwendung
Apr272026
16:00
Raum 903
Niklas Desheimer (Uni Twente): Some aspects of biologically plausible learning
Abstract: I will present two recent results on biologically plausible learning. First, I will talk about Hebbian learning, which is a key principle underlying learning in biological neural networks. We relate a Hebbian spike-timing-dependent plasticity rule to noisy gradient descent with respect to a non-convex loss function on the probability simplex. Despite the constant injection of noise and the non-convexity of the underlying optimization problem, one can rigorously prove that the considered Hebbian learning dynamic identifies the presynaptic neuron with the highest activity and that the convergence is exponentially fast in the number of iterations. After this I will present a result on Forward Gradient Descent (FGD). FGD has been proposed as a biologically plausible alternative to classical gradient descent methods, which only requires forward passes. We show that FGD with multiple samples can achieve the same minimax optimal rate as stochastic gradient descent. In particular, we prove that FGD adapts to low dimensional structure in the input data.