Vorträge Stochastik und Finanzmathematik

Studierende und Gäste sind herzlich eingeladen!

Auf dieser Seite finden Sie Informationen über Vorträge folgender Seminare:

  • Rhein-Main Kolloquium Stochastik: Gemeinsames Kolloquium der Arbeitsgruppen Stochastik TU Darmstadt / Gutenberg-Universität Mainz / Goethe-Universität Frankfurt
  • Stochastisches Kolloquium: Forschungsseminar des Schwerpunkts Stochastik
  • Oberseminar Stochastik: Forschungsseminar für Doktoranden und Masterstudenten
  • Oberseminar Stochastische Prozesse und Ihre Anwendungen: Das Oberseminar des FG Stochastik (Prof. Blath) findet regelmäßig statt. Es richtet sich an Bachelor- und MasterkandidatInnen und junge WissenschaftlerInnen der Arbeitsgruppe Stochastik.
  • Blockseminar in Riezlern im Haus Bergkranz: Infos zum Haus Bergkranz gibt es hier
  • Verweis auf weitere interessante Vorträge: außerhalb des Frankfurter Schwerpunkts Stochastik

Vorträge in chronologischer Reihenfolge


Oberseminar Stochastische Prozesse und ihre Anwendung

Apr 27 2026
16:00

Raum 903

Niklas Desheimer (Uni Twente): Some aspects of biologically plausible learning

Abstract: I will present two recent results on biologically plausible learning. First, I will talk about Hebbian learning, which is a key principle underlying learning in biological neural networks. We relate a Hebbian spike-timing-dependent plasticity rule to noisy gradient descent with respect to a non-convex loss function on the probability simplex. Despite the constant injection of noise and the non-convexity of the underlying optimization problem, one can rigorously prove that the considered Hebbian learning dynamic identifies the presynaptic neuron with the highest activity and that the convergence is exponentially fast in the number of iterations. After this I will present a result on Forward Gradient Descent (FGD). FGD has been proposed as a biologically plausible alternative to classical gradient descent methods, which only requires forward passes. We show that FGD with multiple samples can achieve the same minimax optimal rate as stochastic gradient descent. In particular, we prove that FGD adapts to low dimensional structure in the input data.