In classical nonlinear optimization, the existence of derivatives of the objective function $f$ is essential, for the theory (just think of the necessary optimality condition $\nabla f(x) = 0$), as well as for algorithms such as the gradient method. But what to do, if $f$ is not differentiable?
This lecture provides an introduction into this subject, from the analysis to optimization algorithms and their implementation. Key words are: convex subdifferential, subgradient method, bundle method, Moreau-Yosida regularization, proximal point methods, semi-smooth Newton method.
Link zum Modulhandbuch Mathematik
Die Vorlesung wird in Englisch gehalten. Es gibt ein englischsprachiges Skript.
Benotete Modulprüfung. Als Zulassungsvoraussetzung ist folgende Studienleistung zu erbringen: Regelmäßige erfolgreiche Bearbeitung der Übungsaufgaben und aktive Teilnahme an den Übungen. Details werden durch die jeweilige Dozentin / den jeweiligen Dozenten in der Veranstaltungsankündigung bekannt gemacht. Das Modul kann in den konsekutiven Bachelor-/Masterstudiengängen Mathematik Technomathematik und Wirtschaftsmathematik nicht zusammen mit MAT-713 eingebracht werden.