Lehrinhalte
Statistische Theorie zu ein- und mehrschichtigen neuronalen Netzen (Approximations- und Konvergenzresultate), Anwendung neuronaler Netze in Regression und Klassifizierung, Vergleich verschiedener Aktivierungsfunktionen und Netzarchitekturen
Literatur
Györfi, Kohler, Krzyzak, Walk: A distribution-free theory of nonparametric regression; Goodfellow, Bengio, Courville: Deep Learning; Schmidt-Hieber: Nonparametric regression using deep neural networks with ReLU activation function; Kohler, Langer: On the rate of convergence of fully connected very deep neural network regression estimates
Voraussetzungen
empfohlen: Mathematische Statistik
Online-Angebote
moodle
Statistische Theorie zu ein- und mehrschichtigen neuronalen Netzen (Approximations- und Konvergenzresultate), Anwendung neuronaler Netze in Regression und Klassifizierung, Vergleich verschiedener Aktivierungsfunktionen und Netzarchitekturen
Literatur
Györfi, Kohler, Krzyzak, Walk: A distribution-free theory of nonparametric regression; Goodfellow, Bengio, Courville: Deep Learning; Schmidt-Hieber: Nonparametric regression using deep neural networks with ReLU activation function; Kohler, Langer: On the rate of convergence of fully connected very deep neural network regression estimates
Voraussetzungen
empfohlen: Mathematische Statistik
Online-Angebote
moodle
Semester: SoSe 2021