Ιδρυματικό Αποθετήριο [SANDBOX]
Πολυτεχνείο Κρήτης
EN  |  EL

Αναζήτηση

Πλοήγηση

Ο Χώρος μου

Υπερπαραμετροποιημένα νευρωνικά δίκτυα βαθείας μάθησης: Ιδιότητες σύγκλισης και γενίκευσης

Polyzos Christos

Απλή Εγγραφή


URIhttp://purl.tuc.gr/dl/dias/71452342-B134-4FF8-B2B5-06849C9E9FB4-
Αναγνωριστικόhttps://doi.org/10.26233/heallink.tuc.97293-
Γλώσσαen-
Μέγεθος4.5 megabytesen
Μέγεθος61 pagesen
ΤίτλοςOverparametrized deep neural networks: Convergence and generalization properties en
ΤίτλοςΥπερπαραμετροποιημένα νευρωνικά δίκτυα βαθείας μάθησης: Ιδιότητες σύγκλισης και γενίκευσηςel
ΔημιουργόςPolyzos Christosen
ΔημιουργόςΠολυζος Χρηστοςel
Συντελεστής [Επιβλέπων Καθηγητής]Liavas Athanasiosen
Συντελεστής [Επιβλέπων Καθηγητής]Λιαβας Αθανασιοςel
Συντελεστής [Μέλος Εξεταστικής Επιτροπής]Karystinos Georgiosen
Συντελεστής [Μέλος Εξεταστικής Επιτροπής]Καρυστινος Γεωργιοςel
Συντελεστής [Μέλος Εξεταστικής Επιτροπής]Zervakis Michailen
Συντελεστής [Μέλος Εξεταστικής Επιτροπής]Ζερβακης Μιχαηλel
ΕκδότηςΠολυτεχνείο Κρήτηςel
ΕκδότηςTechnical University of Creteen
Ακαδημαϊκή ΜονάδαTechnical University of Crete::School of Electrical and Computer Engineeringen
Ακαδημαϊκή ΜονάδαΠολυτεχνείο Κρήτης::Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστώνel
ΠερίληψηIn this thesis, we consider deep neural networks for Machine Learning. We depict neural networks as weighted directed graphs and we represent them as parametric functions that receive an input and compute an output, or prediction, given some fixed parameters, the weights and the biases. The quintessence of a neural network is the feed-forward model, in which the underlying graph does not contain cycles (acyclic graph) and the parametric function is defined in a compositional, or hierarchical, way. Throughout our presentation, we focus on a supervised learning setting, where our neural network model, or learner, has access to a training set that contains examples of how pairs of input-output data are related. In other words, supervised learning amounts to learning from examples. Given a training set, depending whether the outputs have real or categorical values, we consider regression and logistic regression. For each setting, we provide the basic statistical framework and construct a loss function known as the empirical risk. We train our neural network by minimizing the empirical risk w.r.t. its parameters by using gradient-based optimization methods. The gradient of the loss function is computed via the back-propagation algorithm. We showcase the convergence and generalization properties of different algorithms (deep neural network models and optimization methods) using real-world data.en
ΤύποςΔιπλωματική Εργασίαel
ΤύποςDiploma Worken
Άδεια Χρήσηςhttp://creativecommons.org/licenses/by/4.0/en
Ημερομηνία2023-09-05-
Ημερομηνία Δημοσίευσης2023-
Θεματική ΚατηγορίαOverparameterizationen
Θεματική ΚατηγορίαMachine learningen
Θεματική ΚατηγορίαGeneralizationen
Θεματική ΚατηγορίαDeep neural networksen
Θεματική ΚατηγορίαDeep learningen
Θεματική ΚατηγορίαConvergenceen
Βιβλιογραφική ΑναφοράChristos Polyzos, "Overparametrized deep neural networks: Convergence and generalization properties", Diploma Work, School of Electrical and Computer Engineering, Technical University of Crete, Chania, Greece, 2023en
Βιβλιογραφική ΑναφοράΧρήστος Πολύζος, "Υπερπαραμετροποιημένα νευρωνικά δίκτυα βαθείας μάθησης: Ιδιότητες σύγκλισης και γενίκευσης", Διπλωματική Εργασία, Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών, Πολυτεχνείο Κρήτης, Χανιά, Ελλάς, 2023el

Διαθέσιμα αρχεία

Υπηρεσίες

Στατιστικά