Institutional Repository [SANDBOX]
Technical University of Crete
EN  |  EL

Search

Browse

My Space

Machine learning model hyperparameter fine-tuning in a Federated Learningenvironment

Valavanis Georgios

Simple record


URIhttp://purl.tuc.gr/dl/dias/6FA02C2C-0C13-469F-B004-8B0B53E50C35-
Identifierhttps://doi.org/10.26233/heallink.tuc.103573-
Languageen-
Extent78 pagesen
TitleMachine learning model hyperparameter fine-tuning in a Federated Learning environmenten
TitleΒελτιστοποίηση υπερπαραμέτρων μοντέλων μηχανικής μάθησης σε περιβάλλον Federated Learning el
CreatorValavanis Georgiosen
CreatorΒαλαβανης Γεωργιοςel
Contributor [Thesis Supervisor]Ioannidis Sotiriosen
Contributor [Thesis Supervisor]Ιωαννιδης Σωτηριοςel
Contributor [Committee Member]Lagoudakis Michailen
Contributor [Committee Member]Λαγουδακης Μιχαηλel
Contributor [Committee Member]Spyropoulos Thrasyvoulosen
Contributor [Committee Member]Σπυροπουλος Θρασυβουλοςel
PublisherΠολυτεχνείο Κρήτηςel
PublisherTechnical University of Creteen
Academic UnitTechnical University of Crete::School of Electrical and Computer Engineeringen
Academic UnitΠολυτεχνείο Κρήτης::Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστώνel
DescriptionThesis submitted by Georgios Valavanis in fulfillment of the requirements for the Diploma of Electrical and Computer Engineeringen
Content SummaryFederated Learning (FL) has emerged as a paradigm for training machine learning models on decentralized data while preserving privacy. Despite its advantages, the process of hyperparameter fine-tuning remains a critical challenge within FL settings, primarily due to data heterogeneity, communication constraints, and the need for secure collaboration. The present diploma addresses the problem of efficient and privacy-preserving hyperparameter fine-tuning in FL environments by providing a framework that utilizes federated hyperparameter fine-tuning. Here, clients collaboratively explore hyperparameter configurations using local data. Then, after the best hyperparameters are found from the predefined hyperparameter space, a series of secure aggregation rounds takes place at the server. Our system leverages stratified k-fold cross-validation on clients to evaluate hyperparameter combinations locally, encrypted communication to protect model updates, and weighted aggregation to harmonize global model performance. Various classifiers are supported, such as Stochastic Gradient Descent and Gaussian Naive Bayes, providing extended implementation capabilities. Additionally, to ensure data privacy, our framework provides symmetric and asymmetric encryption for the client-server communication. Experimental results demonstrate the efficacy of the approach in achieving similar F1 scores to the implemented non-federated approach while maintaining scalability and security. This work contributes a practical methodology for hyperparameter fine-tuning in FL, balancing performance and privacy.en
Content SummaryΤο Federated Learning (FL) έχει αναδειχθεί ως μια μέθοδος εκπαίδευσης Machine Learning (ML) μοντέλων σε αποκεντρωμένα δεδομένα, που διατηρεί την ιδιωτικότητα και την ασφάλεια. Ωστόσο, παρά τα πλεονεκτήματά του, το hyperparameter fine-tuning παραμένει μια κρίσιμη πρόκληση σε περιβάλλοντα FL λόγω της ετερογένειας των δεδομένων, των περιορισμών επικοινωνίας και της ανάγκης για ασφαλή συνεργασία. Σε αυτή τη διπλωματική εργασία θα αντιμετωπιστεί το πρόβλημα του αποδοτικού και ασφαλούς hyperparameter fine-tuning σε περιβάλλον FL. Προτείνεται ένα framework στο οποίο οι clients συνεργάζονται για να εξερευνήσουν συνδυασμούς υπερπαραμέτρων χρησιμοποιώντας τα τοπικά τους δεδομένα. Στη συνέχεια, αφού βρεθούν οι βέλτιστες υπερπαράμετροι, πραγματοποιείται μια σειρά από secure aggregation γύρους στο server. Οι clients αξιοποιούν το stratified k-fold cross validation για την τοπική αξιολόγηση των συνδυασμών υπερπαραμέτρων, την κρυπτογραφημένη επικοινωνία για την προστασία των updates του μοντέλου και το weighted aggregation για την δημιουργία του global model. Το υλοποιημένο framework υποστηρίζει διάφορους classifiers όπως Support Vector Machines και Gaussian Naive Bayes, προσφέροντας εκτεταμένες δυνατότητες. Επιπλέον, για να διασφαλιστεί η ιδιωτικότητα των δεδομένων, παρέχεται symmetric και asymmetric encryption στην επικοινωνία μεταξύ clients και server. Τα πειραματικά αποτελέσματα αποδεικνύουν την αποτελεσματικότητα αυτής της προσέγγισης στην επίτευξη παρόμοιων F1 scores με μια μη federated προσέγγιση, διατηρώντας παράλληλα την επεκτασιμότητα και την ασφάλεια. Η παρούσα εργασία συνεισφέρει μια πρακτική μεθοδολογία για το hyperparameter fine-tuning στο FL, εξισορροπώντας την απόδοση και την ιδιωτικότητα.el
Type of ItemΔιπλωματική Εργασίαel
Type of ItemDiploma Worken
Licensehttp://creativecommons.org/licenses/by/4.0/en
Date of Item2025-06-27-
Date of Publication2025-
SubjectMachine learningen
SubjectHyperparameter Fine-Tuning in Federated Learningen
SubjectHyperparameter Fine-Tuningen
SubjectFederated Learningen
Bibliographic CitationGeorgios Valavanis, "Machine learning model hyperparameter fine-tuning in a Federated Learning environment", Diploma Work, School of Electrical and Computer Engineering, Technical University of Crete, Chania, Greece, 2025en
Bibliographic CitationΓεώργιος Βαλαβάνης, "Βελτιστοποίηση υπερπαραμέτρων μοντέλων μηχανικής μάθησης σε περιβάλλον Federated Learning ", Διπλωματική Εργασία, Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών, Πολυτεχνείο Κρήτης, Χανιά, Ελλάς, 2025el

Available Files

Services

Statistics