dc.contributor.advisor | Erkent, Özgür | |
dc.contributor.author | Özer, Yekta Olgun | |
dc.date.accessioned | 2024-10-07T12:42:36Z | |
dc.date.issued | 2024-04-29 | |
dc.date.submitted | 2024-04-02 | |
dc.identifier.uri | https://hdl.handle.net/11655/35877 | |
dc.description.abstract | Classical machine learning paradigms typically centralize all data on a single server for training, which can lead to problems such as data confidentiality, storage costs, and bandwidth requirements for data transfer. To address these challenges, Federated Learning has emerged. Although Federated Learning mitigates these issues, it also introduces its own set of drawbacks. In traditional machine learning approaches, data is preprocessed before model training to ensure that the resulting model yields reliable and consistent outcomes. However, in Federated Learning, direct access to input data is unavailable, which hinders successful model training and results in comparatively lower accuracy than traditional methods, particularly for inputs with inherent noise.
This thesis proposes a new method for computing loss, called 'Uncertainty Loss Calculation for Federate Learning.' The method was originally proposed for multi-task learning and has been presented theoretically, but it lacks empirical validation. The computation method integrates both regression and classification learning methodologies. In this study, the equation is deconstructed into two parts, allowing for the independent construction, training, and testing of two distinct models.
To assess the effectiveness of this new approach, we conducted computational comparisons using Mean Squared Error for Regression and Cross Entropy Loss for Classification. Based on these results, our study aims to determine if the method presented in prior literature has a practical applicatio | tr_TR |
dc.language.iso | en | tr_TR |
dc.publisher | Fen Bilimleri Enstitüsü | tr_TR |
dc.rights | info:eu-repo/semantics/openAccess | tr_TR |
dc.subject | Federated Learning | tr_TR |
dc.subject | Uncertainty Calculation | tr_TR |
dc.subject | Multi-task Learning | tr_TR |
dc.subject | Deep Learning | tr_TR |
dc.subject | Noisy Input Data | tr_TR |
dc.subject | Regression Model | tr_TR |
dc.subject | Classification Model | tr_TR |
dc.subject.lcsh | Bilgisayar mühendisliği | tr_TR |
dc.title | Federated Learning With Uncertainty For Different Tasks | tr_TR |
dc.type | info:eu-repo/semantics/masterThesis | tr_TR |
dc.description.ozet | Klasik makine öğrenimi paradigmaları tipik olarak tüm verileri eğitim için tek bir sunucuda merkezileştirir, bu da veri gizliliği, depolama maliyetleri ve veri aktarımı için bant genişliği gereksinimleri gibi sorunlara yol açabilir. Bu zorlukların üstesinden gelmek için Federe Öğrenme ortaya çıkmıştır. Federe Öğrenme bu sorunları hafifletse de kendi dezavantajlarını da beraberinde getirmektedir. Geleneksel makine öğrenimi yaklaşımlarında, ortaya çıkan modelin güvenilir ve tutarlı sonuçlar vermesini sağlamak için model eğitiminden önce veriler önceden işlenir. Ancak Federe Öğrenmede, girdi verilerine doğrudan erişim mevcut değildir, bu da başarılı model eğitimini engeller ve özellikle doğal gürültü içeren girdiler için geleneksel yöntemlere göre nispeten daha düşük doğrulukla sonuçlanır.
Bu tez, kaybı hesaplamak için 'Belirsizlik Kaybı Hesaplaması' adı verilen yeni bir yöntem önermektedir. Yöntem ilk olarak çok görevli öğrenme için önerilmiş ve teorik olarak sunulmuştur, ancak ampirik doğrulamadan yoksundur. Hesaplama yöntemi hem regresyon hem de sınıflandırma öğrenme metodolojilerini entegre etmektedir. Bu çalışmada denklem iki parçaya ayrılarak iki farklı modelin bağımsız olarak oluşturulmasına, eğitilmesine ve test edilmesine olanak sağlanmıştır.
Bu yeni yaklaşımın etkinliğini değerlendirmek için Regresyon için Ortalama Kare Hata ve Sınıflandırma için Çapraz Entropi Kaybı kullanılarak hesaplamalı karşılaştırmalar yaptık. Bu sonuçlara dayanarak, çalışmamız önceki literatürde sunulan yöntemin pratik bir uygulamaya sahip olup olmadığını belirlemeyi amaçlamaktadır. | tr_TR |
dc.contributor.department | Bilgisayar Mühendisliği | tr_TR |
dc.embargo.terms | Acik erisim | tr_TR |
dc.embargo.lift | 2024-10-07T12:42:36Z | |
dc.funding | Yok | tr_TR |
dc.subtype | software | tr_TR |