Show simple item record

dc.contributor.advisorYalım Keleş, Hacer
dc.contributor.authorYılmaz, Eda
dc.date.accessioned2024-10-18T06:39:02Z
dc.date.issued2024
dc.date.submitted2024-05-31
dc.identifier.urihttps://hdl.handle.net/11655/35991
dc.description.abstractKnowledge Distillation (KD) allows a complex teacher network to pass on its skills to a simpler student network, improving the student's accuracy. However, KD can also be used in model theft, where adversaries try to copy the teacher network's performance. Influenced by the "Stingy Teacher" model, recent research has shown that sparse outputs can greatly reduce the student model's effectiveness and prevent model theft. This work, using the CIFAR10, CIFAR100, and Tiny-Imagenet datasets, presents a way to train a teacher that protects its outputs, inspired by the "Nasty Teacher" concept, to prevent intellectual property theft. To enhance the teacher's defenses, this method mixes sparse outputs from adversarial images with original training data. Additionaly, a new loss function, the Exponential Predictive Divergence (EPD) loss, is introduced to hide the model's outputs without reducing accuracy. This method effectively reduces the EPD loss between the model's responses to adversarial and clean images, allowing the creation of adversarial logits without harming the network's performance.tr_TR
dc.language.isoentr_TR
dc.publisherFen Bilimleri Enstitüsütr_TR
dc.rightsinfo:eu-repo/semantics/openAccesstr_TR
dc.subjectKnowledge distillationtr_TR
dc.subjectAdversarial examplestr_TR
dc.subjectModel stealing attackstr_TR
dc.titleDefending Against Distillation-Based Model Stealing Attackstr_TR
dc.typeinfo:eu-repo/semantics/masterThesistr_TR
dc.description.ozetBilgi Damıtma (BD), karmaşık bir öğretmen ağından basit bir öğrenci ağına temel becerilerin aktarılmasını sağlayarak daha yüksek doğruluk sağlar. Ayrıca, BD, düşmancıl çalma saldırıları aracılığıyla öğretmen ağının işlevselliğinin kopyalanmasının hedeflendiği model hırsızlığı senaryolarında kullanılır. Stingy Teacher modelinden etkilenen son araştırmalar, seyrek çıktıların öğrenci model etkinliğini önemli ölçüde azaltabileceğini ortaya koymuştur. Bu çalışma, öğretmenin çıktılarını koruyan ve entelektüel mülkiyet hırsızlığı riskini azaltan Nasty Teacher konseptinden esinlenerek, CIFAR10, CIFAR100 ve Tiny-Imagenet verisetleri kullanarak, bir öğretmen model eğitme tekniği sunmaktadır. Öğretmenin öğrencilere karşı savunmalarını güçlendirmek için, bu strateji düşmancıl örneklerin seyrek çıkrıları ile orijinal eğitim verilerini benzersiz bir şekilde birleştirir. Yeni bir kayıp fonksiyonu olan Exponential Predictive Divergence (EPD), bu yaklaşımda modelin çıktılarını manipüle etmek için kullanılır ve uygulanırken doğruluğu azaltmaz. Bu strateji, modelin düşmancıl ve orijinal görüntülere verdiği yanıtlar arasındaki EPD kayıp fonksiyonunu etkin bir şekilde azaltarak, ağın performansı üzerinde neredeyse hiç negatif etkisi olmadan düşmacıl çıktıların üretilmesini sağlar.tr_TR
dc.contributor.departmentBilgisayar Mühendisliğitr_TR
dc.embargo.termsAcik erisimtr_TR
dc.embargo.lift2024-10-18T06:39:03Z
dc.fundingYoktr_TR


Files in this item

This item appears in the following Collection(s)

Show simple item record