dc.contributor.advisor | Çetin, Meral | |
dc.contributor.author | Toka, Onur | |
dc.date.accessioned | 2017-02-01T11:52:35Z | |
dc.date.available | 2017-02-01T11:52:35Z | |
dc.date.issued | 2016-12 | |
dc.date.submitted | 2016-12-16 | |
dc.identifier.uri | http://hdl.handle.net/11655/3133 | |
dc.description.abstract | In this study, a robust loss function and binary boosting classification method are proposed.
The purpose of classification methods is to obtain classifier function with generalization ability, i.e., high prediction performance. Boosting methods as iteratively algorithms, which include a loss function and weak classifier, are a way of predicting class labels of given inputs. Loss function is the way of penalizing conditional risk in boosting algorithm. While most of loss functions only penalize the misclassification, some robust loss functions give penalties not only large negative (misclassification) margin but also large positive (accurate classification) margin in order to get more stable classifiers. Robust loss functions stand up to outliers and contaminated part in training data. Therefore, classifiers are the methods which display high prediction performance in testing part.
This study reports brief information about loss functions, robust loss functions and their properties. In addition, there is a correction to ensure statistical consistency on the algorithm of TangentBoost, one of the methods having all properties of robust loss functions. Finally, in order to get more stable classifiers, Gudermannian loss function, which gives more penalties for both small positive and small negative margin than Tangent loss function does, and GudermannianBoost as a corresponding binary classification boosting method are proposed. The advantages of GudermannianBoost method are discussed based on the applications of some spesific simulation scenarios and some real datasets. | tr_TR |
dc.description.sponsorship | Türkiye Bilimsel ve Teknolojik Araştırma Kurumu (TÜBİTAK) | tr_TR |
dc.description.tableofcontents | ÖZET i
ABSTRACT iii
TEŞEKKÜR v
İÇİNDEKİLER vi
ÇİZELGELER viii
ŞEKİLLER ix
SİMGELER VE KISALTMALAR xi
1. GİRİŞ 1
1.1. İstatistiksel Öğrenme 3
1.2. Ayrım Tabanlı Sınıflandırma Yöntemlerinde Bazı Sağlam Öneriler 4
2. KAYIP FONKSİYONU 9
2.1. Kayıp Fonksiyonu 9
2.2. Sınıflandırma Yöntemlerinde Kullanılan ve Önerilen Kayıplar 10
2.1.1. Sıfır-Bir, Ağırlıklı Sıfır-Bir Kayıp ve Düzleştirilmiş Sıfır Bir Kayıp 11
2.1.2. Karesel, Kesilmiş Karesel ve Uyarlanmış Karesel Kayıp 12
2.1.3. Hinge, Kesilmiş Hinge, Düzleştirilmiş Hinge ve Genelleştirilmiş Düzleştirilmiş Hinge Kaybı 13
2.1.4. Lojistik, Kesilmiş Lojistik Kayıp 16
2.1.5. Üstel Kayıp 17
2.1.6. 2-Düzeyli Yapay Sinir Ağları Kaybı 17
2.1.7. Psi(Ψ) Kaybı 18
2.1.8. Sigmoid Kayıp 18
2.1.9. Huber ve Uyarlanmış Huber Kaybı 19
2.1.10. Savage Kayıp ve Tanjant Kayıp 20
3. BOOSTING YÖNTEMLERDE SAĞLAM KAYIP FONKSİYONU 21
3.1. Boosting 21
3.2. Boosting Yöntemlerde Sağlam Kayıp Fonksiyonlar ve Özellikleri 22
3.3. Sağlam Kayıp Fonksiyon Özellikleri 23
3.4. Tanjant Kayıp Fonksiyonu 24
3.5. Öneri: Gudermannian Kayıp Fonksiyonu 26
3.6. Gudermannian Kayıp Fonksiyon Özellikleri 30
3.7. TanjantBoost Algoritmasında Bir Düzeltme 32
3.8. GudermannianBoost Yöntemi 37
4. UYGULAMA 43
4.1. TanjantBoost ve GudermannianBoost Benzetim Çalışması 43
4.2. Çeşitli Boosting Yöntemlerde Öğrenme ve Test Kümeleri Doğru Sınıflandırma Oranı Karşılaştırması 52
5. SONUÇ ve TARTIŞMA 59
KAYNAKLAR 61
ÖZGEÇMİŞ 66 | tr_TR |
dc.language.iso | tur | tr_TR |
dc.publisher | Fen Bilimleri Enstitüsü | tr_TR |
dc.rights | info:eu-repo/semantics/openAccess | tr_TR |
dc.title | Gudermannian Kayıp Fonksiyonu ve GudermannianBoost İkili Sınıflandırma Yöntemi | tr_TR |
dc.type | info:eu-repo/semantics/doctoralThesis | tr_TR |
dc.description.ozet | Bu çalışmada bir sağlam kayıp fonksiyonu ve ilgili kayıp fonksiyonu üzerinden ikili boosting sınıflandırma yöntemi önerilmiştir.
Sınıflandırma yöntemlerinin amacı genelleştirme becerisine sahip iyi sınıflandırıcı elde etmektir. Boosting yöntemler kayıp fonksiyon ve basit sınıflandırıcılardan oluşur. İteratif algoritmalar olarak girdilere göre sınıf etiketlerini tahmin eder. Kayıp fonksiyonlar boosting algoritmalarda koşullu riski minimize eder. Birçok kayıp fonksiyon sadece yanlış sınıflandırmaya ceza verirken sağlam (robust) kayıp fonksiyonlar sadece yanlış sınıflandırmaya değil aynı zamanda doğru sınıflandırmaya da ceza vererek daha kararlı sınıflandırıcı elde eder. Sağlam kayıp fonksiyonlar, öğrenme verisindeki aykırı değerlere ve bozulmaların olduğu yapıya karşı dayanıklıdır. Bu yüzden, test kümesinde yüksek performansla çalışan yöntemlerdir.
Çalışma, kayıp fonksiyonlar, sağlam kayıp fonksiyonlar ve özellikleri hakkında özet bilgiler içermektedir. Sağlam kayıp fonksiyon özelliklerine sahip olan TanjantBoost algoritması verilmiş, istatistiksel tutarlılık için algoritmada bir düzeltme yapılmıştır. Son olarak, TanjantBoost yönteminin sınıflandırıcıya yakın gözlemler üzerindeki etkisini başarılı hale getirmek için daha büyük ceza veren kayıp fonksiyon incelemesi yapılmış ve Gudermannian kayıp fonksiyonu ile boosting algoritması olan GudermannianBoost ikili sınıflandırma yöntemi önerilmiştir. GudermannianBoost yönteminin etkin olduğu durumlar farklı benzetim senaryoları ve bazı gerçek veri kümeleri üzerinden tartışılmıştır. | tr_TR |
dc.contributor.department | İstatistik | tr_TR |
dc.contributor.authorID | TR169007 | tr_TR |