dc.contributor.advisor | Erdem , Aykut | |
dc.contributor.advisor | Erdem , Erkut | |
dc.contributor.author | Kavak , Yasin | |
dc.date.accessioned | 2017-10-30T07:03:45Z | |
dc.date.available | 2017-10-30T07:03:45Z | |
dc.date.issued | 2018-09-26 | |
dc.date.submitted | 2017-09-26 | |
dc.identifier.citation | Hacettepe Üniversitesi Fen Bilimleri Enstitüsü tez yazım klavuzu atıf formatı | tr_TR |
dc.identifier.uri | http://hdl.handle.net/11655/4033 | |
dc.description.abstract | The ultimate aim in visual saliency estimation is to mimic human visual system in predicting image regions which grab our attention. In the literature, many different features and models have been proposed, but still one of the key questions is how different features contribute to saliency. In this study, we try to get a better understanding of the integration of visual features to build more effective saliency models. Towards this goal, we investigated several machine learning techniques and analyze their saliency estimation performance in static and dynamic scenes. First, multiple kernel learning is employed in static saliency estimation, which provides an intermediate level fusion of features. Second, a thorough analysis is carried out for saliency estimation in dynamic scenes. Lastly, we proposed a fully unsupervised adaptive feature integration scheme for dynamic saliency estimation, which gives superior results compared to the approaches that use fixed set of parameters in fusion stage. Since the existing methods in the literature are far behind in accomplishing human level saliency estimation, we believe that our approaches provide new insights in this challenging problem. | tr_TR |
dc.description.tableofcontents | 1. Introduction
2. Background
3. Learning Visual Saliency in Static Scenes
4. Learning Visual Saliency in Dynamic Scenes
5. Adaptive Feature Integration for Dynamic Saliency
6. Conclusion | tr_TR |
dc.language.iso | en | tr_TR |
dc.publisher | Fen Bilimleri Enstitüsü | tr_TR |
dc.rights | info:eu-repo/semantics/openAccess | tr_TR |
dc.subject | Visual saliency | tr_TR |
dc.subject | Feature integration | |
dc.subject | Static saliency | |
dc.subject | Dynamic saliency | |
dc.title | Learning Visual Saliency For Static And Dynamic Scenes | tr_eng |
dc.type | info:eu-repo/semantics/doctoralThesis | tr_TR |
dc.description.ozet | Görsel belirginliğin nihai hedefi, görüntülerde dikkatimizi çeken bölgelerin tahmin edilmesinde insanların görsel sistemine benzer şekilde çalışabilmektir. Literatürde pek çok farklı model ve öznitelik kullanımı önerilmiş olsa da, farklı özniteliklerin belirginliğe olan bireysel katkılarının bulunabilmesi sorusu hala çözülmemiş anahtar sorulardan bir tanesidir. Bu çalışmada, görsel özniteliklerin birleştirilmesiyle daha etkili belirginlik modelleri kurulabilmesini daha iyi anlamaya çalıştık. Bu amaç kapsamında, farklı makine öğrenimi tekniklerini ve bu tekniklerin sabit ve hareketli sahnelerdeki belirginlik tahmini performanslarını detaylı olarak inceledik. İlk olarak, özniteliklerin orta seviyede birleştirilmesine olanak sağlayan çoklu çekirdek öğrenimi yöntemini sabit belirginlik tahmininde kullandık. İkinci aşamada, dinamik sahnelerde belirginlik tahmini üzerine detaylı bir analiz gerçekleştirdik. Son olarak, sabit parametrelere dayalı olarak birleştirme gerçekleştiren mevcut yöntemlere kıyasla üstün performans sağlayan ve tamamen denetimsiz öğrenim gerçekleştirebilen uyarlanabilir öznitelik birleştirme stratejisini dinamik sahnelerde belirginlik tahmini için önerdik. Literatürdeki mevcut yöntemlerin insanların görsel belirginlik seviyesine göre oldukça geride olduklarını düşünürsek, önerilen yöntemlerimizin bu zorlu problem hakkında yeni öngörüler sağlayacağına inanıyoruz. | tr_TR |
dc.contributor.department | Bilgisayar Mühendisliği | tr_TR |