Basit öğe kaydını göster

dc.contributor.advisorErdem , Aykut
dc.contributor.advisorErdem , Erkut
dc.contributor.authorKavak , Yasin
dc.date.accessioned2017-10-30T07:03:45Z
dc.date.available2017-10-30T07:03:45Z
dc.date.issued2018-09-26
dc.date.submitted2017-09-26
dc.identifier.citationHacettepe Üniversitesi Fen Bilimleri Enstitüsü tez yazım klavuzu atıf formatıtr_TR
dc.identifier.urihttp://hdl.handle.net/11655/4033
dc.description.abstractThe ultimate aim in visual saliency estimation is to mimic human visual system in predicting image regions which grab our attention. In the literature, many different features and models have been proposed, but still one of the key questions is how different features contribute to saliency. In this study, we try to get a better understanding of the integration of visual features to build more effective saliency models. Towards this goal, we investigated several machine learning techniques and analyze their saliency estimation performance in static and dynamic scenes. First, multiple kernel learning is employed in static saliency estimation, which provides an intermediate level fusion of features. Second, a thorough analysis is carried out for saliency estimation in dynamic scenes. Lastly, we proposed a fully unsupervised adaptive feature integration scheme for dynamic saliency estimation, which gives superior results compared to the approaches that use fixed set of parameters in fusion stage. Since the existing methods in the literature are far behind in accomplishing human level saliency estimation, we believe that our approaches provide new insights in this challenging problem.tr_TR
dc.description.tableofcontents1. Introduction 2. Background 3. Learning Visual Saliency in Static Scenes 4. Learning Visual Saliency in Dynamic Scenes 5. Adaptive Feature Integration for Dynamic Saliency 6. Conclusiontr_TR
dc.language.isoentr_TR
dc.publisherFen Bilimleri Enstitüsütr_TR
dc.rightsinfo:eu-repo/semantics/openAccesstr_TR
dc.subjectVisual saliencytr_TR
dc.subjectFeature integration
dc.subjectStatic saliency
dc.subjectDynamic saliency
dc.titleLearning Visual Saliency For Static And Dynamic Scenestr_eng
dc.typeinfo:eu-repo/semantics/doctoralThesistr_TR
dc.description.ozetGörsel belirginliğin nihai hedefi, görüntülerde dikkatimizi çeken bölgelerin tahmin edilmesinde insanların görsel sistemine benzer şekilde çalışabilmektir. Literatürde pek çok farklı model ve öznitelik kullanımı önerilmiş olsa da, farklı özniteliklerin belirginliğe olan bireysel katkılarının bulunabilmesi sorusu hala çözülmemiş anahtar sorulardan bir tanesidir. Bu çalışmada, görsel özniteliklerin birleştirilmesiyle daha etkili belirginlik modelleri kurulabilmesini daha iyi anlamaya çalıştık. Bu amaç kapsamında, farklı makine öğrenimi tekniklerini ve bu tekniklerin sabit ve hareketli sahnelerdeki belirginlik tahmini performanslarını detaylı olarak inceledik. İlk olarak, özniteliklerin orta seviyede birleştirilmesine olanak sağlayan çoklu çekirdek öğrenimi yöntemini sabit belirginlik tahmininde kullandık. İkinci aşamada, dinamik sahnelerde belirginlik tahmini üzerine detaylı bir analiz gerçekleştirdik. Son olarak, sabit parametrelere dayalı olarak birleştirme gerçekleştiren mevcut yöntemlere kıyasla üstün performans sağlayan ve tamamen denetimsiz öğrenim gerçekleştirebilen uyarlanabilir öznitelik birleştirme stratejisini dinamik sahnelerde belirginlik tahmini için önerdik. Literatürdeki mevcut yöntemlerin insanların görsel belirginlik seviyesine göre oldukça geride olduklarını düşünürsek, önerilen yöntemlerimizin bu zorlu problem hakkında yeni öngörüler sağlayacağına inanıyoruz.tr_TR
dc.contributor.departmentBilgisayar Mühendisliğitr_TR


Bu öğenin dosyaları:

Bu öğe aşağıdaki koleksiyon(lar)da görünmektedir.

Basit öğe kaydını göster