dc.contributor.advisor | Erdem, Mehmet Erkut | tr_TR |
dc.contributor.author | Erdoğan, Hasan Tuğrul | tr_TR |
dc.date.accessioned | 2015-10-15T08:42:08Z | |
dc.date.available | 2015-10-15T08:42:08Z | |
dc.date.issued | 2015 | tr_TR |
dc.identifier.uri | http://hdl.handle.net/11655/2600 | |
dc.description.abstract | Bu tezde, modelsiz takibe ilişkin yeni bir yaklaşım sunmaktayız. Öne sürülen görsel nesne takibi çalışması, seyrek kodlama tabanlı ayırt etme odaklı nesne takibi ile çoklu öznitelikleri dinamik bir şemayla birleştirme yöntemlerini kaynaştırmaktadır. Özellikle, modelimiz her bir özniteliği, çalışma sırasında o anki görsel içeriğe göre belirlediği güvenilirlikleri oranında birleştirmektedir. Bu güvenilirlik oranları, seyrek kodlama temelli yapı içindeki her bir özniteliğin, tek başına ortak izleme sonucuna ne ölçüde katkıda bulunduğunu belirlemek için kullanılmaktadır. Sonuç olarak; hedefin bir kısmının görülmediği, pozlama ve görünüş değişikliklerinin olduğu durumları ele alırken daha başarılı sonuçlar elde etmekteyiz. Öne sürülen algoritmanın performansını ve etkinliğini kanıtlamak için birtakım zorlayıcı video kümeleri üzerinde sayısal ve görsel sonuçları sunmaktayız. | tr_TR |
dc.language.iso | en | tr_TR |
dc.publisher | Fen Bilimleri Enstitüsü | tr_TR |
dc.subject | Visual object tracking | tr_TR |
dc.title | Sparsity-Based Discriminative Tracking with Adaptive Cue Integration | tr_TR |
dc.type | info:eu-repo/semantics/masterThesis | tr_TR |
dc.callno | 2015/2275 | tr_TR |
dc.contributor.departmentold | Bilgisayar Mühendisliği | tr_TR |
dc.description.ozet | In this thesis, we present a new approach for model-free tracking.The proposed tracker combines the sparsity-based discriminativeclassifier with an adaptive scheme for multiplecue integration. In particular, our model associates visual cueswith some reliability scores, which are dynamically adjustedat each frame during tracking with respect to the current temporaland visual context. These reliability scores are used todetermine the contribution of each cue within the sparsitybasedframework in the estimation of the joint tracking result.As a consequence, we achieve better tracking accuraciesin handling partial occlusions, pose and appearance changes.To demonstrate the performance and the effectiveness of theproposed algorithm, we present qualitative and quantitativeresults on a number of challenging video sequences. | tr_TR |