Show simple item record

dc.contributor.advisorErdem, Mehmet Erkuttr_TR
dc.contributor.authorErdoğan, Hasan Tuğrultr_TR
dc.date.accessioned2015-10-15T08:42:08Z
dc.date.available2015-10-15T08:42:08Z
dc.date.issued2015tr_TR
dc.identifier.urihttp://hdl.handle.net/11655/2600
dc.description.abstractBu tezde, modelsiz takibe ilişkin yeni bir yaklaşım sunmaktayız. Öne sürülen görsel nesne takibi çalışması, seyrek kodlama tabanlı ayırt etme odaklı nesne takibi ile çoklu öznitelikleri dinamik bir şemayla birleştirme yöntemlerini kaynaştırmaktadır. Özellikle, modelimiz her bir özniteliği, çalışma sırasında o anki görsel içeriğe göre belirlediği güvenilirlikleri oranında birleştirmektedir. Bu güvenilirlik oranları, seyrek kodlama temelli yapı içindeki her bir özniteliğin, tek başına ortak izleme sonucuna ne ölçüde katkıda bulunduğunu belirlemek için kullanılmaktadır. Sonuç olarak; hedefin bir kısmının görülmediği, pozlama ve görünüş değişikliklerinin olduğu durumları ele alırken daha başarılı sonuçlar elde etmekteyiz. Öne sürülen algoritmanın performansını ve etkinliğini kanıtlamak için birtakım zorlayıcı video kümeleri üzerinde sayısal ve görsel sonuçları sunmaktayız.tr_TR
dc.language.isoentr_TR
dc.publisherFen Bilimleri Enstitüsütr_TR
dc.subjectVisual object trackingtr_TR
dc.titleSparsity-Based Discriminative Tracking with Adaptive Cue Integrationtr_TR
dc.typeinfo:eu-repo/semantics/masterThesistr_TR
dc.callno2015/2275tr_TR
dc.contributor.departmentoldBilgisayar Mühendisliğitr_TR
dc.description.ozetIn this thesis, we present a new approach for model-free tracking.The proposed tracker combines the sparsity-based discriminativeclassifier with an adaptive scheme for multiplecue integration. In particular, our model associates visual cueswith some reliability scores, which are dynamically adjustedat each frame during tracking with respect to the current temporaland visual context. These reliability scores are used todetermine the contribution of each cue within the sparsitybasedframework in the estimation of the joint tracking result.As a consequence, we achieve better tracking accuraciesin handling partial occlusions, pose and appearance changes.To demonstrate the performance and the effectiveness of theproposed algorithm, we present qualitative and quantitativeresults on a number of challenging video sequences.tr_TR


Files in this item

This item appears in the following Collection(s)

Show simple item record