dc.contributor.advisor | Doğan, Tunca | |
dc.contributor.advisor | Çelikcan, Ufuk | |
dc.contributor.author | Taşören, Ali Egemen | |
dc.date.accessioned | 2023-12-12T12:44:34Z | |
dc.date.issued | 2023 | |
dc.date.submitted | 2023-09-14 | |
dc.identifier.uri | https://hdl.handle.net/11655/34367 | |
dc.description.abstract | Recognition of human actions using machine learning requires substantial datasets to develop robust models. However, obtaining such real-world data is challenging because it is a costly and time-consuming process. In addition, existing datasets mostly contain indoor videos due to the issues in capturing pose data outdoors. Synthetic data have been employed to overcome these difficulties, yet the currently available synthetic data lack both photorealism and diversity in their features. In this paper, we present the NOVAction engine for generating photorealistic synthetic human action sequences captured from diverse viewpoints to improve action recognition performance. We use NOVAction to create the NOVAction23 dataset comprising 25,415 human action sequences (available at \url{https://graphics.cs.hacettepe.edu.tr/NOVAction}). In NOVAction23, the performed motions and the viewpoints are varied on the fly through procedural generation, so that, for a given animation class, each generated sequence features a unique motion acted by one of the 1,105 synthetic humans captured from a unique viewpoint. We evaluate NOVAction23 by training three state-of-the-art recognizers on it, in addition to the NTU 120 dataset. Our results are further validated through real-world videos from YouTube. The findings confirm that the NOVAction23 dataset can enhance the performance of state-of-the-art video classification for human action recognition. | tr_TR |
dc.language.iso | en | tr_TR |
dc.publisher | Fen Bilimleri Enstitüsü | tr_TR |
dc.rights | info:eu-repo/semantics/openAccess | tr_TR |
dc.subject | İnsan hareketi tanıma | tr_TR |
dc.subject | Çeşitlilik açığı | tr_TR |
dc.subject | Sentetik veri | tr_TR |
dc.subject | Prosedürel üretim | tr_TR |
dc.subject | Bilgisayarlı görü | tr_TR |
dc.subject | Bilgisayar grafiği | tr_TR |
dc.title | Addressing the Data Diversity Gap With Uniquely Generated Synthetic Vıdeos for Real-World Human Action Recognition | tr_TR |
dc.title.alternative | Gerçek Dünya İnsan Eylemi Tanıma İçin Benzersiz Şekilde Üretilmiş Sentetik Videolarla Veri Çeşitliliği Açığının Ele Alınması | tr_TR |
dc.type | info:eu-repo/semantics/masterThesis | tr_TR |
dc.description.ozet | Makine öğrenimi kullanılarak insan hareketlerinin tanınmasında gürbüz modeller geliştirmek için yüksek miktarda veriye ihtiyaç duyulmaktadır. Ancak, bu tür gerçek dünya verilerini elde etmek zorlu bir süreçtir çünkü maliyetli ve zaman alıcıdır. Ayrıca, mevcut veri setleri çoğunlukla dış mekanlarda poz verisi yakalama sorunları nedeniyle kapalı alan videolarını içerir. Bu zorlukların üstesinden gelmek için sentetik veriler kullanılmıştır, ancak mevcut sentetik veriler hem fotogerçekçilikten hem de öznitelik çeşitliliğinden yoksundur. Bu makalede, hareket tanıma performansını artırmak için çeşitli bakış açılarından yakalanan fotogerçekçi sentetik insan hareket dizileri üreten NOVAction motorunu sunuyoruz. NOVAction’ı, 25415 insan hareket dizisinden oluşan NOVAction23 veri setini üretmek için kullanıyoruz (NOVAction23 \url{https://graphics.cs.hacettepe.edu.tr/NOVAction} adresinde mevcuttur). NOVAction23’te, gerçekleştirilen hareketler ve bakış açıları prosedürel üretim yoluyla üretim aşamasında değiştirilir, böylece belirli bir animasyon sınıfı için her üretilen görüntü dizisi 1105 sentetik insandan biri tarafından benzersiz bir bakış açısından yakalanan benzersiz bir hareket özniteliğine sahiptir. NOVAction23 ve NTU 120 veri setlerini üç son teknoloji tanıyıcıyı eğiterek değerlendirilmiştir ve model YouTube’dan elde edilmiş gerçek dünya videoları aracılığıyla doğrulanmıştır. Bulgular, NOVAction23 veri setinin insan son teknoloji insan hareket tanıma performansını artırabileceğini göstermektedir. | tr_TR |
dc.contributor.department | Bilgisayar Mühendisliği | tr_TR |
dc.embargo.lift | 2024-01-05T12:44:34Z | |
dc.funding | Yok | tr_TR |