Basit öğe kaydını göster

dc.contributor.advisorÇiçekli, İlyas
dc.contributor.authorŞen, Seçkin
dc.date.accessioned2023-12-12T11:17:31Z
dc.date.issued2023
dc.date.submitted2023-09-11
dc.identifier.citationSen, S. (2023). Weakly-Supervised Relation Extraction (thesis).tr_TR
dc.identifier.urihttps://hdl.handle.net/11655/34235
dc.description.abstractRelation extraction is a crucial element for numerous natural language processing applications, including text summarization and question answering. It is noteworthy that there are diverse methodologies for relation extraction, and the majority of them adopt the supervised learning approach, which necessitates a substantial training dataset. These extensive datasets must be hand-labeled by experts, making the annotation process time-consuming and expensive. Another approach that is utilized in this thesis is called weak supervised relation extraction. Using weak supervised learning, the cost of training data labeling can be reduced. In this thesis, we propose a weakly supervised relation extraction approach that is inspired by another weakly supervised model named REPEL. Both in REPEL and our relation extraction approach, extraction patterns are derived from unlabeled texts using given relation seed examples. In order to extract more useful extraction patterns, we introduce the use of labeling functions in our method. These labeling functions consist of simple rules to analyze the candidate pattern’s syntax and these labeling functions help to extract more confident candidate patterns. Our proposed method tests on the same dataset used by REPEL in order to compare our results with the results obtained by REPEL. Tests are conducted both in English and Turkish. Both systems require a number of relation seed examples for learning patterns from the unlabeled data. When fewer relation seed examples are used our method outperforms REPEL significantly. In experimental tests, our approach generally gives better results than REPEL for both languages. For the English test, approximately 15 times more successful than REPEL with few relation seeds. Even with more relation seeds, our approach remains more successful.tr_TR
dc.language.isoentr_TR
dc.publisherFen Bilimleri Enstitüsütr_TR
dc.rightsinfo:eu-repo/semantics/openAccesstr_TR
dc.subjectNatural Language Processingtr_TR
dc.subjectWeakly Supervised Learningtr_TR
dc.subjectRelation extractiontr_TR
dc.subjectInformation extractiontr_TR
dc.subjectData programmingtr_TR
dc.subject.lcshBilgisayar mühendisliğitr_TR
dc.titleWeakly-Supervised Relation Extractiontr_TR
dc.title.alternativeZayıf Denetimli İlişki Çıkarımıtr_TR
dc.typeinfo:eu-repo/semantics/masterThesistr_TR
dc.description.ozetİlişki çıkarımı, soru yanıtlama ve metin özetleme gibi birçok doğal dil işleme uygulaması için çok önemlidir. İlişki çıkarımı için farklı yaklaşımlar olmasına rağmen bunların çoğu, geniş bir eğitim veri seti gerektiren denetimli öğrenme yaklaşımını kullanır. Bu kapsamlı veri kümelerinin uzmanlar tarafından elle etiketlenmesi gerekir, bu da eğitim sürecini zaman alıcı ve pahalı hale getirir. Bu tezde kullanılan yaklaşıma zayıf denetimli ilişki çıkarımı adı verilmektedir. Zayıf denetimli öğrenme kullanılarak eğitim verileri etiketlemenin maliyeti azaltılabilir. Bu tezde, zayıf denetlenen başka bir model olan REPEL'den ilham alan, zayıf denetlenen bir ilişki çıkarma yaklaşımı öneriyoruz. Hem REPEL'de hem de ilişki çıkarma yaklaşımımızda, başta verilen ilişki örnekleri kullanılarak etiketlenmemiş metinlerden yeni çıkarım örüntüleri türetilir. Daha kullanışlı çıkarım örüntüleri elde etmek için yöntemimizde etiketleme fonksiyonlarının kullanımını tanıtıyoruz. Bu etiketleme işlevleri, aday örüntünün sözdizimini analiz etmeye yönelik basit kurallardan oluşur ve bu etiketleme işlevleri, daha güvenli aday kalıplarının çıkarılmasına yardımcı olur. Hem İngilizce hem de Türkçe olarak yapılan testlerde REPEL ve bu tezde önerilen model aynı veri seti ile eğitilerek sonuçlar karşılaştırılmıştır. Her iki sistem de etiketlenmemiş verilerden örnekleri öğrenmek için bir dizi ilişki örneğine ihtiyaç duyar. Daha az ilişki örneği kullanıldığında yöntemimiz REPEL'den önemli ölçüde daha iyi performans gösterir. Deneysel testlerde yaklaşımımız genellikle her iki dil için de REPEL'den daha iyi sonuçlar verir. İngilizce testi için, az sayıda ilişki örneği ile önerilen model olan REPEL'den yaklaşık 15 kat daha başarılıdır. Daha fazla ilişki tohumu olsa bile yaklaşımımız daha başarılı olmaya devam etmektedir.tr_TR
dc.contributor.departmentBilgisayar Mühendisliğitr_TR
dc.embargo.termsAcik erisimtr_TR
dc.embargo.lift2023-12-12T11:17:31Z
dc.fundingYoktr_TR
dc.subtypesoftwaretr_TR


Bu öğenin dosyaları:

Bu öğe aşağıdaki koleksiyon(lar)da görünmektedir.

Basit öğe kaydını göster