Show simple item record

dc.contributor.advisorÇiçekli, İlyas
dc.contributor.authorÖzberk, Anıl
dc.date.accessioned2022-04-01T11:36:47Z
dc.date.issued2022
dc.date.submitted2022-01-19
dc.identifier.urihttp://hdl.handle.net/11655/26131
dc.description.abstractAs insulting statements become more frequent on online platforms, these negative statements create a reaction and disturb the peace of society. Identifying these expressions as early as possible is important to protect the victims. Offensive language detection research has been increasing in recent years. Offensive Language Identification Dataset (OLID) was introduced to facilitate research on this topic. Examples in OLID were retrieved from Twitter and annotated manually. Offensive Language Identification Task comprises three subtasks. In Subtask A, the goal is to discriminate the data as offensive or non-offensive. Data is offensive if it contains insults, threats, or profanity. Five languages datasets, including Turkish, were offered for this task. The other two subtasks focus on categorizing offense types (Subtask B) and targets (Subtask C). The last two subtasks mainly focus on English. This study explores the effects of the usage of Bidirectional Encoder Representations from Transformers (BERT) models and fine-tuning methods on offensive language detection on Turkish Twitter data. The BERT models that we use are pre-trained in Turkish corpora. Our fine-tuning methods are designed by considering the Turkish language and Twitter data. The importance of the pre-trained BERT model in a downstream task is emphasized. In addition, experiments with classical models are conducted, such as logistic regression, decision tree, random forest, and support vector machine (SVM).tr_TR
dc.language.isoentr_TR
dc.publisherFen Bilimleri Enstitüsütr_TR
dc.rightsinfo:eu-repo/semantics/openAccesstr_TR
dc.subjectNatural Language Processing, Offensive Language Detection, BERTtr_TR
dc.subject.lcshBilgisayar mühendisliğitr_TR
dc.titleOffensive Language Detection in Turkish Twitter Data with BERT Modelstr_TR
dc.title.alternativeBERT Modelleriyle Türkçe Twitter Verilerinde Saldırgan Dil Tespititr_TR
dc.typeinfo:eu-repo/semantics/masterThesistr_TR
dc.description.ozetOnline platformda hakaret içeren ifadeler arttıkça bu saldırgan ifadeler tepki yaratarak toplumun huzurunu bozmaktadır. Bu ifadelerin erken tespit edilmesi mağdurların korunması açısından önemlidir. Saldırgan dil tespit araştırmaları son yıllarda artmaktadır. Bu konudaki araştırmaları kolaylaştırmak amacıyla Saldırgan Dil Tanımlama Veri Kümesi (OLID) oluşturulmuştur. OLID verileri Twitter’dan toplanmış ve manuel olarak etiketlenmiştir. Saldırgan Dil Tanımlama Görevi üç alt görevden oluşur. Alt Görev A'da amaç, verileri saldırgan veya saldırgan olmayan olarak ayırt etmektir. Hakaret, tehdit veya küfür içeriyorsa veriler saldırgandır. Bu görev için Türkçe dâhil beş dilde veri seti hazırlanmıştır. Diğer iki alt görev, saldırı türlerinin (Alt Görev B) ve hedeflerin (Alt Görev C) sınıflandırılmasına odaklanır. Son iki alt görev için sadece İngilizce veri seti bulunmaktadır. Bu çalışma, Dönüştürücülerden Çift Yönlü Kodlayıcı Gösterimleri (BERT) modellerinin ve ince ayar tekniklerinin kullanımının Türkçe Twitter verilerinde saldırgan dil tespiti üzerindeki etkilerini araştırmaktadır. Kullandığımız BERT modelleri Türkçe ile ön eğitime tabi tutulmuştur. İnce ayar teknikleri ise Türkçe dili ve Twitter verileri göz önüne alarak hazırlandı. Çalışmamızda önceden eğitilmiş BERT modelin hedef görev üzerindeki önemi vurgulandı. Ayrıca lojistik regresyon, karar ağacı, rastgele orman ve destek vektör makineleri (SVM) gibi klasik modeller kullanılarak deneyler yapıldı.tr_TR
dc.contributor.departmentBilgisayar Mühendisliğitr_TR
dc.embargo.termsAcik erisimtr_TR
dc.embargo.lift2022-04-01T11:36:47Z
dc.fundingYoktr_TR


Files in this item

This item appears in the following Collection(s)

Show simple item record