dc.contributor.advisor | Genç, Burkay | |
dc.contributor.author | Kılıç, Sayit | |
dc.date.accessioned | 2023-05-22T10:13:23Z | |
dc.date.issued | 2023 | |
dc.date.submitted | 2023 | |
dc.identifier.uri | https://hdl.handle.net/11655/33209 | |
dc.description.abstract | With the development of efficient algorithms, artificial intelligence (AI) applications have become ubiquitous in almost every aspect of our lives. They have even started to be used in critical areas such as defense industry, economy, and healthcare. However, the use of AI models in these important areas raises concerns about their reliability. Therefore, explaining how these black box models work has become an important goal. This thesis, we propose a simple and fast model to explain the decisions of any black box model. To achieve this, we attempt to explain the basic behavior of the model through a set of semi-random decision trees. Our approach only requires the data used to train the black box model and the model itself to work. Current state-of-the-art explainable AI (XAI) models typically produce local explanations for a black box model's decision regarding a single observation. On the other hand, models that produce global explanations use complex computations to understand the effect of each feature on the model's decisions. However, our proposed approach defines separate regions in the model's general decision space to explain the decision-making process of the model, and requires significantly less computational power than other advanced XAI techniques while producing both local and global explanations. | tr_TR |
dc.language.iso | en | tr_TR |
dc.publisher | Fen Bilimleri Enstitüsü | tr_TR |
dc.rights | info:eu-repo/semantics/openAccess | tr_TR |
dc.subject | Explainable Artificial Intelligence | tr_TR |
dc.subject | Interpretability | tr_TR |
dc.subject | Ensemble Model | tr_TR |
dc.subject | TEXAI | tr_TR |
dc.subject.lcsh | Bilgisayar mühendisliği | tr_TR |
dc.title | Explaining Artificial Neural Networks With Decision Tree Ensembles | tr_TR |
dc.title.alternative | Yapay Sinir Ağlarının Karar Ağacı Toplulukları ile Açıklanması | tr_TR |
dc.type | info:eu-repo/semantics/masterThesis | tr_TR |
dc.description.ozet | Verimli algoritmaların gelişmesiyle yapay zeka uygulamaları hayatımızın neredeyse her alanında kullanılır hale geldi. Savunma sanayi, ekonomi ve sağlık gibi insan hayatı için çok önemli konularda bile kullanılmaya başlandı. Bu önemli konularda yapay zeka modellerinin kullanımı, bu modellerin güvenilirliği hakkında soru işaretlerine neden olmaktadır. Bu nedenle, bu siyah kutu modellerinin nasıl çalıştığını açıklayabilme önemli bir hedef haline gelmiştir. Bu tezde, herhangi bir kara kutu modelin kararlarını açıklamak için basit ve hızlı bir model öneriyoruz. Bunu yapmak için, modelin temel davranışını yarı rastgele karar ağaçlarının bir kümesi aracılığıyla açıklamaya çalışıyoruz. Yaklaşımımızın çalışması için sadece kara kutu modeli eğitmek için kullanılan verilerine ve modelin kendisine ihtiyaç duymaktayız. Mevcut son teknoloji açıklanabilir yapay zeka modelleri genellikle siyah kutu modellerin tek bir gözlem hakkındaki kararı için yerel açıklamalar üretmektedir. Öte yandan, genel açıklamalar üreten modeller, her özniteliğin modelin kararları üzerindeki etkisini anlamak için karmaşık hesaplamalar kullanır. Ancak, önerdiğimiz yaklaşım, modelin karar verme sürecini açıklamak için modelin genel karar uzayında ayrı ayrı bölgeler tanımlar ve hem yerel hem de genel açıklamalar üretirken diğer ileri XAI tekniklerine göre önemli ölçüde daha az hesaplama gücü gerektirir. | tr_TR |
dc.contributor.department | Bilgisayar Mühendisliği | tr_TR |
dc.embargo.terms | Acik erisim | tr_TR |
dc.embargo.lift | 2023-05-22T10:13:23Z | |
dc.funding | Yok | tr_TR |
dc.subtype | software | tr_TR |