5. Uluslararası Türk Dünyası Eğitim Bilimleri ve Sosyal Bilimler Kongresi, Antalya, Türkiye, 21 Kasım 2024 - 24 Kasım 2025, cilt.9, ss.249-262, (Tam Metin Bildiri)
Yapay zekâ ile çeviride açıklanabilirlik konusu, nöral makine çevirisi ve diğer yapay zekâ destekli çeviri sistemlerinin daha anlaşılır ve şeffaf olmasını amaçlamaktadır. Günümüzde yapay zekâ destekli çeviri araçları oldukça yaygın kullanılsa da bu sistemlerin çalışma mekanizmalarına dair ayrıntılar bilinmemekte ve genellikle kara kutu olarak kabul adlandırılmaktadır. Kullanıcılar, bir modelin nasıl çeviri sunduğunu ve yapay zekâyı oluşturan katmanlar arasında gerçekten neler olduğunu görememekte; yapay zekânın karar verme mekanizmaları gizemini korumaktadır. Bu durum yapay zekâ destekli çeviri araçlarının güvenilirliği ve doğruluğu üzerine süregelen tartışmalara zemin hazırlamakta ve yapay zekâ teknolojilerine olan güveni sorgulayan yaklaşımları güçlendirmektedir. Hassas ve kritik çeviri görevlerinde modern çeviri teknolojilerinden yararlanmak, ancak güvenirlik ve doğruluk ilkeleriyle birleştirildiğinde daha etkin sonuçlar doğuracaktır. Bu bağlamda yapay zekânın çıktıları nasıl ürettiğini anlamak, özellikle tıbbi, hukuk ve teknik metinlerin çevirisinde olası hataların önceden tespit edilmesini, buna göre düzenlenmesini ve iyileştirilmesini sağlayabilir. Açıklanabilir yapay zekâ, özellikle nöral ağ temelli modellerin mekanizmasında var olan metin işleme süreçlerinde kelime gömme (embedding) ve dikkat mekanizmaları (attention) gibi karmaşık süreçleri daha şeffaf hale getirmeyi amaçlayarak çeviri ekosisteminde çıktıların güvenirliğine katkıda bulunmaktadır.
Bu çalışmada öncelikle açıklanabilir yapay zekânın (explainable artificial intelligence- XAI) kuramsal temelleri araştırılarak, derin öğrenme algoritmalarında kara kutu konusuna açıklık getirilmeye çalışılacaktır. Yapay zekâ destekli sistemlerde açıklanabilirlik, kullanıcıların modele duyduğu güveni artıran önemli bir faktör olarak ele alınacak, özellikle çeviri modellerindeki etkileri incelenecektir. Ardından yapay zekâ destekli sistemlerde açıklanabilirliğin hangi yöntemlerle sağlanmaya çalışıldığı ortaya konacak ve bu yöntemlerin açıklanabilirliğe katkı sağlayıp sağlamayacağı tartışılacaktır.
Anahtar kelimeler: yapay zekâ destekli çeviri araçlarında açıklanabilirlik, açıklanabilir yapay zekâ, kara kutu.
The topic of explainability in AI-assisted translation aims to make neural machine translation and other AI-supported translation systems more understandable and transparent. Although AI-assisted translation tools are widely used today, the details of how these systems function remain unclear, and they are often referred to as "black boxes." Users cannot see how a model generates its translations or understand what exactly happens within the layers that make up the AI, leaving the decision-making processes of the AI hidden. This situation raises ongoing debates regarding the reliability and accuracy of AI-assisted translation tools and strengthens approaches that question trust in AI technologies. For sensitive and critical translation tasks, combining modern translation technologies with principles of reliability and accuracy will yield more effective results. In this context, understanding how AI produces its outputs can be crucial, especially in the translation of medical, legal, and technical texts, as it helps identify potential errors in advance, allowing for adjustments and improvements. Explainable AI (XAI) aims to make complex processes like word embedding and attention mechanisms, found in neural network-based models, more transparent, thus contributing to the reliability of outputs in the translation ecosystem.
In this study, the theoretical foundations of explainable artificial intelligence (XAI) will first be explored, and an attempt will be made to clarify the black box issue in deep learning algorithms. Explainability in AI-assisted systems will be addressed as a key factor in increasing users' trust in the model, with a focus on its effects on translation models. Furthermore, the methods through which explainability is sought in AI-supported systems will be examined, and whether these methods contribute to explainability will be discussed.
Keywords: Explainability in AI-assisted translation tools, explainable artificial intelligence, black box.