“Trust the Algorithm”: Yapay Zekada Güven ve Açıklanabilir Yapay Zeka
2026-04-26 , Tiyatro salonu
Language: English

Bugün birçok kritik kararın arkasında algoritmalar var. Kredi skorları, işe alım filtreleri, risk analizleri, güvenlik sistemleri ve neredeyse her şey. Çoğu zaman bu kararlarla karşılaştığımızda aldığımız cevap basit oluyor: “Sistem böyle hesapladı.” Bu noktada asıl soru şu: Bir algoritmaya neden ve nasıl güveniriz?

Son yıllarda “Açıklanabilir Yapay Zekâ” başlığı altında geliştirilen yöntemler, bu soruya teknik bir yanıt üretmeye çalışıyor. SHAP ve LIME gibi yöntemler modelin hangi değişkenlere ne ölçüde baktığını göstermeyi hedefliyor. Model kartları ve veri seti belgeleri sistemin sınırlarını tarif etmeye çalışıyor. Üretken modeller ise kararlarını adım adım açıklayan metinler üretebiliyor. Ancak burada kritik bir ayrım var: Bir sistemin açıklama üretmesi, o sistemi gerçekten anladığımız anlamına gelir mi?
Bu konuşmada açıklanabilirlik kavramını teknik boyutuyla ele alırken, güven meselesini daha temel bir yerden tartışacağım. Açıklama ile hesap verebilirlik arasındaki fark nedir? İkna edici bir açıklama her zaman doğru mudur? Özellikle karmaşık ve kapalı sistemlerde, sunulan açıklamaları ne ölçüde doğrulayabiliyoruz?

Belki de soruyu şöyle sormalıyız: Algoritmaya güvenmeli miyiz, yoksa onu denetleyebiliyor muyuz? Bu konuşma, teknik araçlarla üretilen açıklamaların gerçekten ne sağladığını ve nerede yetersiz kaldığını birlikte düşünmeye davet ediyor.


Açıklanabilir Yapay Zekâ (XAI) yöntemleri, sistemlerin kararlarını anlamamızı sağlamayı hedefliyor. Ancak akademide ve sektörde temel bir anlaşmazlık var: Bir modeli sonradan açıklamak mı daha anlamlı, yoksa baştan anlaşılabilir bir model kurmak mı? Ve açıklanabilir yapay zeka bizim adımıza iyi sonuçlar üretmeyi sağlayacak mı, yoksa şirketleri dokunulmaz kılmaya mı yarayacak.

Konuşmada bunu anlamak SHAP ve LIME gibi post-hoc açıklama yöntemlerinin nasıl çalıştığı ve hangi durumlarda yanıltıcı olabileceği ele alınacak. Özellikle Cynthia Rudin’in savunduğu yaklaşım üzerinden, “kara kutu modeli açıklamaya çalışmak yerine doğrudan yorumlanabilir modeller inşa etmek” fikri tartışılacak. Rudin’in, yüksek riskli alanlarda (sağlık, hukuk, kamu kararları gibi) karmaşık ama opak sistemler yerine doğrudan anlaşılabilir modellerin tercih edilmesi gerektiği yönündeki argümanı, teknik ve etik boyutlarıyla değerlendirilecek.

Diğer yandan Timnit Gebru’nun veri seti belgeleri (datasheets for datasets) ve model şeffaflığı üzerine çalışmaları çerçevesinde, açıklanabilirliğin yalnızca model içi mekanizmalarla sınırlı olmadığı; veri toplama süreçlerinden kurumsal hesap verebilirliğe kadar uzanan daha geniş bir sorumluluk alanı içerdiği vurgulanacak. Gebru’nun öne çıkardığı veri önyargıları, belgeleme eksiklikleri ve kurumsal güç ilişkileri, “açıklama”nın teknik bir araç olmaktan çok politik bir meseleye dönüştüğü noktaları görünür kılacak.
Bu çerçevede konuşma üç temel soruya odaklanacak:
Açıklama üretmek gerçekten anlamaya mı karşılık gelir?
İkna edici bir açıklama her zaman doğru mudur?

Güven, sistemin anlattığı hikâyeden mi, yoksa o sistemi sorgulayabilme imkânından mı doğar?
Amacım, alanda çalışan bir araştırmacı olarak açıklanabilirliği tamamen reddetmek değil; onu daha sağlam bir zemine oturtmak. Çünkü güven, yalnızca modelin ne söylediğiyle değil, nasıl tasarlandığı, hangi verilerle eğitildiği ve ne ölçüde sorgulanabildiğiyle kurulur. Bu konuşma, “Trust the Algorithm” çağrısını yeniden düşünmeye ve açıklanabilirlik ile hesap verebilirlik arasındaki farkı birlikte tartışmaya davet ediyor.

See also: PresentationFile (9.1 MB)

Ben Fatih Bildirici. Yapay zeka, yazılım ve teknoloji alanlarında çalışan bir araştırmacı ve mühendis olarak akademi ile endüstri arasında köprü kurmaya odaklanıyorum. Savunma sanayii ve teknoloji sektöründe yazılım mühendisliği ve yapay zeka alanlarında çeşitli kurumlarda görev aldım; hâlen ASELSAN’da yapay zeka ve yazılım geliştirme odaklı çalışmalar yürütürken Ankara Üniversitesi’nde Yapay Zeka doktora araştırmalarıma devam ediyorum. Akademik yolculuğumda Yönetim Bilişim Sistemleri, Bilim-Teknoloji-Toplum çalışmaları ve Bilişsel Bilimler gibi disiplinleri bir araya getirerek çok yönlü bir perspektif geliştirdim.

Araştırma ve üretim odağım; açıklanabilir yapay zeka (XAI), öğrenen sistemler, insan-makine etkileşimi ve sorumlu yapay zeka yaklaşımları üzerine yoğunlaşıyor. Akademik yayınlar üretmekte, konferanslarda çalışmalarımı paylaşmakta ve bilimsel dergilerde hakemlik yapmaktayım. Bunun yanında kurumlara ve profesyonellere yönelik yapay zeka stratejileri, etik ve sürdürülebilir AI uygulamaları, dijital dönüşüm ve teknoloji yönetimi konularında eğitimler, seminerler ve danışmanlıklar veriyorum.

Future Innovation Leaders, Hamdi Ulukaya Girişimi ve Responsible AI Institute gibi uluslararası topluluklarda Fellow olarak yer alıyor; girişimcilik, inovasyon ve sorumlu teknoloji geliştirme alanlarında çalışmalar yürütüyorum. DeepLearning.AI elçisi olarak Türkiye’de yapay zeka eğitimleri düzenliyor, “Otostopçunun Yapay Zekâ Rehberi” podcasti ve yazılı içerikler aracılığıyla yapay zekayı daha geniş kitleler için anlaşılır ve erişilebilir kılmaya çalışıyorum. Amacım; şeffaf, etik ve insan odaklı yapay zeka sistemlerinin gelişimine katkı sağlamak ve teknolojinin toplumsal etkisini daha bilinçli bir şekilde şekillendirmek.

https://fatihbildirici.com