Fatih Bildirici
Ben Fatih Bildirici. Yapay zeka, yazılım ve teknoloji alanlarında çalışan bir araştırmacı ve mühendis olarak akademi ile endüstri arasında köprü kurmaya odaklanıyorum. Savunma sanayii ve teknoloji sektöründe yazılım mühendisliği ve yapay zeka alanlarında çeşitli kurumlarda görev aldım; hâlen ASELSAN’da yapay zeka ve yazılım geliştirme odaklı çalışmalar yürütürken Ankara Üniversitesi’nde Yapay Zeka doktora araştırmalarıma devam ediyorum. Akademik yolculuğumda Yönetim Bilişim Sistemleri, Bilim-Teknoloji-Toplum çalışmaları ve Bilişsel Bilimler gibi disiplinleri bir araya getirerek çok yönlü bir perspektif geliştirdim.
Araştırma ve üretim odağım; açıklanabilir yapay zeka (XAI), öğrenen sistemler, insan-makine etkileşimi ve sorumlu yapay zeka yaklaşımları üzerine yoğunlaşıyor. Akademik yayınlar üretmekte, konferanslarda çalışmalarımı paylaşmakta ve bilimsel dergilerde hakemlik yapmaktayım. Bunun yanında kurumlara ve profesyonellere yönelik yapay zeka stratejileri, etik ve sürdürülebilir AI uygulamaları, dijital dönüşüm ve teknoloji yönetimi konularında eğitimler, seminerler ve danışmanlıklar veriyorum.
Future Innovation Leaders, Hamdi Ulukaya Girişimi ve Responsible AI Institute gibi uluslararası topluluklarda Fellow olarak yer alıyor; girişimcilik, inovasyon ve sorumlu teknoloji geliştirme alanlarında çalışmalar yürütüyorum. DeepLearning.AI elçisi olarak Türkiye’de yapay zeka eğitimleri düzenliyor, “Otostopçunun Yapay Zekâ Rehberi” podcasti ve yazılı içerikler aracılığıyla yapay zekayı daha geniş kitleler için anlaşılır ve erişilebilir kılmaya çalışıyorum. Amacım; şeffaf, etik ve insan odaklı yapay zeka sistemlerinin gelişimine katkı sağlamak ve teknolojinin toplumsal etkisini daha bilinçli bir şekilde şekillendirmek.
Session
Bugün birçok kritik kararın arkasında algoritmalar var. Kredi skorları, işe alım filtreleri, risk analizleri, güvenlik sistemleri ve neredeyse her şey. Çoğu zaman bu kararlarla karşılaştığımızda aldığımız cevap basit oluyor: “Sistem böyle hesapladı.” Bu noktada asıl soru şu: Bir algoritmaya neden ve nasıl güveniriz?
Son yıllarda “Açıklanabilir Yapay Zekâ” başlığı altında geliştirilen yöntemler, bu soruya teknik bir yanıt üretmeye çalışıyor. SHAP ve LIME gibi yöntemler modelin hangi değişkenlere ne ölçüde baktığını göstermeyi hedefliyor. Model kartları ve veri seti belgeleri sistemin sınırlarını tarif etmeye çalışıyor. Üretken modeller ise kararlarını adım adım açıklayan metinler üretebiliyor. Ancak burada kritik bir ayrım var: Bir sistemin açıklama üretmesi, o sistemi gerçekten anladığımız anlamına gelir mi?
Bu konuşmada açıklanabilirlik kavramını teknik boyutuyla ele alırken, güven meselesini daha temel bir yerden tartışacağım. Açıklama ile hesap verebilirlik arasındaki fark nedir? İkna edici bir açıklama her zaman doğru mudur? Özellikle karmaşık ve kapalı sistemlerde, sunulan açıklamaları ne ölçüde doğrulayabiliyoruz?
Belki de soruyu şöyle sormalıyız: Algoritmaya güvenmeli miyiz, yoksa onu denetleyebiliyor muyuz? Bu konuşma, teknik araçlarla üretilen açıklamaların gerçekten ne sağladığını ve nerede yetersiz kaldığını birlikte düşünmeye davet ediyor.