
Eğitim Hakkında
Bu eğitim programı, modern yapay zekâ modellerinin "kara kutu" doğasını ortadan kaldırarak, model kararlarını şeffaf, anlaşılır ve eyleme dönüştürülebilir içgörülere dönüştürme üzerine odaklanır. Katılımcılar, SHAP ve LIME gibi en güncel XAI (Açıklanabilir Yapay Zekâ) tekniklerini öğrenmekle kalmayacak, aynı zamanda bu tekniklerin çıktılarını Streamlit ve Plotly Dash gibi modern araçlarla interaktif dashboard'lara dönüştürerek, teknik olmayan yöneticilerin ve iş birimlerinin stratejik karar alma süreçlerini doğrudan desteklemesini sağlayacak yetkinlikler kazanacaktır.
Açıklanabilir Yapay Zekâ (XAI), bir yapay zekâ modelinin belirli bir kararı veya tahmini neden ve nasıl yaptığını insan-anlaşılır terimlerle ortaya koyan yöntemler ve teknolojiler bütünüdür. Bu eğitimde;
- SHAP (SHapley Additive exPlanations), LIME (Local Interpretable Model-agnostic Explanations) gibi model-agnostik yaklaşımlar,
- DiCE (Diverse Counterfactual Explanations) ile "what-if" (eğer-öyle-olsaydı) senaryo analizleri,
- Derin öğrenme modelleri için Grad-CAM ve Integrated Gradients gibi spesifik yöntemler,
- Bu karmaşık çıktıları görselleştirmek için Streamlit ve Plotly Dash kütüphaneleri derinlemesine ve uygulamalı olarak incelenecektir.
Kimler İçindir?
- Yapay zekâ modellerinin çıktılarını iş birimlerine sunan Veri Bilimciler ve Makine Öğrenmesi Mühendisleri,
- Teknik analizleri interaktif raporlara dönüştüren Veri Analistleri ve İş Zekâsı (BI) Geliştiricileri,
- Yapay zekâ ürünlerinin şeffaflığından ve kullanıcı güveninden sorumlu Ürün Yöneticileri,
- Veriye dayalı stratejik kararlar alan ve ekiplerinin kullandığı modellere güven duymak isteyen Departman Yöneticileri ve Takım Liderleri,
- Regülasyonlara (örn: GDPR) uyumluluk ve algoritmik şeffaflık konularında çalışan Risk ve Uyum Profesyonelleri.
Sertifika
Eğitimlerimize %80 oranında katılım gösterilmesi ve eğitim müfredatına göre uygulanacak sınav/projelerin başarıyla tamamlanması durumunda, eğitimin sonunda dijital ve QR kod destekli “BT Akademi Başarı Sertifikası” verilmektedir.
Eğitim İçeriği
Yapay Zekada "Kara Kutu" Problemi
- Tanım, iş dünyası için yarattığı riskler ve fırsat kayıpları
- Güven, şeffaflık ve hesap verebilirlik kavramları
- Kapsam, amaçlar ve temel yaklaşımlar (Model-Agnostik vs. Model-Spesifik)
- Yerel (Local) ve Global (Global) açıklamalar arasındaki farklar
Stratejik karar alma, regülasyonlara uyum, model hata ayıklama ve etik yapay zeka
LIME (Local Interpretable Model-agnostic Explanations)
- Çalışma mantığı: Karmaşık bir modeli yerel olarak basit bir modelle taklit etme
- Uygulama alanları, avantajları ve limitasyonları
- Teorik temel: Oyun teorisi ve Shapley değerleri
- SHAP değerlerinin yorumlanması ve görselleştirme türleri (Force, Waterfall, Summary Plot)
- "Eğer X farklı olsaydı, sonuç ne olurdu?" sorusuna cevap verme
- DiCE kütüphanesi ile pratik uygulamalar
Ortam Kurulumu ve Veri Seti Hazırlığı
- Gerekli kütüphanelerin (Shap, Lime, Dice) kurulumu
- Gerçek dünya veri seti üzerinde (örn: kredi skoru, müşteri kaybı) model eğitimi
- Tek bir tahminin arkasındaki en etkili faktörleri belirleme
- Hem yerel hem de global düzeyde özellik önemlerini (feature importance) hesaplama
- Özellikler arasındaki etkileşimleri (interaction effects) SHAP ile keşfetme
Veri Hikayeciliği ve Etkili Görselleştirme Prensipleri
- Teknik bir analizi, karar vericiler için bir hikâyeye dönüştürme sanatı
- Streamlit'in temel bileşenleri: Widget'lar, layout yönetimi ve veri gösterimi
- Birkaç satır Python koduyla interaktif bir web uygulaması oluşturma
- Dash'in mimarisi: Layout ve Callback'ler
- Daha karmaşık ve kurumsal seviye dashboard'lar için tasarım desenleri
Backend Geliştirme: Model ve Açıklamaların Hazırlanması
- Eğitilmiş bir modeli ve XAI açıklama nesnelerini (SHAP explainer vb.) kaydetme
- Kullanıcının veri girişi yapabileceği (örn: müşteri ID'si) veya senaryo seçebileceği bir arayüz oluşturma
- Kullanıcı girdisine göre anlık olarak XAI analizlerini (örn: SHAP force plot) çağırma ve gösterme
- "What-if" analizleri için kullanıcıların girdileri değiştirmesine olanak tanıma
Derin Öğrenme Modellerini Açıklama
- Bilgisayarlı Görü: Grad-CAM ile imajlardaki önemli bölgeleri vurgulama
- Doğal Dil İşleme: Integrated Gradients ve Attention mekanizmaları ile metin tahminlerini açıklama
- Finans: Bir kredi başvurusunun neden reddedildiğini açıklayan bir dashboard
- Sağlık: Bir teşhis modelinin kararlarını doktorlara sunan bir arayüz
- Pazarlama: Müşteri kaybı tahminlerini gerekçelendiren bir analiz ekranı
XAI'ı MLOps Süreçlerine Entegre Etme
- Model dağıtım (deployment) sürecinin bir parçası olarak açıklanabilirlik raporları oluşturma
- Her model için yeteneklerini, limitlerini ve yanlılık (bias) eğilimlerini belgeleyen standart dokümanlar hazırlama
- Açıklamaların yanlış yorumlanma riskleri, adalet (fairness) ve mahremiyet (privacy) konuları
Neden Bu Eğitimi Almalısınız ?
- Stratejik Güven İnşası: "Kara kutu" modellerin yarattığı şüpheyi ortadan kaldırarak, yapay zekanın kurumsal adaptasyonunu hızlandırır ve paydaş güvenini artırır.
- Derinlemesine İçgörü: Sadece "ne" olacağını değil, "neden" olacağını da anlayarak daha isabetli ve savunulabilir iş kararları alınmasını sağlar.
- Hızlı Hata Ayıklama ve İyileştirme: Modelin beklenmedik veya hatalı tahminlerinin kök nedenlerini hızla tespit etme ve modeli daha sağlam hale getirme imkânı sunar.
- Regülasyonlara Uyum: Özellikle finans ve sağlık gibi regüle sektörlerde talep edilen algoritmik şeffaflık ve "açıklama hakkı" yükümlülüklerini karşılar.
- Demokratikleşme: Karmaşık model sonuçlarını, teknik olmayan karar vericilerin bile anlayıp sorgulayabileceği görsel arayüzlere dönüştürerek yapay zekayı demokratikleştirir.
Önemli Notlar
Program ücretlerine KDV dahil değildir.