Uygulamalı Yapay Zeka Denetimi ve Güvenliği Eğitimi

Uygulamalı Yapay Zeka Denetimi ve Güvenliği Eğitimi

Eğitim Hakkında

Uygulamalı Yapay Zeka Denetimi ve Güvenliği Eğitimi, yapay zeka sistemlerini yalnızca geliştiren değil; aynı zamanda denetleyen, güvenliğini sağlayan ve risklerini yöneten profesyoneller için tasarlandı. Bu program, AI teknolojilerini bir “kara kutu” olarak kabul etmek yerine; veri, model ve sistem seviyesinde şeffaflık, güvenlik ve hesap verebilirlik perspektifi kazandırmayı hedefler. 
Bu eğitimde katılımcılar; yapay zeka denetiminin temel prensiplerinden başlayarak LLM mimarileri ve tehdit yüzeyine, prompt tabanlı saldırılardan veri zehirleme (data poisoning) tekniklerine kadar geniş bir yelpazede bilgi sahibi olacak. Program boyunca gerçekleştirilen uygulamalı laboratuvar çalışmaları sayesinde, teorik bilgilerin ötesine geçilerek gerçek saldırı senaryoları test edilecek ve model davranışları doğrudan gözlemlenecek.
Bu eğitim, AI sistemlerini daha güvenilir hale getirmek, riskleri proaktif şekilde yönetmek ve kurum içinde güçlü bir denetim yaklaşımı oluşturmak isteyen profesyoneller için kapsamlı ve uygulamalı bir rehber sunar.

Ön Koşul

Temel yapay zekâ kavramlarına ve genel IT güvenliği prensiplerine aşinalık önerilir. 

Eğitim İçeriği

  • Yapay zekanın evrimi
  • Yapay zeka türleri
  • AI vs klasik sistem
  • Deterministic vs probabilistic model
  • Yapay zeka neden denetlenmeli?
  • AI audit nedir?
  • AI denetimi kapsamı
  • AI yönetişimi çerçeveleri ve standartlar
  • LLM nedir, nasıl çalışır?
  • Transformer mimarisi
  • Token mantığı
  • Next token prediction
  • GPT nedir?
  • Training (pretraining / RLHF)
  • LLM özellikleri
  • Temperature etkisi
  • Determinism vs randomness
  • Hallucination nedir?
  • Hallucination türleri
  • Model metrikleri
  • Perplexity
  • AI riskleri (Veri – Model – Güvenlik)
  • Data lag
  • Model drift
  • Concept drift
  • RAG mimarisi
  • RAG riskleri
  • Prompt nedir, türleri nelerdir?
  • Guardrails
  • AI saldırı yüzeyi
  • AI saldırı türleri
  • Prompt injection örnekleri
  • Prompt leakage örnekleri
  • Adversarial attack örnekleri
  • Model extraction örnekleri
  • Jailbreak / role manipulation örnekler
  • Bu laboratuvarda modelin talimatları nasıl yorumladığı test edilerek instruction override, role manipulation ve jailbreak senaryoları uygulanır. Farklı saldırı promptları kullanılarak guardrail bypass denemeleri yapılır ve modelin güvenlik davranışı karşılaştırmalı olarak analiz edilir.
  • Bu laboratuvarda modelin system prompt ve gizli talimatları sızdırıp sızdırmadığı test edilir. Hidden instruction extraction, confidential prompt leak ve override senaryoları uygulanarak modelin bilgi sızdırma riskleri değerlendirilir.
  • Model performansı ve kararların açıklanabilirliği
  • Lab 5: Model Explainability — Feature importance ile model kararlarının analiz edilmesi
  • Bu laboratuvarda RAG poisoning, context injection ve adversarial prompt saldırıları uygulanarak modelin manipülasyona karşı dayanıklılığı test edilir. Retrieval manipulation ve output manipulation teknikleri ile modelin güvenlik zafiyetleri analiz edilir.
  • Bu laboratuvarda modelin tutarlılığı, deterministik davranışı ve explainability özellikleri test edilir. Temperature değişimi, hallucination senaryoları ve tekrar eden promptlar üzerinden model güvenilirliği ölçülür.
  • Bu laboratuvarda uçtan uca bir AI sistemine yönelik güvenlik, bias, leakage ve adversarial testler uygulanır. Elde edilen bulgular üzerinden risk değerlendirmesi yapılır ve kapsamlı bir AI denetim raporu hazırlanır.

Kazanımlar

  • Yapay zeka sistemlerini uçtan uca denetleyebilen, riskleri sistematik şekilde değerlendirebilen bir bakış açısı kazanacaksınız
  • LLM’lerin nasıl çalıştığını anlayarak hallucination ve model hatalarını erken tespit edebileceksiniz
  • Prompt injection ve benzeri saldırılara karşı sistemleri test edebilen pratik güvenlik yetkinliği geliştireceksiniz
  • Prompt leakage ve rol manipülasyonu risklerini analiz ederek güvenli prompt tasarımı yapabileceksiniz
  • Veri kalitesi ve bias analizleri ile model çıktılarındaki adaletsizlikleri tespit edip yorumlayabileceksiniz
  • Data poisoning saldırılarını anlayarak veri bütünlüğünü korumaya yönelik kontrol mekanizmaları kurabileceksiniz
  • Model kararlarını explainability teknikleriyle açıklayarak denetlenebilir ve şeffaf AI sistemleri geliştirebileceksiniz
  • Adversarial attack senaryolarını test ederek model dayanıklılığını artırma becerisi kazanacaksınız
  • System prompt güvenliğini değerlendirerek kontrol checklist’leri ile zafiyetleri tespit edebileceksiniz
  • AI risk yönetimi ve governance yaklaşımı ile kurumsal seviyede denetim ve kontrol yapıları oluşturabileceksiniz

Hedef Kitle

  • AI denetimi, risk yönetimi ve güvenlik alanında uzmanlaşmak isteyen denetim, risk ve uyum (compliance) profesyonelleri
  • LLM tabanlı ürünler geliştiren veya yöneten yapay zeka, veri bilimi ve yazılım ekiplerinde çalışan profesyoneller
  • Kurumlarında AI kullanımını yöneten, riskleri anlamak ve kontrol altına almak isteyen orta ve üst düzey yöneticiler
  • Siber güvenlik, veri yönetişimi ve teknoloji denetimi alanlarında çalışan ve AI güvenliği yetkinliği kazanmak isteyen uzmanlar

Sertifika

Kurs süresince toplam 100 puan üzerinden değerlendirilen ödevler verilecektir. Değerlendirme sonucunda 70 puan ve üzeri alan katılımcılara dijital ve QR kod destekli “Career HuBT Başarı Sertifikası”, 70 puanın altında kalan katılımcılara ise “Katılım Sertifikası” verilecektir.

SEKTÖRÜN GÜVENDİĞİ ÇÖZÜM ORTAĞI

BT Akademi'yi tercih eden 4.000'den fazla kurum yanılmıyor.

Honda
Hayat Holding
İTU
Migros
Enerjisa
Aras Kargo
Istanbul Beton
TEB
J.P. Morgan
Albaraka Türk
Logo Yazılım
Trendyol
DFDS
Amadeus
Toyota
Isdemir
Etiya
Sekerbank
QNB Finansbank
Türkiye Vagon Sanayi
ITKIB
TAI TUSAŞ TR
HSBC
Saglık Bakanlıgı
Aksigorta
Honda
Hayat Holding
İTU
Migros
Enerjisa
Aras Kargo
Istanbul Beton
TEB
J.P. Morgan
Albaraka Türk
Logo Yazılım
Trendyol
DFDS
Amadeus
Toyota
Isdemir
Etiya
Sekerbank
QNB Finansbank
Türkiye Vagon Sanayi
ITKIB
TAI TUSAŞ TR
HSBC
Saglık Bakanlıgı
Aksigorta
Bilgi İstiyorum