Lovable AI No Code App Development with Vibe Coding Eğitimi
Lovable AI No Code App Development with Vibe Coding Eğitimi
Eğitim Hakkında
Uygulamalı Yapay Zeka Denetimi ve Güvenliği Eğitimi, yapay zeka sistemlerini yalnızca geliştiren değil; aynı zamanda denetleyen, güvenliğini sağlayan ve risklerini yöneten profesyoneller için tasarlandı. Bu program, AI teknolojilerini bir “kara kutu” olarak kabul etmek yerine; veri, model ve sistem seviyesinde şeffaflık, güvenlik ve hesap verebilirlik perspektifi kazandırmayı hedefler.
Bu eğitimde katılımcılar; yapay zeka denetiminin temel prensiplerinden başlayarak LLM mimarileri ve tehdit yüzeyine, prompt tabanlı saldırılardan veri zehirleme (data poisoning) tekniklerine kadar geniş bir yelpazede bilgi sahibi olacak. Program boyunca gerçekleştirilen uygulamalı laboratuvar çalışmaları sayesinde, teorik bilgilerin ötesine geçilerek gerçek saldırı senaryoları test edilecek ve model davranışları doğrudan gözlemlenecek.
Bu eğitim, AI sistemlerini daha güvenilir hale getirmek, riskleri proaktif şekilde yönetmek ve kurum içinde güçlü bir denetim yaklaşımı oluşturmak isteyen profesyoneller için kapsamlı ve uygulamalı bir rehber sunar.
Ön Koşul
Temel yapay zekâ kavramlarına ve genel IT güvenliği prensiplerine aşinalık önerilir.
Eğitim İçeriği
- Yapay zeka denetiminin kapsamı, klasik denetimden farkları ve temel yaklaşım
- LLM çalışma mantığı, hallucination ve AI sistemlerde attack surface
- Prompt tabanlı saldırılar ve model manipülasyonu
- Lab 1: Prompt Injection Attack — Modelin instruction override ile nasıl manipüle edildiğinin test edilmesi
- Gizli prompt ifşası ve rol değiştirme saldırıları
- Lab 2: Leakage & Role Attack — System prompt ifşası ve yetki manipülasyonu testleri
- Veri kalitesi, veri temsiliyeti ve bias türlerinin incelenmesi
- Lab 3: Bias Detection — Model çıktılarında ayrımcılık ve fairness analizi
- Eğitim verisinin manipülasyonu ve model üzerindeki etkileri
- Lab 4: Data Poisoning Simulation — Veri setine müdahale edilerek model davranışının değiştirilmesi
- Model performansı ve kararların açıklanabilirliği
- Lab 5: Model Explainability — Feature importance ile model kararlarının analiz edilmesi
- Modelin küçük veri değişiklikleri ile kandırılması
- Lab 6: Adversarial Attack — Input değişimi ile model kararlarının nasıl değiştiğinin test edilmesi
- Prompt tasarımı, kontrol mekanizmaları ve güvenlik kuralları
- Lab 7: Prompt Security Audit — System prompt’un checklist ile değerlendirilmesi
- Injection, leakage ve role testlerinin derinlemesine analizi
- Lab 8: Consistency Testing — Aynı saldırılara karşı model davranışının tutarlılığının test edilmesi
- AI riskleri, kontrol mekanizmaları ve governance yapısı
- Lab 9: Risk Register — AI sistemler için risk tanımlama ve değerlendirme çalışması
- AI sistemlerin veri, model, güvenlik ve governance açısından bütünsel denetimi
- Lab 10: End-to-End Audit — Gerçek senaryo üzerinden kapsamlı AI denetimi ve rapor oluşturma
Kazanımlar
- Yapay zeka sistemlerini uçtan uca denetleyebilen, riskleri sistematik şekilde değerlendirebilen bir bakış açısı kazanacaksınız
- LLM’lerin nasıl çalıştığını anlayarak hallucination ve model hatalarını erken tespit edebileceksiniz
- Prompt injection ve benzeri saldırılara karşı sistemleri test edebilen pratik güvenlik yetkinliği geliştireceksiniz
- Prompt leakage ve rol manipülasyonu risklerini analiz ederek güvenli prompt tasarımı yapabileceksiniz
- Veri kalitesi ve bias analizleri ile model çıktılarındaki adaletsizlikleri tespit edip yorumlayabileceksiniz
- Data poisoning saldırılarını anlayarak veri bütünlüğünü korumaya yönelik kontrol mekanizmaları kurabileceksiniz
- Model kararlarını explainability teknikleriyle açıklayarak denetlenebilir ve şeffaf AI sistemleri geliştirebileceksiniz
- Adversarial attack senaryolarını test ederek model dayanıklılığını artırma becerisi kazanacaksınız
- System prompt güvenliğini değerlendirerek kontrol checklist’leri ile zafiyetleri tespit edebileceksiniz
- AI risk yönetimi ve governance yaklaşımı ile kurumsal seviyede denetim ve kontrol yapıları oluşturabileceksiniz
Hedef Kitle
- AI denetimi, risk yönetimi ve güvenlik alanında uzmanlaşmak isteyen denetim, risk ve uyum (compliance) profesyonelleri
- LLM tabanlı ürünler geliştiren veya yöneten yapay zeka, veri bilimi ve yazılım ekiplerinde çalışan profesyoneller
- Kurumlarında AI kullanımını yöneten, riskleri anlamak ve kontrol altına almak isteyen orta ve üst düzey yöneticiler
- Siber güvenlik, veri yönetişimi ve teknoloji denetimi alanlarında çalışan ve AI güvenliği yetkinliği kazanmak isteyen uzmanlar
Sertifika
Eğitimlerimize %80 oranında katılım gösterilmesi ve eğitim müfredatına göre uygulanacak sınav/projelerin başarıyla tamamlanması durumunda, eğitimin sonunda dijital ve QR kod destekli “BT Akademi Başarı Sertifikası” verilmektedir.
SEKTÖRÜN GÜVENDİĞİ ÇÖZÜM ORTAĞI
BT Akademi'yi tercih eden 4.000'den fazla kurum yanılmıyor.