
Eğitim Hakkında
Eğitimimiz, derin öğrenme algoritmalarını dinamik, esnek ve kullanıcı dostu bir ortamda geliştirmek, eğitmek ve optimize etmek için PyTorch kütüphanesinin sunduğu tüm araçları kapsamlı bir biçimde ele alır. Bu eğitim, temel tensor işlemlerinden başlayarak, sinir ağı mimarilerinin oluşturulması, model eğitimi, hata geri yayılımı, optimizasyon, transfer öğrenme ve model dağıtımına kadar geniş bir yelpazede uygulamalı bilgi ve beceriler kazandırmayı hedefler.
PyTorch, açık kaynaklı, dinamik hesaplama grafiğine sahip ve esnek bir derin öğrenme kütüphanesidir. Eğitimde, PyTorch’ın temel yapı taşları olan tensorlar, otomatik türev hesaplamaları (autograd), sinir ağı katmanları ve modüler yapı üzerine detaylı bilgi verilecek; ayrıca, CNN, RNN ve diğer klasik mimarilerle pratik örnekler üzerinden model geliştirme süreçleri ele alınacaktır.
Kimler İçindir?
- Yapay zeka ve makine öğrenmesi ile ilgilenenler,
- Veri bilimciler ve mühendisler,
- Yazılım geliştiriciler, derin öğrenme algoritmalarını projelerine entegre etmek isteyenler,
- Akademisyenler ve araştırmacılar, derin öğrenme tekniklerini çalışmalarında kullanmak isteyenler,
- Üniversite öğrencileri, derin öğrenme alanında kariyer yapmak isteyenler,
- Sağlık, finans, otomotiv ve perakende gibi sektörlerde çalışan profesyoneller, derin öğrenmenin iş süreçlerine nasıl entegre edileceğini öğrenmek isteyenler.
Sertifika
Eğitimlerimize %80 oranında katılım gösterilmesi ve eğitim müfredatına göre uygulanacak sınav/projelerin başarıyla tamamlanması durumunda, eğitimin sonunda dijital ve QR kod destekli “BT Akademi Başarı Sertifikası” verilmektedir.
Eğitim İçeriği
- Derin öğrenmenin arka planı
- Perceptron → Backpropagation → AlexNet → Transformer & Diffusion çağları
- Klasik ML ile derin öğrenme arasındaki temel farklar
- PyTorch ekosistemi
- TorchScript, torch-data, torch-metrics, torch-compile, PyTorch 2.x Dynamo
- Topluluk, sürüm yaşam döngüsü, LTS dağıtımları
- Matematiksel temeller
- Lineer cebir (eigen, SVD), kalkülüs (zincir kuralı, Jacobian / Hessian)
- Olasılık & bilgi kuramı (KL divergence, çapraz entropi)
- Tensor pratiği
- Broadcasting, Einstein summation, torch.einsum örnekleri
- Tensor yaşam döngüsü
- Bellek sabitleme (pin_memory), paylaşılan bellek, CPU ↔ GPU transferleri
- Autograd derinleşmesi
- Grad Fn diyagramı, torch.autograd.profiler kullanımı
- Gradient checkpointing ve yarı-doğrusal hesap
- Dinamik hesap grafiği
- Eager mode, TorchScript, TorchDynamo karşılaştırması
- Kayıp fonksiyonları ve metrikler
- Focal Loss, Dice Loss, InfoNCE; AUROC, Cohen’s κ, top-k accuracy
- Optimizatör ailesi
- AdamW, RAdam, Lion, SAM, LAMB ve kullanım senaryoları
- Torch-data ve DataPipes
- Akış verisi, WebDataset, tar-shard yapıları
- Görüntü, metin ve ses pipelineları
- Albumentations & Kornia augmentasyonları
- torchtext + SentencePiece tokenizasyonu
- torchaudio, MelSpectrogram, gürültü ekleme
- Büyük veri & dağıtık okuma
- NVIDIA DALI, Petastorm, Parquet ↔ Arrow, Async prefetch
- Module anatomisi
- Parametre vs buffer kaydı, modüler katman tasarımı
- Eğitim döngüsü
- Batch/epoch mantığı, kararlı eğitim “bag of tricks” (label smoothing, mixup, CutMix)
- Araç setleri
- PyTorch Lightning, HuggingFace accelerate, Callbacks (early stop, gradient clip)
- Modern CNN blokları
- Inception, ResNet, DenseNet, EfficientNet-V2
- Detection & segmentation
- YOLOv8, DETR, Mask R-CNN, Segment Anything (SAM)
- Görüntüde self-supervised öğrenme
- SimCLR, BYOL, DINOv2, MAE
- Vision Transformer ve hibrit mimariler
- Uygulamalı laboratuvar
- Endüstriyel defo tespiti; denetimli vs kendinden denetimli kıyas
- LSTM, GRU, vanishing/exploding gradient çözümleri
- Attention mekanizmaları
- Bahdanau, Luong, additive vs dot-product, multi-head
- Sequence-to-sequence ve zaman serisi tahmini
- Teacher forcing, scheduled sampling, Temporal Fusion Transformer
- Speech recognition boru hattı
- CTC Loss, Wav2Vec 2.0
- Uygulamalı laboratuvar
- Türkçe haber özetleme (BiLSTM-Attention vs mBART)
- Temel yapı taşları
- Flash Attention-2, SwiGLU, Rotary PE, uzun-kontekst teknikleri
- Parameter-efficient tuning
- LoRA, p-LoRA, Q-LoRA, Prefix/Prompt Tuning
- Dağıtık eğitim
- DDP, FSDP, ZeRO-3, DeepSpeed & Megatron-LM
- LLM iyileştirme
- RLHF, DPO, RAG-Fusion, Toolformer & Function-Calling
- Çok-dilli ve kültüre özel LLM’ler
- Llama-3-Instruct Türkçe fine-tune demoları
- CGAN, WGAN-GP, StyleGAN-3
- β-VAE, VQ-VAE-2
- DDPM, Latent Diffusion, Control-Net
- PyTorch + diffusers ile metinden görüntü üretim atölyesi
- Graph teorisi temelleri ve veri yapıları
- PyTorch Geometric & DGL ekosistemi
- GCN, GraphSAGE, GAT, Graph Transformer
- Sosyal ağ link tahmini ve tedarik zinciri risk grafı laboratuvarı
- Optuna, Ray Tune, Hyperband, Population-Based Training
- Neural Architecture Search (DARTS, ProxylessNAS)
- Küme sweepleri ve WandB görselleştirme atölyesi
- Quantization (PTQ, QAT, GPTQ, AWQ), pruning, distillation
- Torch-TensorRT, ONNX, TVM, vLLM
- Edge & mobile dağıtım (TorchLite, CoreML, WebGPU)
- Mikro-servis mimarisi: FastAPI, BentoML, KServe
- CI/CD boru hatları (GitHub Actions, GitLab CI, Jenkins)
- Model & veri drift izleme (Evidently, WhyLabs, Arize)
- OpenTelemetry entegre izlenebilirlik, PyTorch Profiler
- Güvenlik ve yönetişim: Vault, SBOM, politik imzalama (cosign)
Neden Bu Eğitimi Almalısınız ?
- Yüksek Performans: Derin öğrenme modelleri, karmaşık problemlerde insan benzeri kararlar alabilmektedir.
- Geniş Kullanım Alanı: Görüntü işleme, doğal dil işleme (NLP), robotik ve öneri sistemleri gibi birçok alanda kullanılmaktadır.
- Güçlü Kütüphaneler: TensorFlow, Keras, PyTorch gibi güçlü derin öğrenme kütüphaneleri sayesinde hızlı prototipleme ve model geliştirme imkanı sunar.
- Büyük Veri Analizi: Derin öğrenme, büyük ve yapılandırılmamış verilerle etkili bir şekilde çalışabilir.
- Endüstri Talebi: Şirketler, otonom sistemlerden müşteri hizmetlerine kadar geniş bir yelpazede derin öğrenme uzmanlarına ihtiyaç duymaktadır.
Önemli Notlar
Program ücretlerine KDV dahil değildir.