
Eğitim Hakkında
Bu stratejik program, üretken yapay zekâ tarafından yaratılan metin, görüntü ve seslerin insan üretimi olanlardan ayırt edilemez hale geldiği "Sentetik Gerçeklik" çağının getirdiği varoluşsal zorlukları ve fırsatları ele alır. Eğitim, katılımcılara sadece dezenformasyonun yeni nesil tehditlerini tanıtmakla kalmaz, aynı zamanda kurumların ve liderlerin bu yeni bilgi ekolojisinde itibarlarını nasıl koruyacaklarını, güveni nasıl inşa edeceklerini ve stratejik iletişimlerini nasıl yöneteceklerini öğretir. Bu bir teknik eğitimden çok, 21. yüzyılın en temel zorluklarından birine karşı kurumsal dayanıklılık (corporate resilience) ve stratejik öngörü geliştirme programıdır.
Bu eğitim, üç temel disiplinin kesişiminde yer alan, liderlere yönelik bir strateji ve yönetişim programıdır:
- Sentetik Medya ve Bilgi Ekolojisi: Yapay zekâ tarafından üretilen içeriklerin (deepfake'ler, metinler, kodlar) bilgi akışını, kamuoyunu ve kurumsal itibarı nasıl temelden değiştirdiğinin analizi.
- Uygulamalı Epistemoloji: "Doğruluk", "gerçeklik" ve "bilgi" gibi kavramların LLM'ler çağında ne anlama geldiğinin felsefi ve pratik olarak sorgulanması. Bir LLM'in "bilmesi" ile bir insanın bilmesi arasındaki farklar ve bu farkın getirdiği riskler.
- Bilişsel Güvenlik ve Kurumsal Dayanıklılık: Bireylerin ve kurumların, algoritmik manipülasyon ve kitlesel dezenformasyon kampanyalarına karşı bilişsel ve operasyonel savunma mekanizmaları geliştirme bilimi ve sanatı.
Kimler İçindir?
- Kurumsal itibarı korumakla yükümlü İletişim ve Halkla İlişkiler (PR) Direktörleri.
- Bilginin doğruluğu ve kamuoyu güveninin temel işlevi olduğu Gazeteciler, Editörler ve Medya Yöneticileri.
- Dezenformasyonun yarattığı yasal, finansal ve operasyonel riskleri yöneten Hukuk, Risk ve Uyum Departmanı Liderleri.
- Toplumsal düzeni ve demokratik süreçleri etkileyen bilgi kirliliğiyle mücadele eden Kamu Politikası Yapıcıları ve Regülatörler.
- Marka güvenliği ve müşteri algısını yöneten Pazarlama ve Marka Stratejistleri.
- Kurumlarının uzun vadeli stratejisini bu yeni gerçekliğe göre şekillendirmek isteyen C-Level Yöneticiler (CEO, CSO, CCO).
Sertifika
Eğitimlerimize %80 oranında katılım gösterilmesi ve eğitim müfredatına göre uygulanacak sınav/projelerin başarıyla tamamlanması durumunda, eğitimin sonunda dijital ve QR kod destekli “BT Akademi Başarı Sertifikası” verilmektedir.
Eğitim İçeriği
1.1. Gerçekliğin Sentezlenmesi: Tarihsel Bir Bakış
- Fotoğraf manipülasyonundan CGI'a, deepfake'lerden LLM'lere: Sentetik medyanın evrimi.
- "Gerçeklik Ayrıcalığının Sonu": İnsan üretimi ile makine üretimi içeriğin ayırt edilemez hale gelmesi (The Uncanny Valley'nin Aşılması).
- Bilgi Üretim Maliyetinin Sıfıra Yaklaşması ve Sonuçları.
- "Gürültü Tufanı" (Flood of Noise): Doğru bilginin, sonsuz miktardaki anlamsız veya yanlış bilgi içinde kaybolması riski.
- Vaka İncelemesi: Seçimlere, finansal piyasalara ve kamu sağlığına yönelik erken dönem sentetik medya kampanyaları.
2.1. Bir LLM Nasıl "Bilir"? İstatistiksel Papağanlar ve Stokastik Modeller
- LLM'lerin olasılık tabanlı kelime dizilimi üretme mantığı: Gerçek anlama ve akıl yürütme olmadan yetkin görünme.
- Halüsinasyonlar: Bir hata değil, sistemin doğal bir özelliği olarak "uydurma" olgusu.
- Olgusal Doğruluk (Factuality) vs. Anlatısal Tutarlılık (Narrative Coherence): LLM'lerin ikinciye optimize olması.
- "Grounding" Problemi: Dil modellerinin ürettiği metinleri, gerçek dünyadaki kanıtlara ve kaynaklara bağlama zorluğu.
- Tartışma: Bir LLM'in ürettiği "ortalama" veya "en olası" cevap, "doğru" cevap mıdır?
3.1. Modern Dezenformasyonun Araç Seti
- Metin Tabanlı Ataklar: Hiper-kişiselleştirilmiş oltalama (spear-phishing) e-postaları, otomatik sosyal medya bot ağları, sahte ürün yorumları.
- Ses ve Görüntü Tabanlı Ataklar: Bir CEO'nun sesini taklit ederek finansal dolandırıcılık (deepfake audio), rakip bir siyasetçiyi itibarsızlaştıran sahte videolar.
- "Liar's Dividend" (Yalancının Kârı): Gerçek olayların bile "bu deepfake olabilir" şüphesiyle reddedilmesi durumu.
- Bir şirketin hisse senedi fiyatını düşürmek için tasarlanmış çok katmanlı bir saldırının (sahte haber, bot yorumları, deepfake ses kaydı) aşamalarının incelenmesi.
4.1. Tespit Teknolojileri ve Sınırları
- Sentetik metin, görüntü ve sesleri tespit etmeye yönelik yapay zekâ modelleri.
- "Kedi-Fare Oyunu": Üretici modellerin, tespit modellerinden her zaman bir adım önde olma eğilimi.
- C2PA (Coalition for Content Provenance and Authenticity): Bir içeriğin (resim, video) kökenini ve geçirdiği değişiklikleri kriptografik olarak damgalayan endüstri standardı.
- Dijital Filigran (Watermarking): Yapay zekâ tarafından üretilen içeriklere görünmez imzalar ekleme teknikleri ve bunların kırılganlığı.
- Bir bilginin yayılma ağını analiz ederek (network analysis) organize ve inorganik yayılımı ayırt etme.
5.1. Kurumsal Politikaların Geliştirilmesi
- Çalışanların Üretken AI Kullanım Politikası: Hangi araçların, hangi verilerle, ne amaçla kullanılabileceğinin belirlenmesi.
- İletişim Departmanı için Kaynak Doğrulama Protokolü: Bir haberi veya bilgiyi yayınlamadan önce geçirilmesi gereken kontrol adımları.
- "Sentetik Kriz" Senaryoları için Hazırlık: Bir deepfake saldırısı durumunda kimin, hangi kanallardan, ne mesaj vereceğinin önceden planlandığı bir "playbook" oluşturma.
- Güven İnşası: Kriz anında ve öncesinde paydaşlarla (çalışanlar, müşteriler, yatırımcılar) proaktif ve şeffaf iletişim kurmanın önemi.
- Çalışanlara yönelik, modern dezenformasyon tekniklerini ve bilişsel önyargıları tanıma eğitimleri. Kurum içinde bir "doğrulama kültürü" oluşturma.
- Senaryo Başlangıcı: Katılımcılara, şirketlerini hedef alan ve sosyal medyada hızla yayılan bir sentetik içerik (örn: CEO'nun istifa ettiğine dair deepfake ses kaydı) sunulur.
- Rol Dağılımı: Katılımcılar iletişim, hukuk, yönetim ve teknik ekiplere ayrılır.
- Zaman Baskısı Altında Karar Verme: Belirli aralıklarla yeni bilgiler (gazetecilerden gelen telefonlar, düşen hisse senedi fiyatı, sahte iç yazışmalar) verilerek, ekiplerin gerçek zamanlı olarak bir kriz yönetimi stratejisi oluşturması ve uygulaması beklenir.
- Değerlendirme (Debriefing): Simülasyon sonunda, alınan kararlar, yapılan hatalar ve öğrenilen dersler üzerine bir değerlendirme oturumu yapılır.
7.1. Gelecek Trendleri
- Otonom Dezenformasyon Ajanları: İnsan müdahalesi olmadan kendi hedeflerini belirleyip kampanya yürüten AI sistemleri.
- Kişiselleştirilmiş Gerçeklikler: Her bireyin kendi önyargılarını doğrulayan, tamamen yapay zekâ tarafından üretilmiş "gerçeklik balonları"nda yaşaması riski.
- AB Yapay Zekâ Yasası (EU AI Act) gibi regülasyonların sentetik medya üzerindeki potansiyel etkileri.
- Platformların Sorumluluğu: Sosyal medya şirketlerinin sentetik içeriğin yayılmasındaki rolü ve sorumluluğu.
- Bireylerin ve kurumların, yanlış bilgiye karşı eleştirel düşünme ve doğrulama reflekslerini nasıl güçlendirebileceğine dair uzun vadeli bir vizyon.
Neden Bu Eğitimi Almalısınız ?
- Proaktif İtibar Yönetimi: Kurumunuza veya liderlerinize yönelik yapay zekâ tabanlı sofistike dezenformasyon kampanyalarını başlamadan önce anlama ve bunlara karşı bir kriz iletişim planı geliştirme yeteneği kazandırır.
- Stratejik Anlatı Kontrolü: Gürültülü ve sentetik bir bilgi ortamında, kurumunuzun sesinin nasıl güvenilir ve otantik kalabileceğine dair iletişim stratejileri sunar.
- Derinlemesine Risk Analizi: Üretken yapay zekayı hem kullanmanın (örn: pazarlama metinlerinde yanlış bilgi üretmesi) hem de hedefi olmanın getireceği hukuki, etik ve finansal riskleri bütünsel olarak haritalandırır.
- Sağlam Kurumsal Politikalar Geliştirme: Çalışanların üretken yapay zekayı etik ve güvenli bir şekilde kullanması için gerekli olan iç yönetmelik ve politikaları oluşturmak için bir çerçeve sunar.
- Geleceğe Hazırlık: Katılımcıları, önümüzdeki yıllarda artarak devam edecek olan sentetik medya ve bilgi belirsizliğiyle başa çıkmak için gereken eleştirel düşünme ve analitik araçlarla donatır.
Önemli Notlar
Program ücretlerine KDV dahil değildir.