Uygulamalı Yapay Zeka Denetimi ve Güvenliği Eğitimi
Eğitmen: Barış Çeliktaş, Siber Güvenlik Lisansüstü Program Direktörü , FMV Işık Üniversitesi
Başlangıç: 9 Haziran 2026
Süre: 6 Hafta / 12 Ders
Günler: Salı ve Perşembe
Saatler: 19.30 - 21.00
Ders Türü: Canlı ve Online
Eğitime genel bakış
Uygulamalı Yapay Zeka Denetimi ve Güvenliği Eğitimi, yapay zeka sistemlerini yalnızca geliştiren değil; aynı zamanda denetleyen, güvenliğini sağlayan ve risklerini yöneten profesyoneller için tasarlandı. Bu program, AI teknolojilerini bir “kara kutu” olarak kabul etmek yerine; veri, model ve sistem seviyesinde şeffaflık, güvenlik ve hesap verebilirlik perspektifi kazandırmayı hedefler.
Günümüzde özellikle büyük dil modellerinin (LLM) yaygınlaşmasıyla birlikte, yapay zeka sistemleri kurumların kritik karar süreçlerinde aktif rol oynamaya başladı. Ancak bu hızlı yaygınlaşma; hallucination, bias, prompt injection ve veri manipülasyonu gibi yeni nesil riskleri de beraberinde getiriyor. Bu riskler yalnızca teknik bir problem değil; aynı zamanda itibar, regülasyon uyumu ve operasyonel güvenlik açısından da önemli sonuçlar doğuruyor.
Bu eğitimde katılımcılar; yapay zeka denetiminin temel prensiplerinden başlayarak LLM mimarileri ve tehdit yüzeyine, prompt tabanlı saldırılardan veri zehirleme (data poisoning) tekniklerine kadar geniş bir yelpazede bilgi sahibi olacak. Program boyunca gerçekleştirilen uygulamalı laboratuvar çalışmaları sayesinde, teorik bilgilerin ötesine geçilerek gerçek saldırı senaryoları test edilecek ve model davranışları doğrudan gözlemlenecek.
Programın sonunda katılımcılar; bir yapay zeka sistemini uçtan uca değerlendirebilecek, veri kalitesi, model performansı, güvenlik açıkları ve yönetişim yapısını birlikte analiz edebilecek yetkinliğe ulaşacak. Aynı zamanda kurumları için somut bir AI risk yönetimi ve denetim çerçevesi oluşturabilecek pratik araçlar ve metodolojiler kazanacaklar.
Bu eğitim, AI sistemlerini daha güvenilir hale getirmek, riskleri proaktif şekilde yönetmek ve kurum içinde güçlü bir denetim yaklaşımı oluşturmak isteyen profesyoneller için kapsamlı ve uygulamalı bir rehber sunar.
Eğitimde neler var?
AI denetiminin temelleri, klasik denetimden farkları ve risk odaklı yaklaşım
LLM çalışma mantığı, hallucination riski ve yapay zeka sistemlerinde saldırı yüzeyi
Prompt injection saldırıları ve modelin talimat manipülasyonuna karşı test edilmesi
Prompt leakage ve rol manipülasyonu ile gizli talimatların ifşa edilmesi
Veri kalitesi, temsiliyet ve model çıktılarında bias (önyargı) analizi
Data poisoning ile eğitim verisinin manipülasyonu ve etkilerinin incelenmesi
Model explainability ile karar mekanizmalarının şeffaf şekilde analiz edilmesi
Adversarial attack, prompt güvenliği ve AI risk yönetimi ile sistem dayanıklılığı
Eğitim kimler için uygun?
- AI denetimi, risk yönetimi ve güvenlik alanında uzmanlaşmak isteyen denetim, risk ve uyum (compliance) profesyonelleri
- LLM tabanlı ürünler geliştiren veya yöneten yapay zeka, veri bilimi ve yazılım ekiplerinde çalışan profesyoneller
- Kurumlarında AI kullanımını yöneten, riskleri anlamak ve kontrol altına almak isteyen orta ve üst düzey yöneticiler
- Siber güvenlik, veri yönetişimi ve teknoloji denetimi alanlarında çalışan ve AI güvenliği yetkinliği kazanmak isteyen uzmanlar
Eğitimde neler kazanacaksınız?
Yapay zeka sistemlerini uçtan uca denetleyebilen, riskleri sistematik şekilde değerlendirebilen bir bakış açısı kazanacaksınız
LLM’lerin nasıl çalıştığını anlayarak hallucination ve model hatalarını erken tespit edebileceksiniz
Prompt injection ve benzeri saldırılara karşı sistemleri test edebilen pratik güvenlik yetkinliği geliştireceksiniz
Prompt leakage ve rol manipülasyonu risklerini analiz ederek güvenli prompt tasarımı yapabileceksiniz
Veri kalitesi ve bias analizleri ile model çıktılarındaki adaletsizlikleri tespit edip yorumlayabileceksiniz
Data poisoning saldırılarını anlayarak veri bütünlüğünü korumaya yönelik kontrol mekanizmaları kurabileceksiniz
Model kararlarını explainability teknikleriyle açıklayarak denetlenebilir ve şeffaf AI sistemleri geliştirebileceksiniz
Adversarial attack senaryolarını test ederek model dayanıklılığını artırma becerisi kazanacaksınız
System prompt güvenliğini değerlendirerek kontrol checklist’leri ile zafiyetleri tespit edebileceksiniz
AI risk yönetimi ve governance yaklaşımı ile kurumsal seviyede denetim ve kontrol yapıları oluşturabileceksiniz
Müfredat
1. Ders: AI Audit Temelleri
- • Yapay zeka denetiminin kapsamı, klasik denetimden farkları ve temel yaklaşım
2. Ders: LLM Temelleri ve AI Tehdit Yüzeyi
- • LLM çalışma mantığı, hallucination ve AI sistemlerde attack surface
3. Ders: Prompt Injection ve LLM Saldırıları
- • Prompt tabanlı saldırılar ve model manipülasyonu
- • Lab 1: Prompt Injection Attack — Modelin instruction override ile nasıl manipüle edildiğinin test edilmesi
4. Ders: Prompt Leakage ve Role Manipulation
- • Gizli prompt ifşası ve rol değiştirme saldırıları
- • Lab 2: Leakage & Role Attack — System prompt ifşası ve yetki manipülasyonu testleri
5. Ders: Veri Denetimi ve Bias Analizi
- • Veri kalitesi, veri temsiliyeti ve bias türlerinin incelenmesi
- • Lab 3: Bias Detection — Model çıktılarında ayrımcılık ve fairness analizi
6. Ders: Data Poisoning ve Veri Bütünlüğü
- • Eğitim verisinin manipülasyonu ve model üzerindeki etkileri
- • Lab 4: Data Poisoning Simulation — Veri setine müdahale edilerek model davranışının değiştirilmesi
7. Ders: Model Denetimi ve Explainability
- • Model performansı ve kararların açıklanabilirliği
- • Lab 5: Model Explainability — Feature importance ile model kararlarının analiz edilmesi
8. Ders: Adversarial Attack ve Model Dayanıklılığı
- • Modelin küçük veri değişiklikleri ile kandırılması
- • Lab 6: Adversarial Attack — Input değişimi ile model kararlarının nasıl değiştiğinin test edilmesi
9. Ders: System Prompt Güvenlik Denetimi
- • Prompt tasarımı, kontrol mekanizmaları ve güvenlik kuralları
- • Lab 7: Prompt Security Audit — System prompt’un checklist ile değerlendirilmesi
10. Ders: Advanced Prompt Testing ve Tutarlılık Analizi
- • Injection, leakage ve role testlerinin derinlemesine analizi
- • Lab 8: Consistency Testing — Aynı saldırılara karşı model davranışının tutarlılığının test edilmesi
11. Ders: AI Risk Yönetimi ve Yönetişim
- • AI riskleri, kontrol mekanizmaları ve governance yapısı
- • Lab 9: Risk Register — AI sistemler için risk tanımlama ve değerlendirme çalışması
12. Ders: Uçtan Uca AI Denetim Uygulaması
- • AI sistemlerin veri, model, güvenlik ve governance açısından bütünsel denetimi
- • Lab 10: End-to-End Audit — Gerçek senaryo üzerinden kapsamlı AI denetimi ve rapor oluşturma